Plataforma
Características
Estudio de agentes
Crea y personalice su agente rápidamente
Motor autónomo
Utilice LLMs para orientar conversaciones y tareas
Bases de conocimiento
Entrena tu bot con fuentes de conocimiento personalizadas
Traspaso humano
Gestionar las conversaciones con participación humana
Tablas
Almacenar y gestionar los datos de las conversaciones
Canales
Whatsapp Emblema
WhatsApp
Instagram Emblema
Instagram
Facebook Messenger logo
Messenger
Logotipo de Slack
Slack
Todos los canales
Integraciones
Logotipo de Hubspot
HubSpot
Logotipo de Notion
Notion
Logotipo de Jira
Jira
Calendly logotipo
Calendly
Todas las integraciones
LLM Proveedores
Logotipo OpenAI
OpenAI
Logotipo Anthropic
Anthropic
Logotipo Groq
Groq
Logotipo de HuggingFace
Hugging Face
Todos LLMs
Soluciones
Para
Empresa
Automatice los flujos de trabajo de producción de misión crítica
Agencias
Proporcionar servicios de agente sofisticados
Desarrolladores
Explore una sólida API para el desarrollo de agentes
Historias de clientes
Descubra de la mano de clientes de éxito cómo Botpress está transformando los negocios en todo el mundo.
Por sector
Comercio electrónico
Educación
Finanzas
Hostelería
Todos los sectores
Por Departamento
Ventas
Ingeniería
Producto
ITSM
Todos los departamentos
Por caso de uso
Automatización del flujo de trabajo
Gestión de entradas
Asistente de compras
Copiloto de productos
Todos los casos de uso
Recursos
Esencial
Academy
Aprenda a construir a través de cursos curados
Biblioteca
Recursos para mejorar sus flujos de trabajo de IA
Blog
Perspectivas y actualizaciones sobre Botpress y agentes de IA
edificio
Discord
Únete a miles de compañeros y comparte ideas
Docs
Guías y referencias completas
API
Material de referencia para uso con sistemas externos
Eventos
Reuniones mensuales para desarrolladores y curiosos de la tecnología
Vídeos
Tutoriales, demostraciones y guías de productos
Registro de cambios
Mantente al día de las últimas actualizaciones Botpress
Socios
Hágase socio
Únase a nuestra red de expertos certificados
Contratar a un experto
Conectar con socios y asesores
Docs
Empresa
Precios
Inicia sesión
ContáctanosRegístrate
volver a Hub

Estimador de fichas

v0.2.0
Instalar en su espacio de trabajo
Mantenido por Simply Great Bots
  # Integración de Tiktoken Estimator

Estima el conteo de tokens para texto usando la librería tiktoken, permitiendo un conteo preciso de tokens para modelos OpenAI .

## Características

- Recuento preciso de tokens**: Utiliza la biblioteca oficial tiktoken para proporcionar estimaciones precisas de tokens.
- Soporte Multi-Modelo**: Soporta varios modelos de OpenAI (gpt-3.5-turbo, gpt-4, etc.)
- Límites de seguridad**: Comprobación opcional de límites de seguridad para evitar excesos de tokens.
- Configuración cero**: No requiere configuración - funciona fuera de la caja
- Gestión de errores**: Gestión de errores con mensajes descriptivos

## Uso

### Estimate Tokens Action

La integración proporciona una única acción: `estimateTokens`.

**Parámetros de entrada
- `text` (obligatorio): El texto para el que estimar los tokens
- `model` (opcional): El modelo OpenAI a utilizar para la tokenización (por defecto es "gpt-3.5-turbo")
- `safetyLimit` (opcional): Límite de seguridad para la estimación del recuento de tokens. Si se deja vacío, no se aplicará ningún límite

**Salida
- `tokenCount`: El número estimado de tokens en el texto
- `tokenizerName`: El nombre del tokenizador utilizado
- `model`: El modelo en el que se ha basado la tokenización
- `limitExceeded`: Indica si el recuento estimado de tokens ha superado el límite de seguridad (sólo está presente cuando se proporciona safetyLimit).

### Ejemplo de uso

**Uso básico
```
Texto: "¡Hola, mundo!"
Modelo: "gpt-3.5-turbo"

Resultado:
- tokenCount: 4
- tokenizerName: "tiktoken"
- model: "gpt-3.5-turbo"
```

**Con Límite de Seguridad:**
```
Texto: "Este es un texto más largo que podría exceder nuestro límite de seguridad..."
Modelo: "gpt-3.5-turbo"
Límite de seguridad: 10

Resultado:
- tokenCount: 15
- tokenizerName: "tiktoken"
- model: "gpt-3.5-turbo"
- limitExceeded: true
```

## Modelos admitidos

- gpt-3.5-turbo
- gpt-4
- gpt-4-turbo
- text-davinci-003
- text-davinci-002
- código-davinci-002
- Y otros modelos de OpenAI compatibles con tiktoken

## Límites de seguridad recomendados

A la hora de establecer los límites de seguridad, ten en cuenta que tus llamadas reales a la API incluirán tokens adicionales para las solicitudes del sistema, el historial de conversaciones y la generación de respuestas. Estas son recomendaciones conservadoras:

### GPT.5-Turbo (límite de 4.096 tokens)
- Conservador**: 2.500 tokens (quedan ~1.600 para avisos del sistema + respuesta)
- Moderado**: 3.000 tokens (deja ~1.100 para indicaciones del sistema + respuesta)
- **Agresivo**: 3.500 tokens (deja ~600 para indicaciones del sistema + respuesta)

### GPT(límite de 8.192 tokens)
- Conservador**: 5.000 tokens (deja ~3.200 para indicaciones del sistema + respuesta)
- **Moderado**: 6.000 tokens (deja ~2.200 para indicaciones del sistema + respuesta)
- **Agresivo**: 7.000 tokens (deja ~1.200 para indicaciones del sistema + respuesta)

### GPT Turbo (límite de 128.000 tokens)
- Conservador**: 100.000 tokens (deja ~28.000 para avisos del sistema + respuesta)
- **Moderado**: 110.000 tokens (deja ~18.000 para avisos del sistema + respuesta)
- **Agresivo**: 120.000 tokens (deja ~8.000 para las indicaciones del sistema + respuesta)

**Nota**: Estas recomendaciones se basan en el tamaño típico de las instrucciones del sistema (200-800 tokens) y en la longitud deseada de las respuestas (500-2.000 tokens). Ajústelas en función de su caso de uso específico.

## Tratamiento de errores

La integración maneja varios escenarios de error:

- Entrada no válida**: Devuelve mensajes de error claros para texto no válido o faltante.
- Texto vacío**: Devuelve 0 tokens para cadenas vacías
- Modelo no soportado**: Devuelve error para modelos no soportados por tiktoken
- Errores de Tokenización**: Maneja los errores de la biblioteca tiktoken con gracia
- Avisos de límite de seguridad**: Registra advertencias cuando el recuento de tokens excede los límites de seguridad

## Beneficios

- Optimización de costes**: Estima los costes de los tokens antes de realizar las llamadas a la API
- Limitación de tarifas**: Gestione los presupuestos de tokens y evite excesos con límites de seguridad
- Lógica de flujo de trabajo Habilite la lógica condicional basada en recuentos de tokens y umbrales de seguridad
- Transparencia**: Proporciona visibilidad de los patrones de uso de los tokens
- Supervisión proactiva**: Establezca límites de seguridad para detectar a tiempo posibles excesos de fichas


Crea Mejor con Botpress

Cree increíbles experiencias con agentes de IA.

Empieza - es gratis
Aprende más en Botpress Academy

Crea Agentes de AI mejor y más rápido con nuestra colección curada de cursos, guías y tutoriales.

Contratar a un experto

Póngase en contacto con nuestros desarrolladores certificados para encontrar un constructor experto que se adapte a sus necesidades.

Todos los sistemas operativos
SOC 2
Certificado
GDPR
Conforme
© 2025
Plataforma
Precios
Estudio de agentes
Motor autónomo
Bases de conocimiento
Traspaso humano
Tablas
Hub
Integraciones
Canales
LLMs
Recursos
Hable con Ventas
Documentación
Contratar a un experto
Vídeos
Historias de clientes
Referencia API
Blog
Estado
v12 Recursos
Comunidad
Apoyo comunitario
Hágase socio
Conviértete en embajador
Afiliarse
Empresa
Acerca de
Carreras profesionales
Noticias y prensa
Legal
Privacidad