Piattaforma
Caratteristiche
Studio dell'agente
Costruire e personalizzare rapidamente il vostro agente
Motore autonomo
Utilizzare LLMs per guidare le conversazioni e i compiti
Basi di conoscenza
Addestrate il vostro bot con fonti di conoscenza personalizzate
Passaggio di consegne umano
Gestire le conversazioni con il coinvolgimento umano
Tavoli
Memorizzare e gestire i dati delle conversazioni
Canali
Whatsapp Emblema
WhatsApp
Instagram Emblema
Instagram
Logo Facebook Messenger
Messenger
Logo Slack
Slack
Tutti i canali
Integrazioni
Logo Hubspot
HubSpot
Logo Notion
Notion
Logo Jira
Jira
Logo Calendly
Calendly
Tutte le integrazioni
LLM Fornitori
Logo OpenAI
OpenAI
Logo Anthropic
Anthropic
Logo Groq
Groq
Logo HuggingFace
Hugging Face
Tutti LLMs
Soluzioni
Per
Impresa
Automatizzare i flussi di lavoro di produzione mission-critical
Agenzie
Fornire servizi sofisticati agli agenti
Sviluppatori
Esplorare una robusta API per lo sviluppo di agenti
Storie di clienti
Scoprite dai clienti di successo come Botpress sta trasformando il business in tutto il mondo.
Per industria
Ecommerce
Istruzione
Finanza
Ospitalità
Tutti i settori
A cura del Dipartimento
Vendite
Ingegneria
Prodotto
ITSM
Tutti i dipartimenti
Per caso d'uso
Automazione del flusso di lavoro
Gestione dei biglietti
Assistente alla spesa
Copilota del prodotto
Tutti i casi d'uso
Risorse
Essenziale
Academy
Imparare a costruire attraverso corsi curati
Biblioteca
Risorse per migliorare i flussi di lavoro dell'IA
Blog
Approfondimenti e aggiornamenti su Botpress e sugli agenti AI
edificio
Discord
Unirsi a migliaia di colleghi e condividere idee
Documenti
Guide e riferimenti completi
API
Materiale di riferimento da utilizzare con sistemi esterni
LLM Classifica
Confrontare le prestazioni e i costi dei fornitori di modelli
Video
Tutorial, dimostrazioni e presentazioni del prodotto
Changelog
Rimanete aggiornati sugli ultimi aggiornamenti di Botpress
Partner
Diventare partner
Unitevi alla nostra rete di esperti certificati
Assumere un esperto
Connettersi con partner e consulenti
Documenti
Impresa
Prezzi
Accedi
ContattoIscriviti
torna a Hub

Stimatore di gettoni

v0.2.0
Installare sul proprio spazio di lavoro
Mantenuto da Simply Great Bots
  # Integrazione del Tiktoken Estimator

Stima il numero di token per il testo usando la libreria tiktoken, consentendo un conteggio accurato dei token per i modelli OpenAI .

## Caratteristiche

- **Conteggio accurato dei token**: Utilizza la libreria ufficiale tiktoken per fornire stime precise dei token.
- Supporto di più modelli**: Supporta diversi modelli OpenAI (gpt-3.5-turbo, gpt-4, ecc.).
- **Limiti di sicurezza**: Controllo opzionale dei limiti di sicurezza per prevenire l'eccesso di token.
- **Configurazione zero**: Nessuna configurazione richiesta - funziona subito
- Gestione degli errori**: Gestione degli errori con messaggi descrittivi

## Utilizzo

### Stima dei gettoni Azione

L'integrazione fornisce un'unica azione: `estimateTokens`.

**Parametri di ingresso
- `testo` (obbligatorio): Il testo per cui stimare i token
- `model` (opzionale): Il modello OpenAI da utilizzare per la tokenizzazione (predefinito a "gpt-3.5-turbo")
- `safetyLimit` (opzionale): Limite di sicurezza per la stima del numero di token. Se lasciato vuoto, non verrà applicato alcun limite

**Output:**
- `tokenCount`: Il numero stimato di token nel testo.
- `tokenizerName`: Il nome del tokenizer utilizzato
- `modello`: Il modello su cui si è basata la tokenizzazione.
- `limitExceeded`: Indica se il numero di token stimato ha superato il limite di sicurezza (presente solo quando è fornito safetyLimit).

### Esempio di utilizzo

**Uso di base:**
```
Testo: "Ciao, mondo!"
Modello: "gpt-3.5-turbo"

Risultato:
- tokenCount: 4
- tokenizerName: "tiktoken"
- modello: "gpt-3.5-turbo"
```

**Con limite di sicurezza
```
Testo: "Questo è un testo più lungo che potrebbe superare il nostro limite di sicurezza...".
Modello: "gpt-3.5-turbo"
Limite di sicurezza: 10

Risultato:
- tokenCount: 15
- nome del tokenizer: "tiktoken"
- modello: "gpt-3.5-turbo"
- limitExceeded: true
```

## Modelli supportati

- `gpt-3.5-turbo
- `gpt-4
- `gpt-4-turbo
- testo-davinci-003
- testo-davinci-002
- `codice-davinci-002
- E altri modelli OpenAI supportati da tiktoken

## Limiti di sicurezza raccomandati

Quando si stabiliscono i limiti di sicurezza, si deve considerare che le chiamate API effettive includeranno token aggiuntivi per le richieste di sistema, la cronologia delle conversazioni e la generazione delle risposte. Ecco le raccomandazioni prudenti:

### GPT.5-Turbo (limite di 4.096 token)
- **Conservativo**: 2.500 token (ne rimangono ~1.600 per le richieste di sistema + la risposta)
- **Moderato**: 3.000 token (lascia ~1.100 per le richieste di sistema + risposta)
- **Aggressivo**: 3.500 gettoni (lascia ~600 per le richieste del sistema + risposta)

### GPT(limite di 8.192 token)
- **Conservativo**: 5.000 token (lascia ~3.200 per le richieste di sistema + risposta)
- **Moderato**: 6.000 token (lascia ~2.200 per le richieste del sistema + la risposta)
- **Aggressivo**: 7.000 gettoni (lascia ~1.200 per le richieste del sistema + risposta)

### GPT Turbo (limite di 128.000 token)
- **Conservativo**: 100.000 token (lascia ~28.000 per le richieste di sistema + risposta)
- **Moderato**: 110.000 token (lascia ~18.000 per le richieste di sistema + risposta)
- **Aggressivo**: 120.000 gettoni (lascia ~8.000 per le richieste di sistema + risposta)

**Nota**: Queste raccomandazioni presuppongono dimensioni tipiche dei prompt di sistema (200-800 token) e lunghezze di risposta desiderate (500-2.000 token). Regolate in base al vostro caso d'uso specifico.

## Gestione degli errori

L'integrazione gestisce diversi scenari di errore:

- **Ingresso non valido**: Restituisce messaggi di errore chiari per il testo mancante o non valido.
- Testo vuoto**: Restituisce 0 token per le stringhe vuote.
- **Modello non supportato**: Restituisce un errore per i modelli non supportati da tiktoken.
- **Errori di tokenizzazione**: Gestisce gli errori della libreria tiktoken con garbo
- **Avvisi sui limiti di sicurezza**: Registra gli avvisi quando il numero di token supera i limiti di sicurezza.

## Benefici

- **Ottimizzazione dei costi**: Stima dei costi dei token prima di effettuare chiamate API
- Limitazione della tariffa**: Gestire i budget dei token e prevenire gli eccessi con limiti di sicurezza.
- **Logica del flusso di lavoro**: Abilita la logica condizionale in base al conteggio dei token e alle soglie di sicurezza.
- **Trasparenza**: Fornisce visibilità sui modelli di utilizzo dei token
- Monitoraggio proattivo**: Impostazione di limiti di sicurezza per individuare tempestivamente potenziali sovraccarichi di token.


Costruire meglio con Botpress

Creare incredibili esperienze di agenti AI.

Inizia a Sviluppare con Botpress
Per saperne di più Botpress Academy

Costruite agenti AI in modo migliore e più rapido con la nostra raccolta curata di corsi, guide ed esercitazioni.

Assumere un esperto

Collegatevi con i nostri sviluppatori certificati per trovare un costruttore esperto che soddisfi le vostre esigenze.

Tutti i sistemi sono operativi
SOC 2
Certificato
GDPR
Conforme
© 2025
Piattaforma
Prezzi
Studio dell'agente
Motore autonomo
Basi di conoscenza
Passaggio di consegne umano
Tavoli
Hub
Integrazioni
Canali
LLMs
Risorse
Contatta il servizio vendite
Documentazione
Assumere un esperto
Video
Storie di clienti
Riferimento API
Blog
Stato
Risorse v12
Comunità
Sostegno alla comunità
Diventare partner
Diventare ambasciatore
Diventare un affiliato
Azienda
Chi siamo
Carriera
Notizie e stampa
Legale
Privacy