Integrazione dell'Estimatore di Gettoni |Hub Botpress

# Integrazione del Tiktoken Estimator

Stima il numero di token per il testo usando la libreria tiktoken, consentendo un conteggio accurato dei token per i modelli OpenAI .

Caratteristiche

  • Conteggio accurato dei token: Utilizza la libreria ufficiale tiktoken per fornire stime precise dei token.
  • Supporto di più modelli**: Supporta diversi modelli OpenAI (gpt-3.5-turbo, gpt-4, ecc.).
  • Limiti di sicurezza: Controllo opzionale dei limiti di sicurezza per prevenire l'eccesso di token.
  • Configurazione zero: Nessuna configurazione richiesta - funziona subito
  • Gestione degli errori**: Gestione degli errori con messaggi descrittivi

Utilizzo

Stima dei gettoni Azione

L'integrazione fornisce un'unica azione: estimateTokens.

**Parametri di ingresso

  • testo (obbligatorio): Il testo per cui stimare i token
  • model (opzionale): Il modello OpenAI da utilizzare per la tokenizzazione (predefinito a "gpt-3.5-turbo")
  • safetyLimit (opzionale): Limite di sicurezza per la stima del numero di token. Se lasciato vuoto, non verrà applicato alcun limite

Output:

  • tokenCount: Il numero stimato di token nel testo.
  • tokenizerName: Il nome del tokenizer utilizzato
  • modello: Il modello su cui si è basata la tokenizzazione.
  • limitExceeded: Indica se il numero di token stimato ha superato il limite di sicurezza (presente solo quando è fornito safetyLimit).

Esempio di utilizzo

Uso di base:

Testo: "Ciao, mondo!"
Modello: "gpt-3.5-turbo"

Risultato:
- tokenCount: 4
- tokenizerName: "tiktoken"
- modello: "gpt-3.5-turbo"

**Con limite di sicurezza

Testo: "Questo è un testo più lungo che potrebbe superare il nostro limite di sicurezza...".
Modello: "gpt-3.5-turbo"
Limite di sicurezza: 10

Risultato:
- tokenCount: 15
- nome del tokenizer: "tiktoken"
- modello: "gpt-3.5-turbo"
- limitExceeded: true

Modelli supportati

  • `gpt-3.5-turbo
  • `gpt-4
  • `gpt-4-turbo
  • testo-davinci-003
  • testo-davinci-002
  • `codice-davinci-002
  • E altri modelli OpenAI supportati da tiktoken

Limiti di sicurezza raccomandati

Quando si stabiliscono i limiti di sicurezza, si deve considerare che le chiamate API effettive includeranno token aggiuntivi per le richieste di sistema, la cronologia delle conversazioni e la generazione delle risposte. Ecco le raccomandazioni prudenti:

GPT.5-Turbo (limite di 4.096 token)

  • Conservativo: 2.500 token (ne rimangono ~1.600 per le richieste di sistema + la risposta)
  • Moderato: 3.000 token (lascia ~1.100 per le richieste di sistema + risposta)
  • Aggressivo: 3.500 gettoni (lascia ~600 per le richieste del sistema + risposta)

GPT(limite di 8.192 token)

  • Conservativo: 5.000 token (lascia ~3.200 per le richieste di sistema + risposta)
  • Moderato: 6.000 token (lascia ~2.200 per le richieste del sistema + la risposta)
  • Aggressivo: 7.000 gettoni (lascia ~1.200 per le richieste del sistema + risposta)

GPT Turbo (limite di 128.000 token)

  • Conservativo: 100.000 token (lascia ~28.000 per le richieste di sistema + risposta)
  • Moderato: 110.000 token (lascia ~18.000 per le richieste di sistema + risposta)
  • Aggressivo: 120.000 gettoni (lascia ~8.000 per le richieste di sistema + risposta)

Nota: Queste raccomandazioni presuppongono dimensioni tipiche dei prompt di sistema (200-800 token) e lunghezze di risposta desiderate (500-2.000 token). Regolate in base al vostro caso d'uso specifico.

Gestione degli errori

L'integrazione gestisce diversi scenari di errore:

  • Ingresso non valido: Restituisce messaggi di errore chiari per il testo mancante o non valido.
  • Testo vuoto**: Restituisce 0 token per le stringhe vuote.
  • Modello non supportato: Restituisce un errore per i modelli non supportati da tiktoken.
  • Errori di tokenizzazione: Gestisce gli errori della libreria tiktoken con garbo
  • Avvisi sui limiti di sicurezza: Registra gli avvisi quando il numero di token supera i limiti di sicurezza.

Benefici

  • Ottimizzazione dei costi: Stima dei costi dei token prima di effettuare chiamate API
  • Limitazione della tariffa**: Gestire i budget dei token e prevenire gli eccessi con limiti di sicurezza.
  • Logica del flusso di lavoro: Abilita la logica condizionale in base al conteggio dei token e alle soglie di sicurezza.
  • Trasparenza: Fornisce visibilità sui modelli di utilizzo dei token
  • Monitoraggio proattivo**: Impostazione di limiti di sicurezza per individuare tempestivamente potenziali sovraccarichi di token.