# Integrazione del Tiktoken Estimator
Stima il numero di token per il testo usando la libreria tiktoken, consentendo un conteggio accurato dei token per i modelli OpenAI .
Caratteristiche
- Conteggio accurato dei token: Utilizza la libreria ufficiale tiktoken per fornire stime precise dei token.
- Supporto di più modelli**: Supporta diversi modelli OpenAI (gpt-3.5-turbo, gpt-4, ecc.).
- Limiti di sicurezza: Controllo opzionale dei limiti di sicurezza per prevenire l'eccesso di token.
- Configurazione zero: Nessuna configurazione richiesta - funziona subito
- Gestione degli errori**: Gestione degli errori con messaggi descrittivi
Utilizzo
Stima dei gettoni Azione
L'integrazione fornisce un'unica azione: estimateTokens
.
**Parametri di ingresso
testo
(obbligatorio): Il testo per cui stimare i tokenmodel
(opzionale): Il modello OpenAI da utilizzare per la tokenizzazione (predefinito a "gpt-3.5-turbo")safetyLimit
(opzionale): Limite di sicurezza per la stima del numero di token. Se lasciato vuoto, non verrà applicato alcun limite
Output:
tokenCount
: Il numero stimato di token nel testo.tokenizerName
: Il nome del tokenizer utilizzatomodello
: Il modello su cui si è basata la tokenizzazione.limitExceeded
: Indica se il numero di token stimato ha superato il limite di sicurezza (presente solo quando è fornito safetyLimit).
Esempio di utilizzo
Uso di base:
Testo: "Ciao, mondo!"
Modello: "gpt-3.5-turbo"
Risultato:
- tokenCount: 4
- tokenizerName: "tiktoken"
- modello: "gpt-3.5-turbo"
**Con limite di sicurezza
Testo: "Questo è un testo più lungo che potrebbe superare il nostro limite di sicurezza...".
Modello: "gpt-3.5-turbo"
Limite di sicurezza: 10
Risultato:
- tokenCount: 15
- nome del tokenizer: "tiktoken"
- modello: "gpt-3.5-turbo"
- limitExceeded: true
Modelli supportati
- `gpt-3.5-turbo
- `gpt-4
- `gpt-4-turbo
- testo-davinci-003
- testo-davinci-002
- `codice-davinci-002
- E altri modelli OpenAI supportati da tiktoken
Limiti di sicurezza raccomandati
Quando si stabiliscono i limiti di sicurezza, si deve considerare che le chiamate API effettive includeranno token aggiuntivi per le richieste di sistema, la cronologia delle conversazioni e la generazione delle risposte. Ecco le raccomandazioni prudenti:
GPT.5-Turbo (limite di 4.096 token)
- Conservativo: 2.500 token (ne rimangono ~1.600 per le richieste di sistema + la risposta)
- Moderato: 3.000 token (lascia ~1.100 per le richieste di sistema + risposta)
- Aggressivo: 3.500 gettoni (lascia ~600 per le richieste del sistema + risposta)
GPT(limite di 8.192 token)
- Conservativo: 5.000 token (lascia ~3.200 per le richieste di sistema + risposta)
- Moderato: 6.000 token (lascia ~2.200 per le richieste del sistema + la risposta)
- Aggressivo: 7.000 gettoni (lascia ~1.200 per le richieste del sistema + risposta)
GPT Turbo (limite di 128.000 token)
- Conservativo: 100.000 token (lascia ~28.000 per le richieste di sistema + risposta)
- Moderato: 110.000 token (lascia ~18.000 per le richieste di sistema + risposta)
- Aggressivo: 120.000 gettoni (lascia ~8.000 per le richieste di sistema + risposta)
Nota: Queste raccomandazioni presuppongono dimensioni tipiche dei prompt di sistema (200-800 token) e lunghezze di risposta desiderate (500-2.000 token). Regolate in base al vostro caso d'uso specifico.
Gestione degli errori
L'integrazione gestisce diversi scenari di errore:
- Ingresso non valido: Restituisce messaggi di errore chiari per il testo mancante o non valido.
- Testo vuoto**: Restituisce 0 token per le stringhe vuote.
- Modello non supportato: Restituisce un errore per i modelli non supportati da tiktoken.
- Errori di tokenizzazione: Gestisce gli errori della libreria tiktoken con garbo
- Avvisi sui limiti di sicurezza: Registra gli avvisi quando il numero di token supera i limiti di sicurezza.
Benefici
- Ottimizzazione dei costi: Stima dei costi dei token prima di effettuare chiamate API
- Limitazione della tariffa**: Gestire i budget dei token e prevenire gli eccessi con limiti di sicurezza.
- Logica del flusso di lavoro: Abilita la logica condizionale in base al conteggio dei token e alle soglie di sicurezza.
- Trasparenza: Fornisce visibilità sui modelli di utilizzo dei token
- Monitoraggio proattivo**: Impostazione di limiti di sicurezza per individuare tempestivamente potenziali sovraccarichi di token.