# Integrazione del Tiktoken Estimator Stima il numero di token per il testo usando la libreria tiktoken, consentendo un conteggio accurato dei token per i modelli OpenAI . ## Caratteristiche - **Conteggio accurato dei token**: Utilizza la libreria ufficiale tiktoken per fornire stime precise dei token. - Supporto di più modelli**: Supporta diversi modelli OpenAI (gpt-3.5-turbo, gpt-4, ecc.). - **Limiti di sicurezza**: Controllo opzionale dei limiti di sicurezza per prevenire l'eccesso di token. - **Configurazione zero**: Nessuna configurazione richiesta - funziona subito - Gestione degli errori**: Gestione degli errori con messaggi descrittivi ## Utilizzo ### Stima dei gettoni Azione L'integrazione fornisce un'unica azione: `estimateTokens`. **Parametri di ingresso - `testo` (obbligatorio): Il testo per cui stimare i token - `model` (opzionale): Il modello OpenAI da utilizzare per la tokenizzazione (predefinito a "gpt-3.5-turbo") - `safetyLimit` (opzionale): Limite di sicurezza per la stima del numero di token. Se lasciato vuoto, non verrà applicato alcun limite **Output:** - `tokenCount`: Il numero stimato di token nel testo. - `tokenizerName`: Il nome del tokenizer utilizzato - `modello`: Il modello su cui si è basata la tokenizzazione. - `limitExceeded`: Indica se il numero di token stimato ha superato il limite di sicurezza (presente solo quando è fornito safetyLimit). ### Esempio di utilizzo **Uso di base:** ``` Testo: "Ciao, mondo!" Modello: "gpt-3.5-turbo" Risultato: - tokenCount: 4 - tokenizerName: "tiktoken" - modello: "gpt-3.5-turbo" ``` **Con limite di sicurezza ``` Testo: "Questo è un testo più lungo che potrebbe superare il nostro limite di sicurezza...". Modello: "gpt-3.5-turbo" Limite di sicurezza: 10 Risultato: - tokenCount: 15 - nome del tokenizer: "tiktoken" - modello: "gpt-3.5-turbo" - limitExceeded: true ``` ## Modelli supportati - `gpt-3.5-turbo - `gpt-4 - `gpt-4-turbo - testo-davinci-003 - testo-davinci-002 - `codice-davinci-002 - E altri modelli OpenAI supportati da tiktoken ## Limiti di sicurezza raccomandati Quando si stabiliscono i limiti di sicurezza, si deve considerare che le chiamate API effettive includeranno token aggiuntivi per le richieste di sistema, la cronologia delle conversazioni e la generazione delle risposte. Ecco le raccomandazioni prudenti: ### GPT.5-Turbo (limite di 4.096 token) - **Conservativo**: 2.500 token (ne rimangono ~1.600 per le richieste di sistema + la risposta) - **Moderato**: 3.000 token (lascia ~1.100 per le richieste di sistema + risposta) - **Aggressivo**: 3.500 gettoni (lascia ~600 per le richieste del sistema + risposta) ### GPT(limite di 8.192 token) - **Conservativo**: 5.000 token (lascia ~3.200 per le richieste di sistema + risposta) - **Moderato**: 6.000 token (lascia ~2.200 per le richieste del sistema + la risposta) - **Aggressivo**: 7.000 gettoni (lascia ~1.200 per le richieste del sistema + risposta) ### GPT Turbo (limite di 128.000 token) - **Conservativo**: 100.000 token (lascia ~28.000 per le richieste di sistema + risposta) - **Moderato**: 110.000 token (lascia ~18.000 per le richieste di sistema + risposta) - **Aggressivo**: 120.000 gettoni (lascia ~8.000 per le richieste di sistema + risposta) **Nota**: Queste raccomandazioni presuppongono dimensioni tipiche dei prompt di sistema (200-800 token) e lunghezze di risposta desiderate (500-2.000 token). Regolate in base al vostro caso d'uso specifico. ## Gestione degli errori L'integrazione gestisce diversi scenari di errore: - **Ingresso non valido**: Restituisce messaggi di errore chiari per il testo mancante o non valido. - Testo vuoto**: Restituisce 0 token per le stringhe vuote. - **Modello non supportato**: Restituisce un errore per i modelli non supportati da tiktoken. - **Errori di tokenizzazione**: Gestisce gli errori della libreria tiktoken con garbo - **Avvisi sui limiti di sicurezza**: Registra gli avvisi quando il numero di token supera i limiti di sicurezza. ## Benefici - **Ottimizzazione dei costi**: Stima dei costi dei token prima di effettuare chiamate API - Limitazione della tariffa**: Gestire i budget dei token e prevenire gli eccessi con limiti di sicurezza. - **Logica del flusso di lavoro**: Abilita la logica condizionale in base al conteggio dei token e alle soglie di sicurezza. - **Trasparenza**: Fornisce visibilità sui modelli di utilizzo dei token - Monitoraggio proattivo**: Impostazione di limiti di sicurezza per individuare tempestivamente potenziali sovraccarichi di token.
Creare incredibili esperienze di agenti AI.