Integratie van tokenschatter |Hub Botpress

# Tiktoken Schatter Integratie

Schat het aantal token voor tekst met behulp van de tiktoken-bibliotheek, zodat het aantal token nauwkeurig kan worden geteld voor OpenAI .

Kenmerken

  • Nauwkeurige token-telling**: Maakt gebruik van de officiële tiktoken bibliotheek om nauwkeurige token schattingen te maken.
  • Multi-Model Ondersteuning: Ondersteunt verschillende OpenAI modellen (gpt-3.5-turbo, gpt-4, etc.)
  • Veiligheidslimieten: Optionele veiligheidslimietcontrole om tokenoverschrijdingen te voorkomen
  • Geen configuratie**: Geen setup nodig - werkt direct
  • Foutafhandeling**: Sierlijke foutafhandeling met beschrijvende berichten

Gebruik

Geschatte tokens Actie

De integratie biedt een enkele actie: schatTokens.

Invoerparameters:

  • tekst (verplicht): De tekst om tokens voor te schatten
  • model (optioneel): Het OpenAI om te gebruiken voor tokenization (standaard "gpt-3.5-turbo")
  • veiligheidslimiet (optioneel): Veiligheidslimiet voor het schatten van het aantal token. Als deze leeg blijft, wordt er geen limiet toegepast

**Uitvoer: **

  • tokenCount: Het geschatte aantal tokens in de tekst
  • tokenizerName: De naam van de gebruikte tokenizer
  • model: Het model waarop de tokenisatie was gebaseerd
  • limitExceeded: Geeft aan of het geschatte aantal token de veiligheidslimiet heeft overschreden (alleen aanwezig als safetyLimit is opgegeven)

Voorbeeldgebruik

Basisgebruik:

Tekst: "Hallo, wereld!
Model: "gpt-3.5-turbo

Resultaat:
- tokenCount: 4
- tokenizerNaam: "tiktoken"
- model: "gpt-3.5-turbo"

Met veiligheidslimiet:

Tekst: "Dit is een langere tekst die mogelijk onze veiligheidslimiet overschrijdt..."
Model: "gpt-3.5-turbo
Veiligheidslimiet: 10

Resultaat:
- tokenCount: 15
- tokenizerNaam: "tiktoken"
- model: "gpt-3.5-turbo"
- limitExceeded: waar

Ondersteunde modellen

  • gpt-3.5-turbo
  • gpt-4
  • gpt-4-turbo
  • tekst-davinci-003
  • tekst-davinci-002
  • code-davinci-002
  • En andere OpenAI modellen ondersteund door tiktoken

Aanbevolen veiligheidslimieten

Houd er bij het instellen van veiligheidslimieten rekening mee dat je daadwerkelijke API-aanroepen extra tokens bevatten voor systeemprompts, gespreksgeschiedenis en het genereren van reacties. Hier zijn voorzichtige aanbevelingen:

GPT.5-Turbo (limiet van 4.096 tokens)

  • Voorzichtig**: 2.500 tokens (laat ~1.600 over voor systeemprompts + antwoord)
  • Matig**: 3.000 tokens (laat ~1.100 over voor systeemaanwijzingen + antwoord)
  • Agressief**: 3.500 tokens (laat ~600 over voor systeemaanwijzingen + antwoord)

GPT(limiet van 8.192 tokens)

  • Conservatief: 5.000 tokens (laat ~3.200 over voor systeemaanwijzingen + antwoord)
  • Matig**: 6.000 tokens (laat ~2.200 over voor systeemaanwijzingen + antwoord)
  • Agressief**: 7.000 tokens (laat ~1.200 over voor systeemaanwijzingen + antwoord)

GPT Turbo (limiet van 128.000 tokens)

  • Conservatief: 100.000 tokens (laat ~28.000 over voor systeemaanwijzingen + antwoord)
  • Matig**: 110.000 tokens (laat ~18.000 over voor systeemprompts + respons)
  • Agressief**: 120.000 tokens (laat ~8.000 over voor systeemaanwijzingen + antwoord)

Opmerking: Deze aanbevelingen gaan uit van typische systeempromptgroottes (200-800 tokens) en gewenste antwoordlengtes (500-2.000 tokens). Pas aan op basis van uw specifieke gebruikssituatie.

Foutafhandeling

De integratie handelt verschillende foutscenario's af:

  • Ongeldige invoer: Geeft duidelijke foutmeldingen bij ontbrekende of ongeldige tekst.
  • Lege tekst**: Geeft 0 tokens voor lege strings
  • Ondersteund model: Retourneert foutmeldingen voor modellen die niet worden ondersteund door tiktoken.
  • Tokenization Errors: Handelt fouten in de tiktokenbibliotheek netjes af
  • Veiligheidslimiet waarschuwingen: Logt waarschuwingen als token aantallen veiligheidslimieten overschrijden

Voordelen

  • Kostenoptimalisatie**: Kosten van token schatten voordat API-aanroepen worden gedaan
  • Tariefbeperking**: Beheer tokenbudgetten en voorkom overschrijdingen met veiligheidslimieten
  • Workflow logica: Schakel voorwaardelijke logica in op basis van tokenaantallen en veiligheidsdrempels.
  • Transparantie: Geef inzicht in tokengebruikspatronen
  • Proactieve bewaking**: Stel veiligheidslimieten in om potentiële overschrijdingen van token vroegtijdig op te vangen