# Hugging Face Integration
Diese Integration ermöglicht es Ihrem Bot, vorgewärmte Chat-Abschlussmodelle, die auf Hugging Face gehostet werden, als LLM für jeden Knoten, Workflow oder Skill zu verwenden. Erkunden Sie die verfügbaren Modelle [hier](https://huggingface.co/models?inference=warm&pipeline_tag=text-generation).
**Hinweis:** Die Nutzung wird direkt von Hugging Face in Rechnung gestellt.
## 1. Zugangstoken von Hugging Face erhalten
- Gehe zu Einstellungen: Klicken Sie auf Ihr Profilsymbol oben rechts und wählen Sie Einstellungen.
- Token generieren: Klicken Sie unter Zugriffstoken auf "Neues Token", benennen Sie es, legen Sie die Rolle fest und klicken Sie auf "Erzeugen".
- Fügen Sie es der Integrationskonfiguration hinzu
## 2. Listen Sie die Modelle auf, die Sie verwenden möchten
Geben Sie an, welche Hugging Face-Modelle für Ihren Bot verfügbar sein sollen, indem Sie deren Modell-IDs durch Kommata getrennt auflisten.
Du kannst die Modell-ID auf der Seite jedes Modells auf Hugging Face finden. Die Modell-ID für GPT-2 lautet zum Beispiel `gpt2`. Achte darauf, dass du mehrere Modell-IDs in deiner Konfiguration durch Kommas trennst.
[Beispiel für die Eingabe von Modell-IDs](https://i.imgur.com/2gx0wnB.png)