# Hugging Face Integration
Ta integracja pozwala botowi używać wstępnie ogrzanych modeli ukończenia czatu hostowanych na Hugging Face jako LLM dla dowolnego węzła, przepływu pracy lub umiejętności. Zapoznaj się z dostępnymi modelami [tutaj](https://huggingface.co/models?inference=warm&pipeline_tag=text-generation).
> Uwaga:** Użycie jest rozliczane bezpośrednio przez Hugging Face.
## 1. Uzyskaj token dostępu Hugging Face
- Przejdź do Ustawień: Kliknij ikonę swojego profilu w prawym górnym rogu i wybierz Ustawienia.
- Wygeneruj token: W sekcji Tokeny dostępu kliknij "Nowy token", nadaj mu nazwę, ustaw rolę i kliknij "Generuj".
- Dodaj go do konfiguracji integracji
## 2. Wymień modele, których chcesz użyć
Określ, które modele Hugging Face powinny być dostępne dla twojego bota, wymieniając ich identyfikatory modeli, oddzielone przecinkami.
Identyfikator modelu można znaleźć na stronie każdego modelu w Hugging Face. Na przykład identyfikator modelu dla GPT-2 to `gpt2`. Upewnij się, że w konfiguracji oddzielasz przecinkiem wiele identyfikatorów modeli.
![Przykład wprowadzania ID modelu](https://i.imgur.com/2gx0wnB.png)