# Hugging Face Integration Nagbibigay-daan ang integration na ito sa iyong bot na gumamit ng mga pre-warmed chat completion models na naka-host sa Hugging Face bilang ang LLM para sa anumang node, workflow, o kasanayan. I-explore ang mga available na modelo [dito](https://huggingface.co/models?inference=warm&pipeline_tag=text-generation). > **Tandaan:** Direktang sinisingil ng Hugging Face ang paggamit. ## 1. Makakuha ng Hugging face access token - Pumunta sa Mga Setting: I-click ang icon ng iyong profile sa kanang bahagi sa itaas at piliin ang Mga Setting. - Bumuo ng Token: Sa ilalim ng Access Token, i-click ang "Bagong token", pangalanan ito, itakda ang tungkulin, at i-click ang "Bumuo". - Idagdag ito sa configuration ng integration ## 2. Ilista ang mga modelong gusto mong gamitin Tukuyin kung aling mga modelo ng Hugging Face ang dapat na available para sa iyong bot sa pamamagitan ng paglilista ng kanilang mga ID ng modelo, na pinaghihiwalay ng mga kuwit. Makikita mo ang ID ng modelo sa page ng bawat modelo sa Hugging Face. Halimbawa, ang model ID para sa GPT -2 ay `gpt2`. Tiyaking paghiwalayin ang maraming ID ng modelo gamit ang mga kuwit sa iyong configuration. ![Halimbawa ng paglalagay ng mga ID ng modelo](https://i.imgur.com/2gx0wnB.png)