.webp)
Nire-rewire mo ang iyong pipeline ng ahente ng AI sa ikasampung beses ngayon—isa pang malutong na pagsasama ng API, isa pang round ng manual na pagpasa sa konteksto para lang hindi masira ang mga bagay. Daloy ng hardcoding authentication, pag-normalize ng mga tugon sa API, pagsasama-sama ng mga endpoint—hindi ito AI development; ito ay integration hell.
Ang pagbuo ng mga ahente ng AI na walang putol na kumukuha ng data mula sa maraming pinagmumulan ay dapat na walang hirap, ngunit ang katotohanan ngayon ay pira-piraso, paulit-ulit, at mahirap sukatin. Ang bawat tool ay nagsasalita ng sarili nitong wika, na pinipilit kang i-hack nang magkasama ang mga workaround sa halip na lumikha ng tunay na automation.
Sinusubukan ni Anthropic na baguhin iyon gamit ang Model Context Protocol (MCP)—isang standardized na paraan para makuha at gamitin ng mga ahente ng AI ang external na data nang walang walang katapusang bangungot sa pagsasama. Ngunit nalulutas ba nito ang problema? Hatiin natin ito.
Ano ang isang Protocol?
Ang protocol ay isang hanay ng mga panuntunan at kumbensyon na tumutukoy kung paano nakikipag-usap at nagpapalitan ng data ang mga system. Hindi tulad ng isang API, isang interface na partikular sa pagpapatupad, ang isang protocol ay nagtatatag ng isang pangkalahatang pamantayan para sa mga pakikipag-ugnayan. Ang ilang mga kilalang halimbawa ay kinabibilangan ng:
- HTTP (Hypertext Transfer Protocol) – Tinutukoy kung paano nakikipag-usap ang mga web browser at server.
- OAuth (Open Authorization Protocol) – Isang pamantayan para sa secure na pagpapatotoo sa iba't ibang platform.
Tinitiyak ng mga protocol ang interoperability—sa halip na muling likhain ng bawat system kung paano dapat palitan ang data, i-standardize ng isang protocol ang proseso, binabawasan ang pagiging kumplikado at ginagawang mas nasusukat ang mga pagsasama.
Bagama't hindi sapilitan o ipinapatupad ang mga protocol, ang pag-aampon ng mga protocol sa paglipas ng panahon ay maaaring humubog sa pundasyon ng kung paano nakikipag-ugnayan ang mga system sa isang pandaigdigang saklaw—nakita namin ito sa HTTP na umuusbong sa mas secure at malawak na tinatanggap na HTTPS, na pangunahing nagbabago kung paano ipinapadala ang data sa internet.
Ano ang Model Context Protocol (MCP)?
Ang Model Context Protocol (MCP) ay isang bukas na pamantayan na binuo ng Anthropic upang i-streamline kung paano nag-a-access at nakikipag-ugnayan ang mga modelo ng AI sa mga external na pinagmumulan ng data.
Sa halip na hilingin sa mga AI system na umasa sa mga custom na pagsasama-sama ng API, mga kahilingang manually structured, at authentication sa bawat serbisyo, nagbibigay ang MCP ng pinag-isang framework para sa mga ahente ng AI na kumuha, magproseso, at kumilos sa structured na data sa isang standardized na paraan.
Sa mas simpleng termino, tinutukoy ng MCP kung paano dapat humiling at gumamit ng external na data ang mga modelo ng AI—mula man sa mga database, API, cloud storage, o application ng enterprise—nang hindi nangangailangan ng mga developer na mag-hardcode ng logic na partikular sa API para sa bawat source.
Bakit Nilikha ang MCP?
Ang mga modelo ng AI, lalo na LLMs (malalaking modelo ng wika) at mga autonomous na ahente, ay nangangailangan ng access sa mga panlabas na tool at database upang makabuo ng tumpak at kontekstwal na mga tugon. Gayunpaman, ang mga kasalukuyang pakikipag-ugnayan ng AI-to-API ay hindi mahusay at lumikha ng makabuluhang overhead para sa mga developer.
Ngayon, ang pagsasama ng isang ahente ng AI sa mga panlabas na system ay nangangailangan ng:
- Mga custom na pagsasama ng API para sa bawat tool (CRM, cloud storage, ticketing system, atbp.).
- Setup ng pagpapatotoo sa bawat API (OAuth, API key, session token).
- Manu-manong pag-format ng data upang gawing magagamit ang mga tugon sa API para sa mga modelo ng AI.
- Pamamahala ng limitasyon sa rate at paghawak ng error sa iba't ibang serbisyo.
Ang diskarte na ito ay hindi nasusukat. Ang bawat bagong pagsasama ay nangangailangan ng custom na logic, pag-debug, at pagpapanatili, na ginagawang mabagal, mahal, at marupok ang automation na hinimok ng AI.
Sa pamamagitan ng pagtukoy sa isang karaniwang protocol, ginagawa ng MCP ang mga modelo ng AI na mas may kaalaman sa data nang hindi pinipilit ang mga developer na bumuo ng mga custom na API bridge para sa bawat system kung saan sila nakikipag-ugnayan.
Paano gumagana ang MCP?
Ngayon, umaasa ang mga ahente ng AI sa mga custom na tawag sa API, pagpapatotoo sa bawat serbisyo, at pag-parse ng manu-manong tugon, na lumilikha ng isang marupok na web ng mga pagsasama na mahirap sukatin.

Sa halip na pilitin ang mga ahente ng AI na makipag-ugnayan sa mga API nang nakahiwalay, nagtatatag ang MCP ng pinag-isang protocol na nag-abstract sa pagiging kumplikado ng pag-authenticate, paghiling ng pagpapatupad, at pag-format ng data—na nagpapahintulot sa mga AI system na tumuon sa pangangatwiran kaysa sa mababang antas ng lohika ng pagsasama.
Arkitektura ng Client-Server ng MCP
Ang MCP ay binuo sa isang client-server na modelo na bumubuo sa kung paano kumukuha at nakikipag-ugnayan ang mga modelo ng AI sa mga external na data source.
- Ang mga kliyente ng MCP ay mga ahente ng AI, application, o anumang system na humihiling ng structured na data.
- Ang mga MCP server ay kumikilos bilang mga tagapamagitan, kumukuha ng data mula sa iba't ibang API, database, o enterprise system at ibinabalik ito sa pare-parehong format.
Sa halip na ang mga modelo ng AI ay gumagawa ng mga direktang kahilingan sa API, pinangangasiwaan ng mga server ng MCP ang pagiging kumplikado ng pagpapatunay, pagkuha ng data, at normalisasyon ng tugon. Nangangahulugan ito na hindi na kailangan ng mga ahente ng AI na pamahalaan ang maraming kredensyal ng API, iba't ibang format ng kahilingan, o hindi magkatugmang mga istruktura ng pagtugon.
Halimbawa, kung ang isang modelo ng AI ay kailangang kumuha ng impormasyon mula sa maraming serbisyo tulad ng Google Drive, Slack , at isang database, hindi nito itinatanong ang bawat API nang hiwalay. Nagpapadala ito ng iisang structured na kahilingan sa isang MCP server, na nagpoproseso ng kahilingan, nangangalap ng data mula sa mga kinakailangang source, at nagbabalik ng maayos na tugon.
Lifecycle ng Kahilingan-Tugon ng MCP
Ang isang tipikal na pakikipag-ugnayan ng MCP ay sumusunod sa isang structured na ikot ng pagtugon sa kahilingan na nag-aalis ng mga paulit-ulit na tawag sa API at nagsa-standardize ng pagkuha ng data.
1. Nagpapadala ang ahente ng AI ng nakabalangkas na kahilingan sa MCP server. Sa halip na gumawa ng mga indibidwal na kahilingan sa API, tinutukoy ng ahente kung anong data ang kailangan nito sa isang pare-parehong format.{
"request_id": "xyz-987",
"mga tanong": [
{"source": "github", "action": "get_recent_commits", "repo": "company/project"},
{"source": "slack", "action": "fetch_unread_messages", "channel": "engineering"}
]
}
2. Pinoproseso ng MCP server ang kahilingan sa pamamagitan ng pagpapatunay sa pagpapatunay, pagsuri ng mga pahintulot, at pagtukoy kung aling mga external na system ang itatanong.
3. Ang mga query ay isinasagawa nang magkatulad, ibig sabihin, ang data mula sa maraming serbisyo ay kinukuha nang sabay-sabay sa halip na sunud-sunod, na binabawasan ang pangkalahatang latency.
4. Ang mga tugon mula sa iba't ibang mapagkukunan ay na-standardize sa isang structured na format na madaling maproseso ng mga modelo ng AI.{
"github": {
"recent_commits": [
{"author": "Alice", "message": "Refactored AI pipeline", "timestamp": "2024-03-12T10:15:00Z"}
]
},
"slack": {
"unread_messages": [
{"user": "Bob", "text": "Hey, can you review the PR?", "timestamp": "2024-03-12T09:45:00Z"}
]
}
}
Hindi tulad ng mga hilaw na tugon ng API na nangangailangan ng manual na pag-parse, tinitiyak ng MCP na ang lahat ng nakuhang data ay sumusunod sa isang predictable, structured na format, na ginagawang mas madali para sa mga modelo ng AI na maunawaan at magamit.
Pagpapatupad ng Query at Pagsasama-sama ng Tugon
Ang MCP ay idinisenyo upang i-optimize kung paano nakikipag-ugnayan ang mga modelo ng AI sa mga panlabas na system sa pamamagitan ng pagpapakilala ng isang structured na proseso ng pagpapatupad.

- Tinitiyak ng pagpapatunay ng kahilingan na ang modelo ng AI ay may mga kinakailangang pahintulot bago makuha ang anumang data.
- Tinutukoy ng pagruruta ng query kung aling mga panlabas na serbisyo ang kailangang i-access.
- Kinukuha ng parallel execution ang data mula sa maraming pinagmulan nang sabay-sabay, na binabawasan ang mga pagkaantala na dulot ng mga sunud-sunod na kahilingan sa API.
- Pinagsasama-sama ng pagsasama-sama ng tugon ang nakabalangkas na data sa iisang tugon, na inaalis ang pangangailangan para sa mga modelo ng AI na manu-manong magproseso ng maramihang mga raw na output ng API.
Sa pamamagitan ng pagbabawas ng mga paulit-ulit na kahilingan, pag-normalize ng mga tugon, at pangangasiwa sa pagpapatotoo sa gitnang paraan, inaalis ng MCP ang hindi kinakailangang overhead ng API at ginagawang mas scalable ang automation na hinimok ng AI.
Mga limitasyon ng MCP
Ang Model Context Protocol (MCP) ay isang mahalagang hakbang tungo sa paggawa ng mga AI model na mas may kakayahang makipag-ugnayan sa mga external na system sa isang structured at scalable na paraan. Gayunpaman, tulad ng anumang umuusbong na teknolohiya, may kasama itong mga limitasyon na kailangang matugunan bago ang malawakang pag-aampon.
Mga Hamon sa Pagpapatunay
Ang isa sa mga pinakamalaking pangako ng MCP ay gawing hindi gaanong umaasa ang mga ahente ng AI sa mga pagsasama-samang partikular sa API. Gayunpaman, ang pagpapatunay (AuthN) ay nananatiling isang malaking hamon.
Ngayon, ang API authentication ay isang pira-pirasong proseso—ang ilang mga serbisyo ay gumagamit ng OAuth, ang iba ay umaasa sa mga API key, at ang ilan ay nangangailangan ng session-based na authentication. Dahil sa hindi pagkakapare-parehong ito, nauubos ng oras ang onboarding ng mga bagong API, at ang MCP ay kasalukuyang walang built-in na balangkas ng pagpapatotoo upang mahawakan ang pagiging kumplikadong ito.
Nangangailangan pa rin ang MCP ng ilang panlabas na mekanismo para ma-authenticate ang mga kahilingan sa API, na nangangahulugang ang mga ahente ng AI na gumagamit ng MCP ay dapat umasa sa mga karagdagang solusyon, gaya ng Composito, upang pamahalaan ang mga kredensyal ng API. Ang pagpapatotoo ay nasa roadmap para sa MCP, ngunit hanggang sa ganap itong maipatupad, ang mga developer ay mangangailangan pa rin ng mga workaround upang mahawakan ang pagpapatotoo sa maraming system.
Hindi Malinaw na Pamamahala ng Pagkakakilanlan
Ang isa pang hindi nalutas na isyu ay ang pamamahala ng pagkakakilanlan—sino ang nakikita ng isang external na system kapag humiling ang isang ahente ng AI sa pamamagitan ng MCP?
Halimbawa, kung nagtatanong ang isang AI assistant Slack sa pamamagitan ng MCP, dapat Slack kilalanin ang kahilingan na nagmula sa:
- Ang end user? (Ibig sabihin, kumikilos ang AI sa ngalan ng isang tao.)
- Ang AI agent mismo? (Na mangangailangan Slack upang pangasiwaan ang mga pakikipag-ugnayan na nakabatay sa AI nang hiwalay.)
- Isang nakabahaging system account? (Na maaaring magpakilala ng mga alalahanin sa seguridad at kontrol sa pag-access.)
Ang isyung ito ay mas kumplikado sa mga kapaligiran ng enterprise, kung saan tinutukoy ng mga patakaran sa kontrol sa pag-access kung sino ang maaaring kunin kung anong data. Kung walang malinaw na pagmamapa ng pagkakakilanlan, maaaring harapin ng mga pagsasama ng MCP ang pinaghihigpitang pag-access, mga panganib sa seguridad, o mga hindi pagkakapare-pareho sa iba't ibang platform.
Ang suporta sa OAuth ay pinlano para sa MCP, na maaaring makatulong na linawin ang pangangasiwa ng pagkakakilanlan, ngunit hanggang sa ganap itong maipatupad, maaaring mahirapan ang mga modelo ng AI sa pag-access na nakabatay sa pahintulot sa mga serbisyo ng third-party.
Lock-in ng Vendor at Pagkapira-piraso ng Ecosystem
Ang MCP ay kasalukuyang inisyatiba na pinamumunuan ng Anthropic, na naglalabas ng mga tanong tungkol sa pangmatagalang standardisasyon nito. Habang umuunlad ang mga AI ecosystem, malaki ang posibilidad na ang iba pang pangunahing manlalaro—gaya ng OpenAI o DeepSeek—ay bubuo ng sarili nilang mga protocol para sa mga pakikipag-ugnayan ng AI-to-system.
Kung lalabas ang maraming magkakakumpitensyang pamantayan, maaaring mahati ang industriya, na pumipilit sa mga developer na pumili sa pagitan ng iba't ibang mga hindi tugmang diskarte. Kung ang MCP ay nananatiling nangingibabaw na diskarte o naging isa lamang sa ilang mapagkumpitensyang opsyon ay nananatiling alamin.
Magiging pamantayan ba ang mga tagapagbigay ng AI sa paligid ng MCP?
Nag-aalok ang MCP ng unibersal na balangkas upang bawasan ang pagkapira-piraso sa mga pagsasama ng AI, kung saan ang bawat koneksyon ay kasalukuyang nangangailangan ng mga custom na solusyon na nagpapataas ng pagiging kumplikado.
Para maging malawak na tinatanggap na pamantayan ang MCP, kailangan itong gamitin ng mga pangunahing tagapagbigay ng AI. Gusto ng mga kumpanya OpenAI , Google DeepMind, at Meta ay hindi pa nagagawa, na nag-iiwan sa pangmatagalang viability nito na hindi sigurado. Kung walang pagtutulungan sa buong industriya, nananatiling mataas ang panganib ng maraming nakikipagkumpitensyang protocol.
Sinimulan na ng ilang kumpanya ang paggamit ng MCP. Isinama ito ng Replit, Codeium, at Sourcegraph upang i-streamline kung paano nakikipag-ugnayan ang kanilang mga ahente sa AI sa structured na data. Gayunpaman, kailangan ng mas malawak na pag-aampon para sa MCP na lumampas sa maagang pag-eeksperimento.
Higit pa sa mga kumpanya ng AI, ang mga pagsisikap sa pandaigdigang standardisasyon ay maaaring makaimpluwensya sa hinaharap ng MCP. Ang mga organisasyon tulad ng ISO/IEC JTC 1/SC 42 ay nagtatrabaho upang tukuyin ang mga framework ng pagsasama ng AI. Ang mga pambansang inisyatiba, tulad ng AI standards committee ng China, ay nagbibigay-diin sa karera upang hubugin ang susunod na henerasyon ng mga protocol ng AI.
Nag-evolve pa rin ang MCP. Kung ang industriya ay nakahanay sa paligid nito, ang mga pagsasama ng AI ay maaaring maging mas interoperable at scalable. Gayunpaman, kung lalabas ang mga kakumpitensyang pamantayan, maaaring harapin ng mga developer ang isang pira-pirasong ecosystem sa halip na isang pinag-isang solusyon.
Bumuo ng Mga Ahente ng AI na Sumasama sa mga API
Pinapasimple ng MCP ang mga pakikipag-ugnayan ng AI, ngunit nananatiling pangunahing hamon ang pag-authenticate at structured API access. Botpress nag-aalok ng suporta sa OAuth at JWT, na nagpapahintulot sa mga ahente ng AI na mag-authenticate nang secure at makipag-ugnayan sa Slack , Google Calendar , Notion , at higit pa.
Gamit ang Autonomous Node, magagawa ng mga ahente ng AI LLM -driven na mga desisyon at dynamic na magsagawa ng mga gawain. Botpress nagbibigay ng structured na paraan para bumuo ng mga AI agent na kumokonekta sa maraming system.
Magsimulang magtayo ngayon —Libre ito.