✦ 表面上看起來的流程:
prompt tool intent
Code ←----------------→ LLM ←---------------→ Execute (call API)
response
看起來像是 LLM 能直接呼叫 API 並回傳執行結果。
✦ 實際上的運作流程:
prompt
Code ←--------------------------------→ LLM
↑ response (tool intent in JSON)
|
|
| parse JSON
|
|
↓
Execute (call API)
LLM 在 response 中,以結構化的 JSON 格式描述「它想要呼叫的 API 與參數」。
Code 端負責:
• 解析與驗證這個 intent
• 實際呼叫對應的 API 或 Tool
• 控制權限、錯誤處理與界定安全邊界
API的執行結果,通常會再由 Code 傳回給 LLM,作為下一輪推理或回覆的上下文
✦ 總結:
Tool Calling 的核心精神是:LLM 負責「想做什麼」,Code 負責「怎麼做、能不能做」。
這也是 Agent、MCP 與各種 Agentic AI Framework 的運作基礎。
參考資料:
AI Engineer Agentic Track: The Complete Agent and MCP Course, Ed Donner
P.S.
文字潤飾與內容補完,透過 ChatGPT 協助完成
圖片由 Gemini 繪製