第11章 Tool Calling 底层机制深度剖析

📖 AI Agent 全栈学习课程 · 可运行讲义

1. 深入理解 LLM Function Calling 的「真正原理」2. 掌握 OpenAI / Anthropic 两套实现的技术细节和差异3. 理解 Streaming Tool Calls 的机制4. 学会 Parallel Tool Calling 的使用与限制5. 掌握 Strict Function Calling(严格模式)6. 理解 Tool Calling 中的常见陷阱和解决方案🎤 LLM 是如何「知道」该调用哪个工具的?🎤 OpenAI 的 function calling 和 Anthropic 的 tool_use 有什么区别?🎤 什么是 Parallel Tool Calling?什么时候该用,什么时候不该用?🎤 Streaming 模式下如何处理 Tool Call?🎤 Token 消耗:tool definitions 计入 prompt token 吗?

第11章:Tool Calling 底层机制深度剖析

=====================================

 

 

 

本章是基于 OpenAI / Anthropic API 文档 + 实践经验的总结

 

 

11.1 Function Calling 真的不是 LLM 在「调用函数」!

 

这是最常见的误解。让我们从底层理解真正发生了什么。

 

误解:「LLM 调用了我的函数」

真相:「LLM 输出了一个 JSON 对象,你的代码解析了它并执行了函数」

 

类比:

你给朋友发短信:「如果需要打车,回复格式 {action: "call_taxi", from: "...", to: "..."}」

朋友回复:{"action": "call_taxi", "from": "天安门", "to": "机场"}

 

你做的事:

  • 解析这条 JSON
  • 2. 调用打车 API("天安门", "机场")
    3. 告诉朋友结果

     

    LLM 做的事:

  • 根据你的 tool definition,决定是否使用工具
  • 2. 返回一个结构化的 JSON(而不是自然语言)
    3. 你的代码解析 JSON 并执行真正的函数

     

    所以 Function Calling 本质上是:

    「LLM 的结构化输出能力」+「协议规约」

    不是 LLM 有了「执行函数」的能力!

     

     

    11.2 Token 层面的原理 —— 工具定义去哪了?

     

    当你在 API 请求中包含 tools 参数时:

     

    POST /v1/chat/completions

    {

    "model": "gpt-4o",
    "messages": [...],
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_weather",
          "description": "查询天气",
          "parameters": {...}
        }
      }
    ]

    }

     

    OpenAI 的处理流程:

  • 将 tools 定义序列化为文本
  • 将序列化后的文本拼接到 system prompt 后面
  • 拼接内容会计入 prompt token(扣费!)
  •  

    Anthropic 的处理流程类似但有差异:

  • 将 tools 作为独立字段发送
  • 模型在训练时已学会理解 tool schema
  • 同样计入 prompt token
  •  

    面试重点:tools 定义消耗 token!

  • 一个典型工具的 JSON Schema 约 200-500 tokens
  • 10 个工具可能消耗 2000-5000 tokens
  • 这是每次请求的固定开销!
  • 优化策略:只传当前场景可能用到的工具(动态工具选择)
  •  

     

    11.3 OpenAI vs Anthropic —— 两套实现对比

     

    维度OpenAI Function CallAnthropic Tool Use
    工具定义格式嵌套对象更简洁的 Tool 对象
    {type:"function",{name:"...",
    function:{...}}description:"...",
    input_schema:{...}}
    返回格式tool_calls 数组content 中的 tool_use
    [{"function":{...}}]blocks
    并行调用同时返回多个 tool_call同时返回多个 tool_use
    (parallel_tool_callsblock
    参数控制)
    流式支持增量式 tool_call 名称content_block 流式输出
    和参数
    严格模式strict: true不支持单独的 strict 模式
    (保证 JSON Schema 一致)(但通过 prompt 可实现)
    Token 计算tools 序列化拼入 prompttools 作为独立参数
    工具结果返回Tool MessageTool Result Content Block
    role="tool"type="tool_result"

     

    两种格式对比(JSON):

     

    # OpenAI 格式

    {

    "role": "assistant",
    "tool_calls": [
      {
        "id": "call_abc123",
        "type": "function",
        "function": {
          "name": "get_weather",
          "arguments": "{\"city\": \"北京\"}"
        }
      }
    ]

    }

     

    # Anthropic 格式

    {

    "role": "assistant",
    "content": [
      {
        "type": "tool_use",
        "id": "toolu_abc123",
        "name": "get_weather",
        "input": {"city": "北京"}
      }
    ]

    }

     

    关键差异:

  • OpenAI: arguments 是 JSON 字符串(需要 json.loads)
  • Anthropic: input 直接是 JSON 对象
  • 📝 对应的代码实现
    💻 代码 (30 行)
    OPENAI_TOOLANTHROPIC_TOOL
    # 两个平台的工具定义格式对比
    OPENAI_TOOL = {
        "type": "function",
        "function": {
            "name": "get_weather",
            "description": "查询天气",
            "parameters": {
                "type": "object",
                "properties": {
                    "city": {"type": "string", "description": "城市名称"}
                },
                "required": ["city"],
            },
        },
    }
    
    ANTHROPIC_TOOL = {
        "name": "get_weather",
        "description": "查询指定城市的天气信息。返回温度、湿度、天气状况。",
        "input_schema": {
            "type": "object",
            "properties": {
                "city": {
                    "type": "string",
                    "description": "城市名称,如 '北京'、'上海'",
                }
            },
            "required": ["city"],
        },
    }

    11.4 Parallel Tool Calling —— 并行执行

     

    当 LLM 判断多个工具调用之间没有依赖关系时,

    它可以一次性返回多个 tool_call,由你的代码并行执行。

     

    示例场景:

    用户:「北京和上海的天气分别怎么样?」

     

    LLM 返回 2 个 tool_call(同一个 response):

    tool_call_1: get_weather("北京")
    tool_call_2: get_weather("上海")

     

    你的代码并行执行这两个请求(节省时间!)

     

    但需要注意:

  • 并行执行的前提:工具之间没有依赖关系
  • 如果 tool_2 依赖 tool_1 的结果 → 必须串行
  • LLM 自己会判断(通过参数推断依赖关系)
  •  

    控制行为:

    OpenAI: tool_choice 参数

  • "auto": LLM 自行决定(默认)
  • "required": 必须至少调用一个工具
  • "none": 不允许调用工具
  • {"type": "function", "function": {"name": "get_weather"}}: 强制调用指定工具
  •  

    Anthropic: tool_choice 参数

  • "auto": LLM 自行决定(默认)
  • "any": 必须至少调用一个工具
  • "tool": 强制调用指定工具
  • 不支持 "none"(没有等效设置)
  •  

     

    11.5 Streaming Tool Calls —— 流式工具调用

     

    在 streaming 模式下,tool_call 是「增量式」到达的:

     

    OpenAI streaming 过程:

    chunk_1: {"delta": {"tool_calls": [{"index": 0, "id": "call_abc"}]}}
    chunk_2: {"delta": {"tool_calls": [{"index": 0, "function": {"name": "get"}}]}}
    chunk_3: {"delta": {"tool_calls": [{"index": 0, "function": {"name": "_weather"}}]}}
    chunk_4: {"delta": {"tool_calls": [{"index": 0, "function": {"arguments": "{\"cit"}}]}}
    chunk_5: {"delta": {"tool_calls": [{"index": 0, "function": {"arguments": "y\":\"北京\"}} ]}}
    ...

     

    我们需要「组装」这些增量片段为完整的 tool_call。

     

    Anthropic streaming 过程:

    chunk_1: {"type": "content_block_start", "content_block": {"type": "tool_use", ...}}
    chunk_2: {"type": "content_block_delta", "delta": {"type": "input_json_delta", "partial_json": "{\"city\""}}
    chunk_3: {"type": "content_block_delta", "delta": {"type": "input_json_delta", "partial_json": ":\"北京\"}"}}
    ...

     

    关键挑战:

  • 需要维护状态机(哪些 tool_call 是同一个?)
  • 参数是增量到达的,需要累积拼接
  • 可能同时收到多个 tool_call 的流(用 index 区分)
  •  

     

    11.6 Strict Function Calling —— 严格模式

     

    OpenAI 在 2024 年推出了 strict 模式:

    设置 strict: true 时,LLM 保证输出的参数 100% 符合 JSON Schema。

     

    如何使用:

  • 所有参数必须定义为 object 类型
  • 所有字段必须有明确的 type
  • 可选字段必须设置 default 或 nullable
  • 不允许使用 anyOf / oneOf
  •  

    示例:

    {

    "type": "function",
    "function": {
      "name": "get_weather",
      "strict": true,  // ← 开启严格模式
      "parameters": {
        "type": "object",
        "properties": {
          "city": {"type": "string"},
          "unit": {"type": "string", "enum": ["celsius", "fahrenheit"]}
        },
        "required": ["city", "unit"],
        "additionalProperties": false  // ← strict 模式必须设置
      }
    }

    }

     

    为什么需要 strict 模式?

  • 生产环境要求:参数格式错误会导致工具执行失败
  • 减少重试:不需要「尝试解析 → 失败 → 重新请求 LLM」
  • 安全考虑:防止 LLM 输出未定义的字段
  •  

    Anthropic 目前没有单独的 strict 参数,

    但可以通过 prompt 工程实现类似效果:

    "You MUST output exactly the parameters specified in the input_schema.

    Do not include any additional fields."

     

     

    11.7 Tool Calling 的进阶技巧

     

  • 工具描述即 Prompt 工程
  • description 不只是给开发者看的,是给 LLM 看的!
  • 描述要回答三个问题:
  •  a. 这个工具「做什么」?
     b. 「什么时候」该用?
     c. 「什么时候」不该用?

     

  • 参数设计原则
  • 用 enum 限制选项(减少幻觉)
  • 提供清晰的参数描述
  • 必填 vs 可选要明确
  • 给出典型调用示例(在 description 中)
  •  

  • 错误处理 —— 工具结果应「帮助 LLM 纠正」
  • ✗ return "Error 404"

    ✓ return "未找到城市'培京'的天气数据。城市名是否拼写有误?可用城市:北京、上海。"

     

  • 工具数量控制 —— 别给 LLM 太多选择
  • 超过 10 个工具时,LLM 的选择准确率显著下降
  • 采用「动态工具集」:根据当前上下文过滤可用工具
  • 分层的工具注册:先给概览,用户指定后再给详细工具
  •  

  • 工具调用确认(Human-in-the-Loop)
  • 读操作:自动执行(get_weather, search)
  • 写操作:需要确认(send_email, delete_file)
  • 危险操作:需要二次确认(execute_sql, run_command)
  • 📝 对应的代码实现
    💻 代码 (182 行)
    process_openai_styleprocess_anthropic_styledemo_tool_calling_flowdemo_streaming_assemblyToolCallSimulator
    # 两个平台的工具定义格式对比
    
    class ToolCallSimulator:
        """模拟两个平台的 Tool Call 处理流程。
    
        展示从 LLM 返回 → 解析 → 执行 → 返回结果的完整链路。
        """
    
        def __init__(self):
            self.tools = {
                "get_weather": lambda args: f"天气: {args.get('city', '未知')} 晴 25°C",
                "search": lambda args: f"搜索结果(关于'{args.get('query', '')}'): ...",
                "calculate": lambda args: str(eval(args.get('expression', '0'))),
            }
    
        def process_openai_style(self, llm_response: dict) -> str:
            """处理 OpenAI 风格的 tool_calls。
    
            Args:
                llm_response: 模拟的 OpenAI LLM 响应。
    
            Returns:
                执行结果描述。
            """
            tool_calls = llm_response.get("tool_calls", [])
            if not tool_calls:
                return "LLM 直接回答: " + llm_response.get("content", "")
    
            results = []
            can_parallel = True
    
            # 检查是否可以并行(简化:都假设可并行)
            for tc in tool_calls:
                func = tc["function"]
                tool_name = func["name"]
                # OpenAI 的 arguments 是 JSON 字符串!
                args = __import__("json").loads(func["arguments"])
    
                print(f"  [OpenAI] 调用: {tool_name}({args})")
    
                if tool_name in self.tools:
                    result = self.tools[tool_name](args)
                else:
                    result = f"错误: 未知工具 {tool_name}"
    
                results.append({
                    "tool_call_id": tc["id"],
                    "role": "tool",
                    "content": result,
                })
                print(f"    结果: {result}")
    
            # 组装返回给 LLM 的工具结果
            return str(results)
    
        def process_anthropic_style(self, llm_response: dict) -> str:
            """处理 Anthropic 风格的 tool_use blocks。
    
            Args:
                llm_response: 模拟的 Anthropic LLM 响应。
    
            Returns:
                执行结果描述。
            """
            content_blocks = llm_response.get("content", [])
            tool_uses = [b for b in content_blocks if b.get("type") == "tool_use"]
    
            if not tool_uses:
                text_blocks = [b for b in content_blocks if b.get("type") == "text"]
                return "LLM 直接回答: " + "".join(
                    b.get("text", "") for b in text_blocks
                )
    
            results = []
            for tu in tool_uses:
                tool_name = tu["name"]
                # Anthropic 的 input 直接是 dict(不需要 json.loads)
                args = tu["input"]
    
                print(f"  [Anthropic] 调用: {tool_name}({args})")
    
                if tool_name in self.tools:
                    result = self.tools[tool_name](args)
                else:
                    result = f"错误: 未知工具 {tool_name}"
    
                results.append({
                    "type": "tool_result",
                    "tool_use_id": tu["id"],
                    "content": result,
                })
                print(f"    结果: {result}")
    
            return str(results)
    
    
    def demo_tool_calling_flow():
        """演示完整的 Tool Calling 流程。"""
        print("=" * 60)
        print("  Tool Calling 完整流程演示")
        print("=" * 60)
    
        simulator = ToolCallSimulator()
    
        # 模拟 OpenAI 风格
        print("\n  [OpenAI 风格 Tool Call]")
        openai_response = {
            "role": "assistant",
            "tool_calls": [
                {
                    "id": "call_abc123",
                    "type": "function",
                    "function": {
                        "name": "get_weather",
                        "arguments": '{PH68: PH69}',
                    },
                },
                {
                    "id": "call_def456",
                    "type": "function",
                    "function": {
                        "name": "calculate",
                        "arguments": '{PH78: PH79}',
                    },
                },
            ],
        }
        simulator.process_openai_style(openai_response)
    
        # 模拟 Anthropic 风格
        print("\n  [Anthropic 风格 Tool Use]")
        anthropic_response = {
            "role": "assistant",
            "content": [
                {
                    "type": "tool_use",
                    "id": "toolu_xyz789",
                    "name": "search",
                    "input": {"query": "AI Agent 最新进展"},
                },
            ],
        }
        simulator.process_anthropic_style(anthropic_response)
    
    
    def demo_streaming_assembly():
        """模拟 Streaming Tool Call 的组装过程。"""
        print("\n" + "=" * 60)
        print("  Streaming Tool Call 组装演示")
        print("=" * 60)
    
        # 模拟 OpenAI streaming chunks
        chunks = [
            {"delta": {"tool_calls": [{"index": 0, "id": "call_abc"}]}},
            {"delta": {"tool_calls": [{"index": 0, "function": {"name": "get"}}]}},
            {"delta": {"tool_calls": [{"index": 0, "function": {"arguments": "{\"cit"}}]}},
            {"delta": {"tool_calls": [{"index": 0, "function": {"arguments": "y\":\"北京\"}"}}]}},
        ]
    
        print("\n  接收到的 streaming chunks:")
        tool_calls_state = {}
        for i, chunk in enumerate(chunks):
            print(f"  chunk_{i}: {chunk}")
            delta = chunk.get("delta", {})
            tool_deltas = delta.get("tool_calls", [])
            for td in tool_deltas:
                idx = td.get("index", 0)
                if idx not in tool_calls_state:
                    tool_calls_state[idx] = {
                        "id": td.get("id", ""),
                        "name": "",
                        "arguments": "",
                    }
                if "function" in td:
                    if "name" in td["function"]:
                        tool_calls_state[idx]["name"] += td["function"]["name"]
                    if "arguments" in td["function"]:
                        tool_calls_state[idx]["arguments"] += td["function"]["arguments"]
    
        print("\n  组装后的完整 tool_call:")
        for idx, tc in tool_calls_state.items():
            print(f"  tool_call[{idx}]: {tc['name']}({tc['arguments']})")

    11.8 本章总结

     

    核心要点回顾:

     

  • Function Calling 的本质
  • LLM 输出结构化 JSON,不是真的「调用」函数
  • 工具定义会计入 prompt token(成本)
  • 工具描述是 LLM 选择工具的唯一依据(Prompt 工程)
  •  

  • OpenAI vs Anthropic
  • arguments: JSON 字符串 vs 直接对象
  • strict mode: OpenAI 有,Anthropic 靠 prompt
  • 底层原理相同,API 形式不同
  •  

  • Parallel Tool Calling
  • 无依赖的工具可以并行执行
  • LLM 自己判断依赖关系
  • 用 tool_choice 参数控制行为
  •  

  • Streaming Tool Calls
  • 增量式到达,需要组装
  • 用 index 区分多个 tool_call
  • 需要维护状态机
  •  

  • 生产建议
  • 严格模式(当可用时)
  • 错误信息帮助 LLM 自我纠正
  • 工具分读写权限,写入需确认
  • 动态工具选择(减少 token 浪费)
  •  

    面试速记:

    "Function Calling 的原理是什么?"

    → LLM 根据 tools 定义判断是否需要调用工具

    → 输出结构化 JSON(包含工具名和参数)

    → 开发者的代码执行真正的函数

    → 将执行结果返回给 LLM

    📝 对应的代码实现
    💻 代码 (35 行)
    # 两个平台的工具定义格式对比
    
    if __name__ == "__main__":
        print("╔══════════════════════════════════════════════════════╗")
        print("║  第11章:Tool Calling 底层机制深度剖析                 ║")
        print("║  OpenAI/Anthropic · Parallel · Streaming · Strict   ║")
        print("╚══════════════════════════════════════════════════════╝")
    
        print("\n▶ 11.3 两个平台的工具定义格式对比")
        print("-" * 50)
        import json
        print("OpenAI:")
        print(json.dumps(OPENAI_TOOL, indent=2, ensure_ascii=False)[:200] + "...")
        print("\nAnthropic:")
        print(json.dumps(ANTHROPIC_TOOL, indent=2, ensure_ascii=False)[:200] + "...")
    
        print("\n▶ 11.4-11.6 Tool Calling 流程演示")
        demo_tool_calling_flow()
    
        print("\n▶ 11.5 Streaming 组装演示")
        demo_streaming_assembly()
    
        print("\n▶ 11.7 进阶技巧总结")
        tips = [
            "工具描述 = Prompt 工程(告诉 LLM 何时用、何时不用)",
            "用 enum 限制参数 = 减少幻觉",
            "错误信息要能帮助 LLM 自我纠正",
            "工具超过10个 → 动态过滤",
            "写入操作 → 人工确认",
            "strict 模式 → 生产环境必用",
        ]
        for t in tips:
            print(f"  🔑 {t}")
    
        print("\n✅ 第11章完成!")

    📦 完整源代码 (578 行)
    """
    第11章:Tool Calling 底层机制深度剖析
    =====================================
    
    📌 本章目标:
      1. 深入理解 LLM Function Calling 的「真正原理」
      2. 掌握 OpenAI / Anthropic 两套实现的技术细节和差异
      3. 理解 Streaming Tool Calls 的机制
      4. 学会 Parallel Tool Calling 的使用与限制
      5. 掌握 Strict Function Calling(严格模式)
      6. 理解 Tool Calling 中的常见陷阱和解决方案
    
    📌 面试高频点:
      - LLM 是如何「知道」该调用哪个工具的?
      - OpenAI 的 function calling 和 Anthropic 的 tool_use 有什么区别?
      - 什么是 Parallel Tool Calling?什么时候该用,什么时候不该用?
      - Streaming 模式下如何处理 Tool Call?
      - Token 消耗:tool definitions 计入 prompt token 吗?
    
    ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
    本章是基于 OpenAI / Anthropic API 文档 + 实践经验的总结
    ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
    
    
    11.1 Function Calling 真的不是 LLM 在「调用函数」!
    ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
    
    这是最常见的误解。让我们从底层理解真正发生了什么。
    
    误解:「LLM 调用了我的函数」
    真相:「LLM 输出了一个 JSON 对象,你的代码解析了它并执行了函数」
    
    类比:
      你给朋友发短信:「如果需要打车,回复格式 {action: "call_taxi", from: "...", to: "..."}」
      朋友回复:{"action": "call_taxi", "from": "天安门", "to": "机场"}
    
      你做的事:
        1. 解析这条 JSON
        2. 调用打车 API("天安门", "机场")
        3. 告诉朋友结果
    
      LLM 做的事:
        1. 根据你的 tool definition,决定是否使用工具
        2. 返回一个结构化的 JSON(而不是自然语言)
        3. 你的代码解析 JSON 并执行真正的函数
    
    所以 Function Calling 本质上是:
      「LLM 的结构化输出能力」+「协议规约」
      不是 LLM 有了「执行函数」的能力!
    
    
    11.2 Token 层面的原理 —— 工具定义去哪了?
    ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
    
    当你在 API 请求中包含 tools 参数时:
    
      POST /v1/chat/completions
      {
        "model": "gpt-4o",
        "messages": [...],
        "tools": [
          {
            "type": "function",
            "function": {
              "name": "get_weather",
              "description": "查询天气",
              "parameters": {...}
            }
          }
        ]
      }
    
    OpenAI 的处理流程:
      1. 将 tools 定义序列化为文本
      2. 将序列化后的文本拼接到 system prompt 后面
      3. 拼接内容会计入 prompt token(扣费!)
    
    Anthropic 的处理流程类似但有差异:
      1. 将 tools 作为独立字段发送
      2. 模型在训练时已学会理解 tool schema
      3. 同样计入 prompt token
    
    面试重点:tools 定义消耗 token!
      - 一个典型工具的 JSON Schema 约 200-500 tokens
      - 10 个工具可能消耗 2000-5000 tokens
      - 这是每次请求的固定开销!
      - 优化策略:只传当前场景可能用到的工具(动态工具选择)
    
    
    11.3 OpenAI vs Anthropic —— 两套实现对比
    ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
    
    ┌──────────────────┬───────────────────────┬──────────────────────────┐
    │      维度         │  OpenAI Function Call  │  Anthropic Tool Use      │
    ├──────────────────┼───────────────────────┼──────────────────────────┤
    │ 工具定义格式      │ 嵌套对象               │ 更简洁的 Tool 对象        │
    │                  │ {type:"function",     │ {name:"...",            │
    │                  │  function:{...}}      │  description:"...",      │
    │                  │                       │  input_schema:{...}}     │
    ├──────────────────┼───────────────────────┼──────────────────────────┤
    │ 返回格式          │ tool_calls 数组        │ content 中的 tool_use    │
    │                  │ [{"function":{...}}]  │ blocks                  │
    ├──────────────────┼───────────────────────┼──────────────────────────┤
    │ 并行调用          │ 同时返回多个 tool_call  │ 同时返回多个 tool_use    │
    │                  │ (parallel_tool_calls  │ block                   │
    │                  │  参数控制)             │                         │
    ├──────────────────┼───────────────────────┼──────────────────────────┤
    │ 流式支持          │ 增量式 tool_call 名称   │ content_block 流式输出   │
    │                  │ 和参数                  │                         │
    ├──────────────────┼───────────────────────┼──────────────────────────┤
    │ 严格模式          │ strict: true          │ 不支持单独的 strict 模式   │
    │                  │ (保证 JSON Schema 一致) │ (但通过 prompt 可实现)    │
    ├──────────────────┼───────────────────────┼──────────────────────────┤
    │ Token 计算        │ tools 序列化拼入 prompt │ tools 作为独立参数       │
    ├──────────────────┼───────────────────────┼──────────────────────────┤
    │ 工具结果返回      │ Tool Message           │ Tool Result Content Block│
    │                  │ role="tool"            │ type="tool_result"      │
    └──────────────────┴───────────────────────┴──────────────────────────┘
    
    两种格式对比(JSON):
    
      # OpenAI 格式
      {
        "role": "assistant",
        "tool_calls": [
          {
            "id": "call_abc123",
            "type": "function",
            "function": {
              "name": "get_weather",
              "arguments": "{\"city\": \"北京\"}"
            }
          }
        ]
      }
    
      # Anthropic 格式
      {
        "role": "assistant",
        "content": [
          {
            "type": "tool_use",
            "id": "toolu_abc123",
            "name": "get_weather",
            "input": {"city": "北京"}
          }
        ]
      }
    
    关键差异:
      - OpenAI: arguments 是 JSON 字符串(需要 json.loads)
      - Anthropic: input 直接是 JSON 对象
    """
    
    # 两个平台的工具定义格式对比
    OPENAI_TOOL = {
        "type": "function",
        "function": {
            "name": "get_weather",
            "description": "查询天气",
            "parameters": {
                "type": "object",
                "properties": {
                    "city": {"type": "string", "description": "城市名称"}
                },
                "required": ["city"],
            },
        },
    }
    
    ANTHROPIC_TOOL = {
        "name": "get_weather",
        "description": "查询指定城市的天气信息。返回温度、湿度、天气状况。",
        "input_schema": {
            "type": "object",
            "properties": {
                "city": {
                    "type": "string",
                    "description": "城市名称,如 '北京'、'上海'",
                }
            },
            "required": ["city"],
        },
    }
    
    
    """
    11.4 Parallel Tool Calling —— 并行执行
    ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
    
    当 LLM 判断多个工具调用之间没有依赖关系时,
    它可以一次性返回多个 tool_call,由你的代码并行执行。
    
    示例场景:
      用户:「北京和上海的天气分别怎么样?」
    
      LLM 返回 2 个 tool_call(同一个 response):
        tool_call_1: get_weather("北京")
        tool_call_2: get_weather("上海")
    
      你的代码并行执行这两个请求(节省时间!)
    
    但需要注意:
      1. 并行执行的前提:工具之间没有依赖关系
      2. 如果 tool_2 依赖 tool_1 的结果 → 必须串行
      3. LLM 自己会判断(通过参数推断依赖关系)
    
    控制行为:
      OpenAI: tool_choice 参数
        - "auto": LLM 自行决定(默认)
        - "required": 必须至少调用一个工具
        - "none": 不允许调用工具
        - {"type": "function", "function": {"name": "get_weather"}}: 强制调用指定工具
    
      Anthropic: tool_choice 参数
        - "auto": LLM 自行决定(默认)
        - "any": 必须至少调用一个工具
        - "tool": 强制调用指定工具
        - 不支持 "none"(没有等效设置)
    
    
    11.5 Streaming Tool Calls —— 流式工具调用
    ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
    
    在 streaming 模式下,tool_call 是「增量式」到达的:
    
      OpenAI streaming 过程:
        chunk_1: {"delta": {"tool_calls": [{"index": 0, "id": "call_abc"}]}}
        chunk_2: {"delta": {"tool_calls": [{"index": 0, "function": {"name": "get"}}]}}
        chunk_3: {"delta": {"tool_calls": [{"index": 0, "function": {"name": "_weather"}}]}}
        chunk_4: {"delta": {"tool_calls": [{"index": 0, "function": {"arguments": "{\"cit"}}]}}
        chunk_5: {"delta": {"tool_calls": [{"index": 0, "function": {"arguments": "y\":\"北京\"}} ]}}
        ...
    
      我们需要「组装」这些增量片段为完整的 tool_call。
    
      Anthropic streaming 过程:
        chunk_1: {"type": "content_block_start", "content_block": {"type": "tool_use", ...}}
        chunk_2: {"type": "content_block_delta", "delta": {"type": "input_json_delta", "partial_json": "{\"city\""}}
        chunk_3: {"type": "content_block_delta", "delta": {"type": "input_json_delta", "partial_json": ":\"北京\"}"}}
        ...
    
    关键挑战:
      1. 需要维护状态机(哪些 tool_call 是同一个?)
      2. 参数是增量到达的,需要累积拼接
      3. 可能同时收到多个 tool_call 的流(用 index 区分)
    
    
    11.6 Strict Function Calling —— 严格模式
    ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
    
    OpenAI 在 2024 年推出了 strict 模式:
      设置 strict: true 时,LLM 保证输出的参数 100% 符合 JSON Schema。
    
    如何使用:
      - 所有参数必须定义为 object 类型
      - 所有字段必须有明确的 type
      - 可选字段必须设置 default 或 nullable
      - 不允许使用 anyOf / oneOf
    
    示例:
      {
        "type": "function",
        "function": {
          "name": "get_weather",
          "strict": true,  // ← 开启严格模式
          "parameters": {
            "type": "object",
            "properties": {
              "city": {"type": "string"},
              "unit": {"type": "string", "enum": ["celsius", "fahrenheit"]}
            },
            "required": ["city", "unit"],
            "additionalProperties": false  // ← strict 模式必须设置
          }
        }
      }
    
    为什么需要 strict 模式?
      1. 生产环境要求:参数格式错误会导致工具执行失败
      2. 减少重试:不需要「尝试解析 → 失败 → 重新请求 LLM」
      3. 安全考虑:防止 LLM 输出未定义的字段
    
    Anthropic 目前没有单独的 strict 参数,
    但可以通过 prompt 工程实现类似效果:
      "You MUST output exactly the parameters specified in the input_schema.
       Do not include any additional fields."
    
    
    11.7 Tool Calling 的进阶技巧
    ━━━━━━━━━━━━━━━━━━━━━━━━━━━
    
    1. 工具描述即 Prompt 工程
       - description 不只是给开发者看的,是给 LLM 看的!
       - 描述要回答三个问题:
         a. 这个工具「做什么」?
         b. 「什么时候」该用?
         c. 「什么时候」不该用?
    
    2. 参数设计原则
       - 用 enum 限制选项(减少幻觉)
       - 提供清晰的参数描述
       - 必填 vs 可选要明确
       - 给出典型调用示例(在 description 中)
    
    3. 错误处理 —— 工具结果应「帮助 LLM 纠正」
       ✗ return "Error 404"
       ✓ return "未找到城市'培京'的天气数据。城市名是否拼写有误?可用城市:北京、上海。"
    
    4. 工具数量控制 —— 别给 LLM 太多选择
       - 超过 10 个工具时,LLM 的选择准确率显著下降
       - 采用「动态工具集」:根据当前上下文过滤可用工具
       - 分层的工具注册:先给概览,用户指定后再给详细工具
    
    5. 工具调用确认(Human-in-the-Loop)
       - 读操作:自动执行(get_weather, search)
       - 写操作:需要确认(send_email, delete_file)
       - 危险操作:需要二次确认(execute_sql, run_command)
    """
    
    
    class ToolCallSimulator:
        """模拟两个平台的 Tool Call 处理流程。
    
        展示从 LLM 返回 → 解析 → 执行 → 返回结果的完整链路。
        """
    
        def __init__(self):
            self.tools = {
                "get_weather": lambda args: f"天气: {args.get('city', '未知')} 晴 25°C",
                "search": lambda args: f"搜索结果(关于'{args.get('query', '')}'): ...",
                "calculate": lambda args: str(eval(args.get('expression', '0'))),
            }
    
        def process_openai_style(self, llm_response: dict) -> str:
            """处理 OpenAI 风格的 tool_calls。
    
            Args:
                llm_response: 模拟的 OpenAI LLM 响应。
    
            Returns:
                执行结果描述。
            """
            tool_calls = llm_response.get("tool_calls", [])
            if not tool_calls:
                return "LLM 直接回答: " + llm_response.get("content", "")
    
            results = []
            can_parallel = True
    
            # 检查是否可以并行(简化:都假设可并行)
            for tc in tool_calls:
                func = tc["function"]
                tool_name = func["name"]
                # OpenAI 的 arguments 是 JSON 字符串!
                args = __import__("json").loads(func["arguments"])
    
                print(f"  [OpenAI] 调用: {tool_name}({args})")
    
                if tool_name in self.tools:
                    result = self.tools[tool_name](args)
                else:
                    result = f"错误: 未知工具 {tool_name}"
    
                results.append({
                    "tool_call_id": tc["id"],
                    "role": "tool",
                    "content": result,
                })
                print(f"    结果: {result}")
    
            # 组装返回给 LLM 的工具结果
            return str(results)
    
        def process_anthropic_style(self, llm_response: dict) -> str:
            """处理 Anthropic 风格的 tool_use blocks。
    
            Args:
                llm_response: 模拟的 Anthropic LLM 响应。
    
            Returns:
                执行结果描述。
            """
            content_blocks = llm_response.get("content", [])
            tool_uses = [b for b in content_blocks if b.get("type") == "tool_use"]
    
            if not tool_uses:
                text_blocks = [b for b in content_blocks if b.get("type") == "text"]
                return "LLM 直接回答: " + "".join(
                    b.get("text", "") for b in text_blocks
                )
    
            results = []
            for tu in tool_uses:
                tool_name = tu["name"]
                # Anthropic 的 input 直接是 dict(不需要 json.loads)
                args = tu["input"]
    
                print(f"  [Anthropic] 调用: {tool_name}({args})")
    
                if tool_name in self.tools:
                    result = self.tools[tool_name](args)
                else:
                    result = f"错误: 未知工具 {tool_name}"
    
                results.append({
                    "type": "tool_result",
                    "tool_use_id": tu["id"],
                    "content": result,
                })
                print(f"    结果: {result}")
    
            return str(results)
    
    
    def demo_tool_calling_flow():
        """演示完整的 Tool Calling 流程。"""
        print("=" * 60)
        print("  Tool Calling 完整流程演示")
        print("=" * 60)
    
        simulator = ToolCallSimulator()
    
        # 模拟 OpenAI 风格
        print("\n  [OpenAI 风格 Tool Call]")
        openai_response = {
            "role": "assistant",
            "tool_calls": [
                {
                    "id": "call_abc123",
                    "type": "function",
                    "function": {
                        "name": "get_weather",
                        "arguments": '{PH104: PH105}',
                    },
                },
                {
                    "id": "call_def456",
                    "type": "function",
                    "function": {
                        "name": "calculate",
                        "arguments": '{PH114: PH115}',
                    },
                },
            ],
        }
        simulator.process_openai_style(openai_response)
    
        # 模拟 Anthropic 风格
        print("\n  [Anthropic 风格 Tool Use]")
        anthropic_response = {
            "role": "assistant",
            "content": [
                {
                    "type": "tool_use",
                    "id": "toolu_xyz789",
                    "name": "search",
                    "input": {"query": "AI Agent 最新进展"},
                },
            ],
        }
        simulator.process_anthropic_style(anthropic_response)
    
    
    def demo_streaming_assembly():
        """模拟 Streaming Tool Call 的组装过程。"""
        print("\n" + "=" * 60)
        print("  Streaming Tool Call 组装演示")
        print("=" * 60)
    
        # 模拟 OpenAI streaming chunks
        chunks = [
            {"delta": {"tool_calls": [{"index": 0, "id": "call_abc"}]}},
            {"delta": {"tool_calls": [{"index": 0, "function": {"name": "get"}}]}},
            {"delta": {"tool_calls": [{"index": 0, "function": {"arguments": "{\"cit"}}]}},
            {"delta": {"tool_calls": [{"index": 0, "function": {"arguments": "y\":\"北京\"}"}}]}},
        ]
    
        print("\n  接收到的 streaming chunks:")
        tool_calls_state = {}
        for i, chunk in enumerate(chunks):
            print(f"  chunk_{i}: {chunk}")
            delta = chunk.get("delta", {})
            tool_deltas = delta.get("tool_calls", [])
            for td in tool_deltas:
                idx = td.get("index", 0)
                if idx not in tool_calls_state:
                    tool_calls_state[idx] = {
                        "id": td.get("id", ""),
                        "name": "",
                        "arguments": "",
                    }
                if "function" in td:
                    if "name" in td["function"]:
                        tool_calls_state[idx]["name"] += td["function"]["name"]
                    if "arguments" in td["function"]:
                        tool_calls_state[idx]["arguments"] += td["function"]["arguments"]
    
        print("\n  组装后的完整 tool_call:")
        for idx, tc in tool_calls_state.items():
            print(f"  tool_call[{idx}]: {tc['name']}({tc['arguments']})")
    
    
    """
    11.8 本章总结
    ━━━━━━━━━━━━━━
    
    核心要点回顾:
    
    1. Function Calling 的本质
       - LLM 输出结构化 JSON,不是真的「调用」函数
       - 工具定义会计入 prompt token(成本)
       - 工具描述是 LLM 选择工具的唯一依据(Prompt 工程)
    
    2. OpenAI vs Anthropic
       - arguments: JSON 字符串 vs 直接对象
       - strict mode: OpenAI 有,Anthropic 靠 prompt
       - 底层原理相同,API 形式不同
    
    3. Parallel Tool Calling
       - 无依赖的工具可以并行执行
       - LLM 自己判断依赖关系
       - 用 tool_choice 参数控制行为
    
    4. Streaming Tool Calls
       - 增量式到达,需要组装
       - 用 index 区分多个 tool_call
       - 需要维护状态机
    
    5. 生产建议
       - 严格模式(当可用时)
       - 错误信息帮助 LLM 自我纠正
       - 工具分读写权限,写入需确认
       - 动态工具选择(减少 token 浪费)
    
    面试速记:
      "Function Calling 的原理是什么?"
      → LLM 根据 tools 定义判断是否需要调用工具
      → 输出结构化 JSON(包含工具名和参数)
      → 开发者的代码执行真正的函数
      → 将执行结果返回给 LLM
    """
    
    
    if __name__ == "__main__":
        print("╔══════════════════════════════════════════════════════╗")
        print("║  第11章:Tool Calling 底层机制深度剖析                 ║")
        print("║  OpenAI/Anthropic · Parallel · Streaming · Strict   ║")
        print("╚══════════════════════════════════════════════════════╝")
    
        print("\n▶ 11.3 两个平台的工具定义格式对比")
        print("-" * 50)
        import json
        print("OpenAI:")
        print(json.dumps(OPENAI_TOOL, indent=2, ensure_ascii=False)[:200] + "...")
        print("\nAnthropic:")
        print(json.dumps(ANTHROPIC_TOOL, indent=2, ensure_ascii=False)[:200] + "...")
    
        print("\n▶ 11.4-11.6 Tool Calling 流程演示")
        demo_tool_calling_flow()
    
        print("\n▶ 11.5 Streaming 组装演示")
        demo_streaming_assembly()
    
        print("\n▶ 11.7 进阶技巧总结")
        tips = [
            "工具描述 = Prompt 工程(告诉 LLM 何时用、何时不用)",
            "用 enum 限制参数 = 减少幻觉",
            "错误信息要能帮助 LLM 自我纠正",
            "工具超过10个 → 动态过滤",
            "写入操作 → 人工确认",
            "strict 模式 → 生产环境必用",
        ]
        for t in tips:
            print(f"  🔑 {t}")
    
        print("\n✅ 第11章完成!")