大模型到底怎么思考?一篇看懂 Prompt、思维链、思维树

1、大模型到底是什么?

“大模型”其实是个广义概念,指的大参数量的机器学习模型,包括语音、视觉等等内容。我们现在常说的大模型其实是大语言模型(Large Language Model),像平时用的豆包、deepseek。

但是,同样是用AI,不同的人会用出不一样的效果,这就要理解大模型的底层逻辑了。大模型并没有完全像人一样去思考,不过一直在进步,你会发现他越来越聪明了。简单来说,大模型的理解其实是在预测,他经过大量的信息学习,其判断每个字后面接下一个字的概率有多高,像 “苹” -> “果”,当然他不只是逐字去预测,他会结合上下文,比如“xxx此处省略100个字xxx”,去预测下一个字,依此类推。因此,我们在提问的时候要进行适当的引导。

起初在我看到网上专门有人教如何给豆包提问题,还不屑一顾,没想到是我外行了。

2、提示工程(prompt engineering)

prompt是人类和AI沟通的语言,我们发给AI的话,都是prompt,那么,如何写好prompt呢?

有一个通用公式:角色定位+上下文+任务指令+输入数据+输出要求+约束条件

  • 角色定位:就是要让模型更专业的去分析你的问题,给出答案,例如你是一个资深大模型应用开发工程师,性格温和
  • 上下文:背景信息,比如连续问答,遇到有歧义的问题,他可以根据刚刚在聊的内容来猜测你更可能想问什么
  • 任务指令:明确核心动作,内容总结、分析推理、计算结果还是判断对错,避免答非所问
  • 输入数据:具体问题描述、需总结的文档
  • 输出要求:格式化输出便于后续代码解析,字数限制,风格等
  • 约束条件:避免一些prompt攻击,比如禁止回答与主题无关的问题

当然,并不是每次提问都要一步一步把每个点都套进去,需要灵活处理。结合前面有一期我们本地部署了ollama-qwen3:4b的本地模型,我们可以上手感受一下提示词的魅力。

本地调用模型需要先启动本地ollama服务:

ollama serve

调用方式一般有两种,一种是调用模型原生接口,一种是通过通用OpenAI接口来调用:

# Ollama原生OpenAPI接口
curl http://127.0.0.1:11434/api/chat -d '{
  "model": "qwen3:4b",
  "messages": [{"role": "user", "content": "你好"}],
  "stream": false
}'

# OpenAI兼容接口
curl http://127.0.0.1:11434/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer ollama" \
  -d '{
    "model": "qwen3:4b",
    "messages": [{"role": "user", "content": "你好"}]
  }'

返回如下:

在这里插入图片描述

可以看到,两种方式返回的响应体有些许的差异,原生API中返回信息在 “message”[“content”] 中,OpenAI的接口返回在 “choices”[“message”[“content”]] 中,在程序中获取结果时候需要注意下,OpenAI更通用,建议优先用这个。

from openai import OpenAI

# ===================== 配置项(OpenAI兼容模式) =====================
# 指向本地Ollama的OpenAI兼容接口
client = OpenAI(
    base_url="http://127.0.0.1:11434/v1",  # Ollama的OpenAI兼容前缀
    api_key="ollama"  # 本地模型任意值即可,仅用于格式兼容
)
MODEL_NAME = "qwen3:4b"


# ===================== OpenAPI规范调用(兼容OpenAI) =====================
def call_local_llm_openai_compatible(prompt, stream=False):
    """
    用OpenAI OpenAPI规范调用本地Ollama模型
    """
    try:
        # 非流式调用
        if not stream:
            completion = client.chat.completions.create(
                model=MODEL_NAME,
                messages=[{"role": "user", "content": prompt}],
                temperature=0.7,
                stream=False
            )
            return completion.choices[0].message.content

        # 流式调用
        else:
            completion = client.chat.completions.create(
                model=MODEL_NAME,
                messages=[{"role": "user", "content": prompt}],
                temperature=0.7,
                stream=True
            )

            def stream_generator():
                for chunk in completion:
                    if chunk.choices[0].delta.content:
                        yield chunk.choices[0].delta.content #生成器,每次迭代都会返回一个结果

            return stream_generator()

    except Exception as e:
        return f"调用失败:{str(e)}"


# ===================== 测试兼容模式调用 =====================
if __name__ == "__main__":
    # 1. 非流式调用(OpenAI OpenAPI规范)
    print("=== OpenAI兼容模式-非流式调用 ===")
    prompt1 = "请严格按JSON格式输出:{\"name\":\"张三\",\"age\":25,\"job\":\"程序员\"}"
    result1 = call_local_llm_openai_compatible(prompt1)
    print(result1)
    print("-" * 60)

    # 2. 流式调用(OpenAI SSE规范)
    print("=== OpenAI兼容模式-流式调用 ===")
    prompt2 = "请解释OpenAPI接口的核心特点"
    stream_gen = call_local_llm_openai_compatible(prompt2, stream=True)
    print("模型响应:", end="")
    for chunk in stream_gen:
        print(chunk, end="", flush=True)
    print()

结果大家可以自己本地执行观察下效果。这里面有两个参数说明一下:

  • temperature:温度,他是用来控制输出的稳定性,范围 0~2,数值越小,越严谨,例如数学推理计算,数值越大,越发散,适合文章扩写等等。
  • stream:True/False,代表是否流式输出,True是逐字输出,False是等全部生成好之后一次性输出。

3、思维链(Chain of Thoughts,CoT)

思维链(CoT)是大模型 Prompt 工程中核心的高级技巧,本质是引导模型 “像人类一样分步思考”,而不是直接给出答案,尤其适合数学计算、逻辑推理、复杂任务拆解等场景,能大幅提升回答的准确性。

下面是几种常用的思维链使用方式,最简单的就直接告诉他,一步步思考,如果他思考的还是不够细,那直接给他指出来要先分析问题,拆解子问题,等等步骤,严格按照我们所说的来思考,再不济,那就给他写几个样例,让他参考我们样例思考的过程去思考。自洽性是指让他多思考几次,更多一致的结果则更可能是我们想要的结果,增加了一些容错性。

类型 特点 适用场景
零样本 CoT 仅用提示词(如 “让我们一步步思考”)触发模型思考 不想写示例的快速场景
少样本 CoT 给出 1-2 个 “问题 + 思考步骤 + 答案” 的示例,引导模型模仿 复杂问题(如数学竞赛题)
自洽 CoT 让模型生成多个思考路径,最后取一致答案 高精准要求场景(如财务计算)

可以用下面这段代码来体验一下:

import requests

# 基础配置(适配本地Ollama)
OLLAMA_URL = "http://127.0.0.1:11434/api/generate"
MODEL_NAME = "qwen3:4b"

# 通用调用函数
def call_llm_with_cot(prompt, temperature=0.1):
    """调用本地模型,适配思维链Prompt"""
    data = {
        "model": MODEL_NAME,
        "prompt": prompt,
        "temperature": temperature, # 低温度保证推理严谨
        "stream": False
    }
    try:
        response = requests.post(OLLAMA_URL, json=data)
        response.raise_for_status()
        return response.json()["response"]
    except Exception as e:
        returnf"调用失败:{str(e)}"

# ===================== 场景1:基础CoT(分步思考) =====================
print("=== 场景1:基础CoT ===")
basic_cot_prompt = """
请严格按照「分析问题→拆解步骤→计算结果→总结答案」的步骤解决以下问题:
问题:某商店第一天卖出20件商品,第二天卖出的数量是第一天的1.5倍,第三天比第二天少卖5件,三天总共卖出多少件?
"""
basic_cot_result = call_llm_with_cot(basic_cot_prompt)
print(basic_cot_result)
print("-" * 70)

# ===================== 场景2:少样本CoT(示例引导) =====================
print("=== 场景2:少样本CoT ===")
few_shot_cot_prompt = """
示例1:
问题:小红有8支笔,买了5支,送给同学3支,还剩几支?
思考步骤:
1. 分析问题:需要计算笔的数量增减;
2. 拆解步骤:初始8支 + 新买5支 - 送出3支;
3. 计算:8+5-3=10;
4. 答案:还剩10支。

示例2:
问题:一本书有200页,第一天看了50页,第二天看了剩下的1/3,还剩多少页没看?
思考步骤:
1. 分析问题:先算剩余页数,再算第二天看的,最后算最终剩余;
2. 拆解步骤:
   - 第一天看完剩余:200-50=150页;
   - 第二天看的页数:150×1/3=50页;
   - 最终剩余:150-50=100页;
3. 计算:200-50-(150×1/3)=100;
4. 答案:还剩100页。

请模仿上述示例的思考步骤,解决以下问题:
问题:一个长方形长12cm,宽比长少4cm,这个长方形的周长和面积分别是多少?
"""
few_shot_cot_result = call_llm_with_cot(few_shot_cot_prompt)
print(few_shot_cot_result)
print("-" * 70)

# ===================== 场景3:零样本CoT(无示例,仅提示) =====================
print("=== 场景3:零样本CoT ===")
zero_shot_cot_prompt = """
让我们一步步思考这个问题,确保每一步都准确:
问题:小明从家到学校需要走15分钟,速度是每分钟80米;放学时速度减慢到每分钟60米,放学回家需要走多久?
"""
zero_shot_cot_result = call_llm_with_cot(zero_shot_cot_prompt)
print(zero_shot_cot_result)
print("-" * 70)

# ===================== 场景4:复杂任务拆解(非数学题) =====================
print("=== 场景4:复杂任务拆解CoT ===")
task_cot_prompt = """
请用思维链的方式拆解「开发一个本地文档问答机器人」的任务,要求:
1. 先明确核心目标;
2. 拆解成5个以内的核心步骤;
3. 每个步骤说明关键动作和注意事项。
"""
task_cot_result = call_llm_with_cot(task_cot_prompt, temperature=0.5)
print(task_cot_result)

4、思维树(Tree of Thoughts,ToT)

思维树(ToT)是比思维链(CoT)更高级的大模型推理框架,核心是让模型像人类一样 “分叉思考、评估路径、回溯优化”—— 不仅分步推理,还能探索多个可能的解题路径,淘汰错误方向,选择最优解,尤其适合复杂、多分支、需要试错的任务(如数学竞赛题、逻辑谜题、复杂任务规划)

简单来说,思维树就是从多条路开始走,去遍历各种可能性,然后去评估哪个结果更接近于正确结论,择优选择。

同样给一个样例,亲身感受一下,当然这些代码如何写不用纠结,这些代码网上都有,AI生成的相当完善,重点去理解他的推演过程。

import requests
import json

# ===================== 配置项 =====================
OLLAMA_URL = "http://127.0.0.1:11434/api/generate"
MODEL_NAME = "qwen3:4b"# 本地已下载的模型
TEMPERATURE = 0.5        # 生成多个思路时适度增加随机性

# ===================== 基础调用函数 =====================
def call_ollama(prompt, temperature=0.5):
    """调用本地Ollama模型,返回生成结果"""
    data = {
        "model": MODEL_NAME,
        "prompt": prompt,
        "temperature": temperature,
        "stream": False,
        "max_tokens": 1000# 限制生成长度,避免冗余
    }
    try:
        response = requests.post(OLLAMA_URL, json=data)
        response.raise_for_status()
        return response.json()["response"].strip()
    except Exception as e:
        returnf"调用失败:{str(e)}"

# ===================== ToT核心函数 =====================
def tree_of_thoughts(problem, max_depth=3, top_k=2):
    """
    思维树(ToT)核心实现
    :param problem: 待解决的复杂问题
    :param max_depth: 思维树最大深度(中间步骤数)
    :param top_k: 每一步保留的最优思路数
    :return: 最优解 + 完整推理路径
    """
    # 存储完整的思维树(用于回溯和展示)
    thought_tree = {
        "root": problem,
        "nodes": [], # 每个节点格式:{"depth": 深度, "thought": 思路, "score": 评分, "children": []}
    }

    def generate_thoughts(current_problem, depth):
        """生成当前步骤的多个可能思路"""
        prompt = f"""
        你需要解决的问题:{current_problem}
        当前推理深度:{depth}/{max_depth}
        要求:
        1. 生成{top_k+1}个可能的解题思路(中间步骤);
        2. 每个思路简洁明了(不超过50字);
        3. 思路之间要有明显差异(不同的推理方向);
        4. 仅输出思路列表,格式:1. 思路1\n2. 思路2\n...
        """
        thoughts_str = call_ollama(prompt, temperature=TEMPERATURE)
        # 解析思路列表
        thoughts = []
        for line in thoughts_str.split("\n"):
            if line.strip().startswith(("1.", "2.", "3.", "4.", "5.")):
                thought = line.strip().split(".", 1)[1].strip()
                if thought:
                    thoughts.append(thought)
        return thoughts[:top_k] # 取前top_k个思路

    def evaluate_thoughts(thoughts, current_problem):
        """评估思路的可行性,返回(思路,评分)列表(评分1-10,越高越可行)"""
        prompt = f"""
        待解决问题:{current_problem}
        需要评估的思路列表:
        {chr(10).join([f"{i+1}. {t}" for i, t in enumerate(thoughts)])}
        要求:
        1. 为每个思路评分(1-10分,1=完全不可行,10=最优);
        2. 评分理由简洁(不超过30字);
        3. 仅输出评估结果,格式:
        1. 思路1:评分(理由)
        2. 思路2:评分(理由)
        ...
        """
        eval_str = call_ollama(prompt, temperature=0.1) # 低温度保证评估严谨
        # 解析评分
        evaluated = []
        for line in eval_str.split("\n"):
            if line.strip().startswith(("1.", "2.", "3.", "4.", "5.")):
                parts = line.strip().split(".", 1)[1].strip().split(":", 1)
                if len(parts) == 2:
                    thought = parts[0].strip()
                    score_part = parts[1].split("(", 1)[0].strip()
                    try:
                        score = int(score_part)
                        evaluated.append((thought, score))
                    except ValueError:
                        continue
        # 按评分排序(降序)
        evaluated_sorted = sorted(evaluated, key=lambda x: x[1], reverse=True)
        return evaluated_sorted

    def expand_tree(current_problem, depth):
        """递归扩展思维树,返回最优思路和最终答案"""
        # 终止条件:达到最大深度,生成最终答案
        if depth >= max_depth:
            final_prompt = f"""
            基于当前思路解决问题:{current_problem}
            要求:给出最终答案,简洁明了(不超过100字)。
            """
            final_answer = call_ollama(final_prompt, temperature=0.1)
            return final_answer, []

        # 步骤1:生成当前步骤的多个思路
        thoughts = generate_thoughts(current_problem, depth)
        ifnot thoughts:
            return"无法生成有效思路", []

        # 步骤2:评估思路,选最优的top_k个
        evaluated_thoughts = evaluate_thoughts(thoughts, current_problem)
        ifnot evaluated_thoughts:
            return"无法评估思路", []

        # 步骤3:递归扩展最优思路的子节点
        best_thought, best_score = evaluated_thoughts[0]
        # 记录当前节点到思维树
        thought_tree["nodes"].append({
            "depth": depth,
            "thought": best_thought,
            "score": best_score,
            "children": []
        })

        # 构建下一级问题(基于最优思路)
        next_problem = f"基于思路「{best_thought}」,继续解决原问题:{problem}"
        # 递归扩展
        final_answer, child_paths = expand_tree(next_problem, depth + 1)
        # 记录子路径
        thought_tree["nodes"][-1]["children"] = child_paths

        # 返回当前路径+最终答案
        path = [f"深度{depth}{best_thought}(评分{best_score})"] + child_paths
        return final_answer, path

    # 启动思维树推理
    final_answer, reasoning_path = expand_tree(problem, depth=1)
    return {
        "final_answer": final_answer,
        "reasoning_path": reasoning_path,
        "thought_tree": thought_tree
    }

# ===================== 测试ToT功能 =====================
if __name__ == "__main__":
    # 示例:复杂逻辑谜题(适合ToT的典型场景)
    complex_problem = """
    逻辑谜题:有5个盒子,分别标有1-5号,每个盒子里装着红、黄、蓝三种颜色中的一种球,满足以下条件:
    1. 1号盒子不是红球;
    2. 2号盒子和4号盒子颜色相同;
    3. 3号盒子是蓝球;
    4. 5号盒子不是黄球;
    5. 红球数量比黄球多1个。
    请推理每个盒子里球的颜色,并说明推理过程。
    """

    # 执行ToT推理
    print("=== 思维树(ToT)推理开始 ===")
    print(f"待解决问题:{complex_problem.strip()}")
    print("-" * 80)

    result = tree_of_thoughts(
        problem=complex_problem,
        max_depth=3, # 3层推理深度
        top_k=2       # 每步保留2个最优思路
    )

    # 输出结果
    print("=== 推理路径(思维树)===")
    for idx, step in enumerate(result["reasoning_path"]):
        print(f"{idx+1}. {step}")
    print("-" * 80)

    print("=== 最终答案 ===")
    print(result["final_answer"])

四、总结

  1. ToT 核心价值:从 “单路径线性推理” 升级为 “多路径树状推理”,解决 CoT 在复杂问题中 “易出错、无回溯” 的痛点,是大模型 Agent 实现复杂决策的核心技术;
  2. 实现关键:“思路生成→评估→剪枝→递归扩展” 是 ToT 的核心流程,新手可先从简化版 ToT(2 层深度、2 个思路)入手;
  3. 适配本地模型:结合 Ollama 可完全本地化实现 ToT,无需依赖云端,适合隐私敏感的复杂推理场景。

总结

在这里插入图片描述
从左到右依次是 基本问答(Input-Output Prompting)、思维链(Chain of Thought Prompting)、自洽性思维链(Self Consistency with CoT)、思维树(Tree of Thought)。

看图应该能够直观感受到这几种方式之间的关系了吧。

基本的prompt就是直问直答,思维链是把思考过程加入进来,一条路走到黑,而思维树是同时走多条路,选最优的一条。

————————THE END————————

今天的内容就分享到这里。【原文链接】
有问题欢迎留言交流,也可以加我微信深入探讨(公众号:BigDataLab)。
关注我,不错过每一篇干货,下期继续为你带来更实用的内容!
(如果需要python、大数据、大模型相关学习资料,欢迎公众号“BigDataLab”留言“资料”)

————————精彩推荐————————

RAG知识库搭建大揭秘:原来这么简单,还能这么有趣!

Python数据分析入门:从零开始玩转数据

简明教程:实现OpenCLaw轻量级应用服务器部署及Ollama大模型本地化

Dify+Ollama模型搭建攻略:本地环境实战指南

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐