LangChain 嵌入向量详解

本文介绍什么是嵌入向量(Embeddings),以及如何在 LangChain 中使用文本嵌入。

1. 什么是嵌入向量?

1.1 从文本到数字

计算机无法直接理解文本,但可以理解数字。嵌入向量是将文本转换为数字数组的技术:

文本: "Hello world!"
     ↓
向量: [0.123, -0.456, 0.789, ..., 0.021]  # 1536 维

1.2 嵌入向量的特点

特点 说明
语义相似性 语义相似的文本,向量距离更近
可计算性 可以用余弦相似度、欧氏距离等计算
维度固定 同一模型生成的向量维度相同
可Embedding模型 text-embedding-3-large 生成 3072 维向量

1.3 向量相似度示意

"你好"     → [0.1, 0.2, ...]  ──┐
"Hello"   → [0.9, 0.1, ...]  ──┼── 距离远,语义不相关
                               │
"Hi"      → [0.85, 0.15, ...] ─┘

2. 为什么需要嵌入向量?

2.1 主要应用场景

场景 说明
语义搜索 通过向量相似度搜索相关内容
文档检索 RAG(检索增强生成)的核心组件
文本分类 将文本分类到不同类别
聚类分析 按语义对文档进行聚类
去重检测 发现相似/重复内容

2.2 RAG 中的嵌入向量

用户问题 → 嵌入向量 → 与文档向量匹配 → 检索最相关内容 → 输入 LLM 生成答案

3. 代码解析

3.1 初始化嵌入模型

from langchain_openai import OpenAIEmbeddings

embeddings_model = OpenAIEmbeddings(
    model="text-embedding-3-large",           # 嵌入模型
    openai_api_key="sk-xxxx",                 # API 密钥
    openai_api_base="https://api.xxx.com/v1"  # API 地址
)

3.2 嵌入文档(多个文本)

# 同时嵌入多个文本
embeded_result = embeddings_model.embed_documents(["Hello world!", "Hey bro"])

# 返回结果是一个列表
len(embeded_result)  # 2(两个文本)
len(embeded_result[0])  # 3072(text-embedding-3-large 的维度)

3.3 降低向量维度

# 通过 dimensions 参数指定维度
embeddings_model = OpenAIEmbeddings(
    model="text-embedding-3-large",
    api_key="sk-xxxx",
    base_url="https://api.xxx.com/v1",
    dimensions=1024  # 指定为 1024 维(可节省存储空间)
)

embeded_result = embeddings_model.embed_documents(["Hello world!", "Hey bro"])
len(embeded_result[0])  # 1024

4. 参数详解

4.1 OpenAIEmbeddings 参数

参数 说明 默认值
model 嵌入模型名称 text-embedding-3-small
api_key / openai_api_key API 密钥 -
base_url / openai_api_base API 地址 https://api.openai.com/v1
dimensions 输出向量维度 模型原始维度

4.2 常用嵌入模型对比

模型 向量维度 说明
text-embedding-3-large 3072 最新、最大、最强
text-embedding-3-small 1536 性价比高
text-embedding-ada-002 1536 早期模型

5. 嵌入单个查询

5.1 embed_query 方法

# 嵌入单个查询文本(用于搜索/匹配)
query_vector = embeddings_model.embed_query("Hello world!")
len(query_vector)  # 3072

5.2 embed_documents vs embed_query

方法 用途 输入 输出
embed_documents 嵌入文档库 文本列表 向量列表
embed_query 嵌入用户查询 单个文本 单个向量

6. 完整示例

from langchain_openai import OpenAIEmbeddings

# 1. 初始化模型
embeddings_model = OpenAIEmbeddings(
    model="text-embedding-3-large",
    api_key="sk-xxxx",
    base_url="https://api.xxx.com/v1",
    dimensions=1024
)

# 2. 嵌入文档
docs = ["苹果是水果", "香蕉是水果", "汽车是交通工具"]
doc_vectors = embeddings_model.embed_documents(docs)

# 3. 嵌入用户查询
query = "什么水果是黄色的?"
query_vector = embeddings_model.embed_query(query)

# 4. 计算相似度(通常在向量数据库中自动完成)
# 这里可用余弦相似度进行比较

7. 常见问题

Q1: 向量维度越大越好吗?

不是。维度越大,精度越高,但存储和计算成本也增加。根据实际需求选择:

需求 推荐维度
存储优先 256-512
平衡 768-1024
精度优先 1536-3072

Q2: 如何选择嵌入模型?

  • 优先使用最新的 text-embedding-3-large
  • 如果成本敏感,可用 text-embedding-3-small

Q3: 嵌入向量可以手动比较吗?

可以,使用余弦相似度:

import numpy as np

def cosine_similarity(a, b):
    return np.dot(a, b) / (np.linalg.norm(a) * np.linalg.norm(b))

sim = cosine_similarity(doc_vectors[0], doc_vectors[1])

Q4: 不同模型的向量能比较吗?

不能。必须使用同一个模型生成的向量才能进行相似度比较。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐