【信息科学与工程学】【管理科学】 计算机科学与自动化—第七十二篇 互联网社交平台内容审计分析领域算法及模型表01
互联网社交平台审计分析领域算法及模型表
互联网社交平台审计分析领域算法及模型表(E-L1-0001~0006,含10亿级并发架构)
|
编号 |
类别 |
模型配方 |
算法/模型/方法名称 |
算法/模型/方法的逐步思考推理过程及每一个步骤的数学方程式和参数选择/参数优化 |
精度/密度/误差/强度 |
底层规律/理论定理 |
典型应用场景【10个场景】和各类特征 |
变量/常量/参数列表及说明 |
数学特征 |
语言特征 |
时序和交互流程的所有细节/分步骤时序情况及数学方程式 |
10亿级并发下的服务器性能与规模需求 |
配套优化算法列表 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
E-L1-0001 |
图神经网络 |
基于谱图理论的卷积操作扩展 |
图卷积网络 (GCN) |
步骤1:图拉普拉斯矩阵构建 |
精度:Cora数据集节点分类81.5% |
谱图理论、卷积定理、消息传递机制 |
1. 社交网络节点分类 |
变量:X∈ℝ^{n×d},A∈{0,1}^{n×n},H⁽ˡ⁾∈ℝ^{n×hₗ} |
集合、逻辑、概率统计、随机性、连续性、微分、积分、级数、收敛性、测度、离散、排序、组合、构造、优化、计算、稳定性、对称性、代数、拓扑、几何、群、组合数学 |
自然语言处理特征、多语言支持、语义特征 |
时序流程: |
服务器配置: |
1. Legion系统:多GPU极限优化,单服务器支持十亿顶点 |
|
E-L1-0002 |
图神经网络 |
注意力机制在图结构上的扩展 |
图注意力网络 (GAT) |
步骤1:注意力系数计算 |
精度:Citeseer数据集72.5% |
注意力机制、图神经网络、消息传递 |
1. 异质社交网络分析 |
变量:hᵢ∈ℝ^{d},W∈ℝ^{d'×d},a∈ℝ^{2d'},αᵢⱼ∈[0,1] |
集合、逻辑、概率统计、随机性、连续性、微分、积分、级数、收敛性、测度、离散、排序、组合、构造、优化、计算、稳定性、非对称性、代数、拓扑、几何、群、组合数学 |
自然语言注意力机制、语义注意力权重、跨语言注意力对齐 |
时序流程: |
服务器配置: |
1. 高效注意力计算:稀疏注意力、线性注意力、低秩注意力近似 |
|
E-L1-0003 |
图算法 |
基于随机游走的网页排名算法 |
PageRank算法 |
步骤1:构建转移概率矩阵 |
精度:收敛精度ε |
马尔可夫链、随机游走、平稳分布、Perron-Frobenius定理 |
1. 影响力排名 |
变量:r∈ℝⁿ PageRank向量,M∈ℝ^{n×n}转移矩阵,P∈ℝ^{n×n}阻尼矩阵 |
集合、逻辑、概率统计、随机性、极限、连续性、级数、收敛性、测度、离散、排序、组合、代数、拓扑、几何、群、组合数学 |
文本链接分析、语义关联分析 |
时序流程: |
服务器配置: |
1. Angel图算法框架:腾讯开源,基于参数服务器架构,专为超大规模图设计 |
|
E-L1-0004 |
社区检测 |
模块度最大化启发式算法 |
Louvain社区检测算法 |
步骤1:模块度定义 |
精度:模块度Q值0.3-0.7 |
模块度最大化、启发式优化、多级聚类 |
1. 社交圈子发现 |
变量:A邻接矩阵,c社区分配向量,Q模块度值 |
集合、逻辑、概率统计、随机性、连续性、微分、积分、级数、收敛性、测度、离散、排序、组合、构造、优化、计算、稳定性、对称性、代数、拓扑、几何、群、组合数学 |
社区语言特征分析、社区内语言一致性 |
时序流程: |
服务器配置: |
1. 基于孤立集的并行Louvain:国防科技大学提出,消除同步延迟和社区标签交换问题 |
|
E-L1-0005 |
聚类算法 |
基于距离的划分聚类 |
K-means聚类算法 |
步骤1:初始化中心点 |
Cⱼ |
)∑{i∈Cⱼ}xᵢ |
误差:SSE误差平方和 |
向量量化、Lloyd算法、期望最大化(EM)算法的特例 |
1. 用户分群 |
变量:X∈ℝ^{n×d}数据点,μⱼ∈ℝ^{d}聚类中心,cᵢ∈{1,...,k}簇标签 |
集合、逻辑、概率统计、随机性、连续性、微分、积分、收敛性、测度、离散、排序、组合、构造、优化、计算、稳定性、对称性、代数、几何、群 |
可处理文本统计特征(如TF-IDF) |
时序流程: |
|
E-L1-0006 |
降维算法 |
线性投影最大化方差 |
主成分分析 (PCA) |
步骤1:数据中心化 |
精度:重建误差‖X-X̃V_kV_kᵀ‖_F² |
谱定理、瑞利商、方差最大化、正交变换 |
1. 用户特征降维 |
变量:X∈ℝ^{n×d}原始数据,X̃∈ℝ^{n×d}中心化数据,C∈ℝ^{d×d}协方差矩阵,V∈ℝ^{d×d}特征向量矩阵,Z∈ℝ^{n×k}降维数据 |
集合、逻辑、概率统计、随机性、连续性、微分、积分、级数、收敛性、测度、离散、排序、组合、构造、优化、计算、稳定性、对称性、代数、几何 |
文本特征降维(如TF-IDF矩阵) |
时序流程: |
服务器配置: |
1. 随机PCA:使用随机算法近似计算前k个特征向量,复杂度O(ndk) |
表格说明:
-
10亿级并发下的服务器性能与规模需求字段基于最新研究成果和工业实践,提供了处理百亿级别用户交互信息时所需的硬件配置、集群规模和性能指标。
-
配套优化算法列表字段列出了针对每个基础算法的优化版本、分布式实现和加速技术,这些算法能够显著提升大规模社交平台监控分析的效率和可扩展性。
-
所有信息均基于可查证的公开资料和技术文献,确保技术细节的准确性和实用性。
互联网社交平台审计分析领域算法及模型表(E-L1-0007~0022,含10亿级并发架构)
|
编号 |
类别 |
模型配方 |
算法/模型/方法名称 |
算法/模型/方法的逐步思考推理过程及每一个步骤的数学方程式和参数选择/参数优化 |
精度/密度/误差/强度 |
底层规律/理论定理 |
典型应用场景【10个场景】和各类特征 |
变量/常量/参数列表及说明 |
数学特征 |
语言特征 |
时序和交互流程的所有细节/分步骤时序情况及数学方程式 |
10亿级并发下的服务器性能与规模需求 |
配套优化算法列表 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
E-L1-0007 |
集成学习 |
决策树集成方法 |
随机森林 (Random Forest) |
步骤1:自助采样 |
D_L |
/ |
D |
·Gini(D_L)- |
D_R |
/ |
D |
·Gini(D_R) |
精度:在多个UCI数据集上平均准确率优于单棵决策树5-15% |
|
E-L1-0008 |
深度学习 |
循环神经网络变体 |
长短期记忆网络 (LSTM) |
步骤1:遗忘门 |
精度:在文本分类、序列标注等任务上达到SOTA(例如,在IMDB情感分析上准确率>88%) |
门控机制、梯度流控制、序列建模、通过细胞状态实现长期记忆 |
1. 用户行为序列预测:预测用户下一步操作(点击、发布) |
变量: |
集合特征:时间步集合{t} |
自然语言序列建模 |
时序流程: |
服务器配置: |
1. GRU (Gated Recurrent Unit):简化门控结构,减少参数 |
|
E-L1-0009 |
预训练语言模型 |
Transformer编码器堆叠 |
BERT (Bidirectional Encoder Representations from Transformers) |
步骤1:输入表示 |
精度:在GLUE基准测试中平均得分80.5+(BERT-large),在多项NLP任务上达到SOTA |
自注意力机制、深度双向语言模型、Transformer架构、迁移学习 |
1. 文本分类:帖子/评论的情感、主题、意图分类 |
变量: |
集合特征:词元集合、注意力头集合 |
核心为自然语言处理 |
时序流程(前向传播): |
x{masked}) |
服务器配置: |
|
E-L1-0010 |
集成学习/梯度提升 |
加法模型与决策树集成 |
XGBoost (eXtreme Gradient Boosting) |
步骤1:模型定义 |
q(x_i)=j},q为树结构 |
精度:在众多表格数据竞赛(如Kaggle)中表现卓越,常获冠军 |
梯度提升框架、函数空间优化、加法模型、泰勒展开近似、决策树集成、正则化 |
1. 用户流失预测:预测用户是否将流失 |
变量: |
集合特征:样本子集(子采样)、特征子集(列采样) |
可处理文本的统计特征(如TF-IDF) |
时序流程(训练): |
服务器配置: |
|
E-L1-0011 |
词嵌入 |
浅层神经网络语言模型 |
Word2Vec (Skip-gram with Negative Sampling, SGNS) |
步骤1:目标函数 |
w_c) |
w_c)=exp(v{w_o}·v{w_c})/∑{w∈V}exp(v_w·v{w_c}) |
精度:在词语类比(如“国王-男人+女人≈女王”)任务上准确率高 |
分布假说、神经网络语言模型、负采样技术、词汇的分布式表示 |
1. 文本向量化:将用户帖子、评论转化为数值向量 |
变量: |
集合特征:词汇表集合V、上下文窗口内的词集合 |
核心为词汇的分布式表示 |
|
编号 |
类别 |
模型配方 |
算法/模型/方法名称 |
算法/模型/方法的逐步思考推理过程及每一个步骤的数学方程式和参数选择/参数优化 |
精度/密度/误差/强度 |
底层规律/理论定理 |
典型应用场景【10个场景】和各类特征 |
变量/常量/参数列表及说明 |
数学特征 |
语言特征 |
时序和交互流程的所有细节/分步骤时序情况及数学方程式 |
10亿级并发下的服务器性能与规模需求 |
配套优化算法列表 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
E-L1-0011 |
词嵌入 |
浅层神经网络语言模型 |
Word2Vec (Skip-gram with Negative Sampling, SGNS) |
步骤1:目标函数 |
精度:在词语类比(如“国王-男人+女人≈女王”)任务上准确率高 |
分布假说、神经网络语言模型、负采样技术、词汇的分布式表示 |
1. 文本向量化:将用户帖子、评论转化为数值向量 |
变量: |
集合特征:词汇表集合V、上下文窗口内的词集合 |
核心为词汇的分布式表示 |
时序流程(训练): |
服务器配置: |
1. GloVe:基于全局词共现矩阵的分解方法 |
|
E-L1-0012 |
监督学习 |
最大间隔分类器 |
支持向量机 (SVM) |
步骤1:线性可分情况下的硬间隔SVM |
精度:在中小规模高维数据(如文本分类)上表现优异 |
统计学习理论、结构风险最小化、VC维理论、核方法、凸优化 |
1. 文本分类:新闻分类、垃圾邮件识别、情感分类 |
变量: |
集合特征:支持向量集合 |
广泛应用于文本分类(高维稀疏特征) |
时序流程: |
服务器配置: |
1. Linear SVM (LIBLINEAR):专为大规模线性SVM设计,高效处理高维数据 |
|
E-L1-0013 |
主题模型 |
概率生成模型 |
隐狄利克雷分布 (LDA) |
步骤1:生成过程 |
精度:困惑度(Perplexity)衡量模型对新文档的预测能力 |
贝叶斯推断、狄利克雷-多项式共轭、混合模型、概率图模型 |
1. 文档主题挖掘:从海量帖子/新闻中自动发现隐含主题 |
变量: |
集合特征:文档集、词表、主题集 |
核心为文本主题建模 |
时序流程(Collapsed Gibbs Sampling): |
服务器配置: |
1. Online LDA:在线变分贝叶斯,支持流式数据 |
|
E-L1-0014 |
时间序列预测 |
可加性模型与分解 |
Prophet (Facebook Prophet) |
步骤1:模型分解 |
精度:在多种时间序列预测竞赛中表现稳健,尤其适合具有强季节性的商业数据 |
可加性时间序列模型、结构时间序列、傅里叶级数、贝叶斯统计 |
1. DAU/MAU预测:预测每日/每月活跃用户数趋势 |
变量: |
集合特征:时间点集合、变化点集合、节假日集合 |
主要用于数值时间序列预测 |
时序流程: |
服务器配置: |
1. NeuralProphet:结合神经网络,可建模更复杂的非线性关系 |
|
E-L1-0015 |
异常检测 |
基于隔离的集成方法 |
孤立森林 (Isolation Forest) |
步骤1:隔离概念 |
精度:在多个异常检测基准数据集上表现优异,尤其在高维数据上 |
异常点的“易隔离性”、随机划分、集成学习、平均路径长度作为异常度量 |
1. 金融欺诈检测:识别信用卡盗刷、洗钱交易 |
变量: |
集合特征:子采样集、特征子集 |
主要用于数值特征 |
时序流程: |
服务器配置: |
1. Extended Isolation Forest:解决原算法对轴平行的偏见,产生任意方向的划分 |
|
E-L1-0016 |
推荐系统 |
深度因子分解机 |
DeepFM |
步骤1:模型架构 |
精度:在Criteo、Avazu等广告点击率预测数据集上优于FM、Wide&Deep等模型 |
因子分解机、深度神经网络、特征交互、共享表示学习、记忆与泛化结合 |
1. 广告点击率预估:精准预估用户点击广告的概率 |
变量: |
集合特征:特征域集合、隐因子集合 |
处理大量的类别型ID特征 |
时序流程: |
服务器配置: |
1. xDeepFM:引入压缩交互网络(CIN),显式地学习有界阶特征交互 |
|
E-L1-0017 |
多模态学习 |
对比语言-图像预训练 |
CLIP (Contrastive Language-Image Pretraining) |
步骤1:双编码器架构 |
精度:在多个图像分类、检索数据集上实现强大的零样本性能,无需下游数据训练 |
对比学习、多模态表示学习、自监督学习、双编码器架构、从自然语言监督中学习 |
1. 零样本图像分类:无需训练,直接对新类别图像分类 |
变量: |
集合特征:图像集、文本集、(图像,文本)对集合 |
核心是多模态(视觉+语言)理解 |
时序流程(预训练): |
服务器配置: |
1. ALIGN:使用更大量的噪声网络数据训练 |
|
E-L1-0018 |
相似性搜索 |
近似最近邻搜索 |
可导航小世界图 (HNSW) |
步骤1:层次化小世界图构造 |
精度:召回率(Recall@k),在高维数据上可达到>0.9的召回率,远超朴素方法 |
小世界网络理论、近似最近邻搜索、图遍历、多层图结构、启发式搜索 |
1. **向量数据库检索 |
|
编号 |
类别 |
模型配方 |
算法/模型/方法名称 |
算法/模型/方法的逐步思考推理过程及每一个步骤的数学方程式和参数选择/参数优化 |
精度/密度/误差/强度 |
底层规律/理论定理 |
典型应用场景【10个场景】和各类特征 |
变量/常量/参数列表及说明 |
数学特征 |
语言特征 |
时序和交互流程的所有细节/分步骤时序情况及数学方程式 |
10亿级并发下的服务器性能与规模需求 |
配套优化算法列表 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
E-L1-0018 |
相似性搜索 |
近似最近邻搜索 |
可导航小世界图 (HNSW) |
步骤1:层次化小世界图构造 |
精度:召回率(Recall@k),在高维数据上可达到>0.9的召回率,远超朴素方法 |
小世界网络理论、近似最近邻搜索、图遍历、多层图结构、启发式搜索 |
1. 向量数据库检索:快速检索用户、内容、商品等的嵌入向量 |
变量: |
集合特征:节点集V,边集E,层次{l} |
主要用于数值向量检索 |
时序流程(构建): |
服务器配置: |
1. FAISS HNSW:Meta开源,CPU/GPU优化实现 |
|
E-L1-0019 |
强化学习 |
基于策略梯度的演员-评论家算法 |
近端策略优化 (PPO) |
步骤1:优势函数估计 |
精度:在多种连续控制任务(如MuJoCo)和游戏(如Dota2, OpenAI Five)中达到SOTA或先进水平 |
策略梯度定理、演员-评论家架构、信任区域优化、重要性采样、优势函数 |
1. 游戏AI:训练智能体玩视频游戏、棋牌 |
变量: |
集合特征:状态空间S,动作空间A |
可处理文本状态(需编码)和离散文本动作(如对话生成) |
时序流程: |
服务器配置: |
1. TRPO (Trust Region Policy Optimization):PPO的前身,通过约束KL散度确保稳定性 |
|
E-L1-0020 |
自监督学习 |
对比学习,视觉表示 |
SimCLR (A Simple Framework for Contrastive Learning of Visual Representations) |
步骤1:数据增强 |
精度:在ImageNet线性评估(冻结特征训练线性分类器)上,SimCLR v2 (ResNet-152) 达到79.8% top-1,接近有监督 |
对比学习、不变性原理、InfoNCE损失、数据增强不变性、表示学习 |
1. 图像分类:预训练编码器,用于下游图像分类任务 |
变量: |
集合特征:批次样本集,正负样本对集合 |
核心是视觉表示学习 |
时序流程: |
服务器配置: |
1. MoCo (Momentum Contrast):引入动量编码器和队列,解耦批次大小与负样本数量 |
|
E-L1-0021 |
图表示学习 |
归纳式表示学习 |
GraphSAGE (SAmple and aggreGatE) |
步骤1:邻居采样 |
精度:在多个引文网络和Reddit帖子上,归纳式节点分类F1分数优于直推式方法和其他归纳式baseline |
消息传递神经网络、邻居采样、归纳学习、表示学习、随机游走 |
1. 新用户/内容表征:为新加入的用户或内容生成嵌入,无需重训全图 |
变量: |
集合特征:邻居集合N(v),采样节点集 |
可结合节点文本特征作为输入 |
时序流程(小批量训练): |
服务器配置: |
1. FastGCN:通过重要性采样层采样,而非节点采样 |
|
E-L1-0022 |
时间序列预测 |
自回归深度学习模型 |
DeepAR (Probabilistic Forecasting with Autoregressive Recurrent Networks) |
步骤1:模型定义 |
精度:在多个电商、能源、交通数据集上,在CRPS等概率评估指标上优于传统统计方法(如ETS)和点预测深度学习模型 |
自回归模型、状态空间模型、深度循环神经网络、概率预测、条件分布建模 |
1. 需求预测:零售商品销量、电商订单量预测 |
变量: |
集合特征:时间序列集合{i},时间点集合{t} |
主要用于数值序列预测 |
时序流程(训练): |
服务器配置: |
1. DeepVAR:多元时间序列的向量自回归深度模型 |
说明:这些模型覆盖了主题模型(LDA)、时间序列预测(Prophet, DeepAR)、异常检测(Isolation Forest)、推荐系统(DeepFM)、多模态学习(CLIP)、相似性搜索(HNSW)、强化学习(PPO)、自监督学习(SimCLR)和图表示学习(GraphSAGE) 等关键类别,均是互联网社交平台分析领域的核心算法。
互联网社交平台内容分析E-L1-0023~90
|
编号 |
类别 |
模型配方 |
算法/模型/方法名称 |
算法/模型/方法的逐步思考推理过程及每一个步骤的数学方程式和参数选择/参数优化 |
精度/密度/误差/强度 |
底层规律/理论定理 |
典型应用场景【10个场景】和各类特征 |
变量/常量/参数列表及说明 |
数学特征 |
语言特征 |
时序和交互流程的所有细节/分步骤时序情况及数学方程式 |
10亿级并发下的服务器性能与规模需求 |
配套优化算法列表 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
E-L1-0023 |
自然语言处理 |
基于Transformer的双向编码器表示 |
BERT (Bidirectional Encoder Representations from Transformers) |
步骤1:输入表示 |
精度:在GLUE基准上达到SOTA(当时),多项NLP任务上显著提升 |
Transformer架构、自注意力机制、双向上下文建模、迁移学习、掩码语言模型 |
1. 文本分类:情感分析、新闻分类、意图识别 |
变量: |
集合特征:词汇表集合,注意力头集合 |
核心是自然语言理解 |
时序流程(预训练): |
服务器配置: |
1. RoBERTa:移除NSP,动态掩码,更大批次,更长序列 |
|
E-L1-0024 |
序列建模 |
基于自注意力的编码器-解码器架构 |
Transformer |
步骤1:编码器 |
精度:在机器翻译等序列到序列任务上达到SOTA,训练速度显著快于RNN |
自注意力机制、编码器-解码器架构、位置编码、残差网络、层归一化 |
1. 机器翻译:序列到序列翻译 |
变量: |
集合特征:位置集合,注意力头集合 |
核心是序列到序列建模 |
时序流程(训练): |
服务器配置: |
1. Transformer-XL:引入循环机制,处理更长序列 |
|
E-L1-0025 |
计算机视觉 |
深度残差网络 |
ResNet (Residual Network) |
步骤1:残差块 |
精度:在ImageNet分类任务上,ResNet-152达到3.57% top-5错误率,首次超越人类水平(5.1%) |
残差学习、梯度反向传播、深度网络优化、恒等映射、批量归一化 |
1. 图像分类:物体识别、场景分类 |
变量: |
集合特征:网络层集合,特征图通道集合 |
主要用于视觉特征提取 |
时序流程(训练): |
服务器配置: |
1. ResNet Variants:ResNeXt(分组卷积)、ResNet-D(改进下采样)、ResNet with SE blocks(注意力) |
|
E-L1-0026 |
集成学习 |
梯度提升决策树 |
XGBoost (eXtreme Gradient Boosting) |
步骤1:模型定义 |
精度:在众多表格数据竞赛(如Kaggle)中表现优异,常作为首选模型之一 |
梯度提升、决策树、加法模型、泰勒展开、正则化 |
1. 点击率预测:广告点击、商品点击预测 |
变量: |
集合特征:树集合,叶子节点集合,样本索引集I_j |
可处理数值和类别特征(需编码) |
时序流程(训练): |
服务器配置: |
1. LightGBM:基于直方图的算法,支持类别特征,更快更低内存 |
|
E-L1-0027 |
集成学习 |
基于直方图的梯度提升框架 |
LightGBM (Light Gradient Boosting Machine) |
步骤1:直方图算法 |
|
编号 |
类别 |
模型配方 |
算法/模型/方法名称 |
算法/模型/方法的逐步思考推理过程及每一个步骤的数学方程式和参数选择/参数优化 |
精度/密度/误差/强度 |
底层规律/理论定理 |
典型应用场景【10个场景】和各类特征 |
变量/常量/参数列表及说明 |
数学特征 |
语言特征 |
时序和交互流程的所有细节/分步骤时序情况及数学方程式 |
10亿级并发下的服务器性能与规模需求 |
配套优化算法列表 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
E-L1-0028 |
深度异常检测 |
深度单类分类 |
Deep SVDD (Deep Support Vector Data Description) |
步骤1:目标函数 |
精度:在多个异常检测基准数据集上优于传统单类分类方法(如OC-SVM) |
单类分类、支持向量数据描述、深度表示学习、最小体积超球 |
1. 欺诈检测:识别异常金融交易 |
变量: |
集合特征:正常样本集,超球空间 |
可处理文本、图像、序列等多种模态数据,需先转化为向量 |
时序流程: |
服务器配置: |
1. Deep One-Class Classification:结合自编码器重构误差和SVDD距离的变体 |
|
E-L1-0029 |
自监督学习 |
视觉对比学习框架 |
SimCLR (A Simple Framework for Contrastive Learning) |
步骤1:数据增强 |
精度:在ImageNet线性评估上,SimCLR v2 (ResNet-152) 达到79.8% top-1,接近有监督监督学习性能 |
对比学习、不变性原理、InfoNCE损失、数据增强不变性、表示学习 |
1. 图像分类:预训练编码器,用于下游图像分类任务 |
变量: |
集合特征:批次样本集,正负样本对集合 |
核心是视觉表示学习 |
时序流程: |
服务器配置: |
1. MoCo (Momentum Contrast):引入动量编码器和队列,解耦批次大小与负样本数量 |
|
E-L1-0030 |
多模态学习 |
对比语言-图像预训练 |
CLIP (Contrastive Language-Image Pre-training) |
步骤1:双编码器架构 |
精度:在多个图像分类、检索数据集上实现强大的零样本性能,无需下游数据训练 |
对比学习、多模态表示学习、自监督学习、双编码器架构、从自然语言监督中学习 |
1. 零样本图像分类:无需训练,直接对新类别图像分类 |
变量: |
集合特征:图像集、文本集、(图像,文本)对集合 |
核心是多模态(视觉+语言)理解 |
时序流程(预训练): |
服务器配置: |
1. ALIGN:使用更大量的噪声网络数据训练 |
|
E-L1-0031 |
可解释性AI |
局部可解释模型-无关解释 |
LIME (Local Interpretable Model-agnostic Explanations) |
步骤1:样本扰动 |
精度:通过局部拟合的忠实度(fidelity)衡量,即g在局部近似f的好坏 |
局部近似、可解释性、扰动分析、加权限回归、模型诊断 |
1. 信用评分解释:解释为何拒绝某人的贷款申请 |
变量: |
集合特征:扰动样本集,特征集 |
可直接处理文本,通过扰动词袋表示 |
时序流程: |
服务器配置: |
1. SHAP (SHapley Additive exPlanations):基于博弈论Shapley值,提供一致的特征归因 |
|
E-L1-0032 |
强化学习 |
异步优势演员-评论家 |
A3C (Asynchronous Advantage Actor-Critic) |
步骤1:网络架构 |
精度:在多种Atari游戏和连续控制任务上达到或超越DQN、A2C等算法,样本效率高 |
策略梯度定理、优势函数、演员-评论家架构、异步并行优化、n步回报 |
1. 游戏AI:训练智能体玩Atari游戏、棋牌游戏 |
变量: |
集合特征:状态空间,动作空间,线程集合 |
可处理文本状态(需编码)和离散文本动作(如对话生成) |
时序流程(单个线程): |
服务器配置: |
1. A2C (Synchronous Advantage Actor-Critic):同步版本,等待所有workers完成后再更新,更稳定 |
|
E-L1-0033 |
图神经网络 |
基于注意力机制的图神经网络 |
图注意力网络 (GAT) |
步骤1:注意力系数计算 |
精度:在Cora、Citeseer、Pubmed等引文网络节点分类任务上达到SOTA(当时) |
注意力机制、图神经网络、消息传递、邻居聚合、多头注意力 |
1. 社交网络节点分类:用户兴趣、社区分类 |
变量: |
集合特征:节点集合V,邻居集合N(i),注意力头集合 |
可处理带有文本特征的节点(如词嵌入) |
时序流程(单层,多头拼接): |
服务器配置: |
1. GATv2:修正注意力计算顺序,使其更具表达力 |
|
E-L1-0034 |
时间序列预测 |
基于Transformer的长序列预测模型 |
Informer |
步骤1:ProbSparse自注意力 |
精度:在多个长序列时间序列预测基准(如ETT、Electricity)上,在准确性和效率上优于传统Transformer、LSTM等模型 |
Transformer架构、ProbSparse注意力、自注意力蒸馏、生成式解码、长序列依赖建模 |
1. 电力负荷预测:长期电力消耗预测 |
变量: |
集合特征:时间点集合,注意力头集合,编码器层集合 |
主要用于数值时间序列预测 |
时序流程(训练): |
服务器配置: |
1. Autoformer:引入自相关机制,更好地捕捉季节性 |
|
E-L1-0035 |
深度聚类 |
深度嵌入聚类 |
DEC (Deep Embedded Clustering) |
步骤1:自动编码器预训练 |
|
编号 |
类别 |
模型配方 |
算法/模型/方法名称 |
算法/模型/方法的逐步思考推理过程及每一个步骤的数学方程式和参数选择/参数优化 |
精度/密度/误差/强度 |
底层规律/理论定理 |
典型应用场景【10个场景】和各类特征 |
变量/常量/参数列表及说明 |
数学特征 |
语言特征 |
时序和交互流程的所有细节/分步骤时序情况及数学方程式 |
10亿级并发下的服务器性能与规模需求 |
配套优化算法列表 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
E-L1-0036 |
自监督学习 |
掩码自编码器 |
MAE (Masked Autoencoder) |
步骤1:随机掩码 |
M |
)∑_{i∈M} ‖p_i - t_i‖²,其中M是掩码块集合,p_i是预测像素向量,t_i是真实像素向量。 |
精度:在ImageNet-1K上,ViT-Huge微调达到87.8% top-1,优于有监督预训练 |
自编码器、掩码语言模型思想、ViT架构、非对称编码-解码、重建任务 |
1. 图像分类:预训练编码器用于下游分类 |
变量: |
集合特征:可见patch集合,掩码patch集合 |
核心是视觉表示学习 |
时序流程: |
|
E-L1-0037 |
目标检测 |
基于Transformer的端到端检测 |
DETR (DEtection TRansformer) |
步骤1:图像特征提取 |
精度:在COCO数据集上,DETR与Faster R-CNN基准相当,但在大物体检测上更优。训练时间较长。 |
Transformer架构、二分图匹配、集合预测、端到端学习、注意力机制 |
1. 通用目标检测:图像中物体的定位与分类 |
变量: |
集合特征:真实目标集合,预测集合,查询集合 |
不直接处理文本,但可扩展用于图像描述(检测+描述) |
时序流程: |
服务器配置: |
1. Deformable DETR:引入可变形注意力,降低计算复杂度,加速收敛 |
|
E-L1-0038 |
文本生成 |
自回归语言模型 |
GPT-2 (Generative Pre-trained Transformer 2) |
步骤1:模型架构 |
x_{<i}; θ),使用交叉熵损失。 |
精度:在多种语言建模和生成任务上表现优异,展示了强大的零样本学习能力 |
Transformer解码器、自回归语言模型、下一个词预测、大规模预训练、零样本学习 |
1. 文本生成:故事、新闻、诗歌创作 |
变量: |
集合特征:词汇表集合,位置集合,注意力头集合 |
核心是自然语言生成 |
时序流程(训练): |
x{≤t}) = softmax(logits_t)。 |
|
E-L1-0039 |
图像分割 |
全卷积网络 |
FCN (Fully Convolutional Network) |
步骤1:全卷积化 |
精度:在PASCAL VOC语义分割数据集上,FCN-8s达到62.2% mean IoU(当时SOTA) |
全卷积网络、上采样、跳跃连接、编码器-解码器结构、语义分割 |
1. 语义分割:为图像每个像素分配语义类别 |
变量: |
集合特征:像素位置集合,类别集合,特征图层集合 |
不直接处理文本,但分割结果可用于图像描述(区域特征) |
时序流程(FCN-8s为例): |
服务器配置: |
1. U-Net:对称编码器-解码器,跳跃连接更密集,用于医学图像 |
|
E-L1-0040 |
深度聚类 |
深度嵌入聚类 |
DEC (Deep Embedded Clustering) |
步骤1:自动编码器预训练 |
精度:在多个图像和文本数据集上,聚类精度(如ACC,NMI)优于k-means和传统谱聚类 |
深度表示学习、软分配、学生t分布、目标分布锐化、KL散度最小化 |
1. 图像聚类:无监督图像分类、图像检索 |
变量: |
集合特征:样本集,簇中心集合 |
可处理文本数据,通过自动编码器学习文本表示(如句向量) |
时序流程: |
服务器配置: |
1. IDEC (Improved DEC):在聚类损失中加入重构损失,防止嵌入空间扭曲 |
|
E-L1-0041 |
时间序列分类 |
深度时间卷积网络 |
TCN (Temporal Convolutional Network) |
步骤1:因果卷积 |
精度:在多个时间序列分类基准上达到或超越RNN(如LSTM)和传统方法,且训练更快 |
因果卷积、膨胀卷积、残差网络、序列建模、感受野理论 |
1. 动作识别:基于传感器(如加速度计)数据识别人体动作 |
变量: |
集合特征:时间点集合,残差块集合,通道集合 |
可处理字符级或词级文本序列,用于分类 |
时序流程(一个残差块): |
服务器配置: |
1. WaveNet:用于音频生成的深度TCN,门控激活,因果卷积 |
|
E-L1-0042 |
生成模型 |
去噪扩散概率模型 |
DDPM (Denoising Diffusion Probabilistic Models) |
步骤1:前向过程(加噪) |
精度:在图像生成质量(如FID, IS)上达到当时SOTA,生成多样性和真实性高 |
扩散过程、变分推断、马尔可夫链、得分匹配、朗之万动力学 |
1. 图像生成:无条件生成高分辨率真实图像 |
变量: |
集合特征:时间步集合{1,...,T},数据点集合 |
不直接处理语言,但可结合文本编码进行文生图 |
时序流程(训练): |
服务器配置: |
1. Improved DDPM:学习方差,使用余弦噪声调度,提升效果 |
|
E-L1-0043 |
特征选择 |
基于稀疏学习的特征选择 |
LASSO (Least Absolute Shrinkage and Selection Operator) |
步骤1:目标函数 |
β_j |
|
精度:在特征选择和高维预测中,LASSO可提高预测准确性(通过降低方差)和可解释性 |
凸优化、L1正则化、稀疏性、坐标下降、软阈值 |
1. 高维回归:基因表达数据预测表型,p>>n |
变量: |
集合特征:特征集合,非零系数索引集合 |
|
编号 |
类别 |
模型配方 |
算法/模型/方法名称 |
算法/模型/方法的逐步思考推理过程及每一个步骤的数学方程式和参数选择/参数优化 |
精度/密度/误差/强度 |
底层规律/理论定理 |
典型应用场景【10个场景】和各类特征 |
变量/常量/参数列表及说明 |
数学特征 |
语言特征 |
时序和交互流程的所有细节/分步骤时序情况及数学方程式 |
10亿级并发下的服务器性能与规模需求 |
配套优化算法列表 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
E-L1-0053 |
深度学习 |
多层感知机 |
全连接前馈神经网络 (Feedforward Neural Network) |
步骤1:前向传播 |
精度:在复杂非线性问题上可达到高精度,但可能过拟合。 |
万能近似定理、链式法则、梯度下降、反向传播算法 |
1. 函数逼近:拟合任意复杂度的输入输出映射 |
变量: |
集合特征:神经元集合,层集合 |
本身不直接处理序列语言,但可作为文本分类器(输入为词向量) |
时序流程(一个训练批次): |
服务器配置: |
1. 反向传播算法:计算梯度的核心算法 |
|
E-L1-0054 |
深度学习 |
卷积神经网络 |
卷积神经网络 (Convolutional Neural Network, CNN) |
步骤1:卷积层 |
精度:在图像分类、目标检测等任务上达到人类水平或超越。 |
卷积定理、稀疏交互、参数共享、平移等变性、层次特征提取 |
1. 图像分类:ImageNet竞赛、人脸识别 |
变量: |
集合特征:特征图集合,卷积核集合 |
可用于文本分类(1D卷积处理词序列) |
时序流程(一个训练批次): |
服务器配置: |
1. 反向传播:通用训练算法 |
|
E-L1-0055 |
深度学习 |
循环神经网络 |
循环神经网络 (Recurrent Neural Network, RNN) |
步骤1:循环单元计算 |
精度:在序列建模任务上有效,但标准RNN对长期依赖建模困难,LSTM/GRU更好。 |
序列建模、动态系统、参数共享、梯度消失/爆炸、BPTT算法 |
1. 语言建模:预测下一个词 |
变量: |
集合特征:时间步序列,隐藏状态序列 |
核心序列模型,直接处理词序列,用于语言建模、机器翻译等 |
时序流程(一个训练样本序列): |
服务器配置: |
1. 随时间反向传播:RNN训练算法 |
|
E-L1-0056 |
深度学习 |
自注意力机制 |
Transformer |
步骤1:输入嵌入与位置编码 |
精度:在机器翻译等序列任务上达到SOTA,大幅超越RNN。 |
自注意力、缩放点积注意力、残差网络、层归一化、位置编码 |
1. 机器翻译:如Google Translate |
变量: |
集合特征:序列位置集合,注意力头集合,层集合 |
核心自然语言处理模型,直接处理词序列,通过自注意力捕获上下文依赖 |
时序流程(编码器层,训练阶段): |
服务器配置: |
1. 缩放点积注意力:核心注意力机制 |
|
E-L1-0057 |
深度学习 |
生成对抗网络 |
生成对抗网络 (Generative Adversarial Network, GAN) |
步骤1:定义生成器和判别器 |
精度:生成数据与真实数据分布接近程度,可用IS(Inception Score)、FID(Fréchet Inception Distance)等评估。 |
博弈论、纳什均衡、 Jensen-Shannon散度、Wasserstein距离、概率分布匹配 |
1. 图像生成:生成逼真人脸、风景、艺术品 |
涵盖机器学习、深度学习、强化学习、生成模型等多个领域:
|
编号 |
类别 |
模型配方 |
算法/模型/方法名称 |
算法/模型/方法的逐步思考推理过程及每一个步骤的数学方程式和参数选择/参数优化 |
精度/密度/误差/强度 |
底层规律/理论定理 |
典型应用场景【10个场景】和各类特征 |
变量/常量/参数列表及说明 |
数学特征 |
语言特征 |
时序和交互流程的所有细节/分步骤时序情况及数学方程式 |
10亿级并发下的服务器性能与规模需求 |
配套优化算法列表 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
E-L1-0058 |
分类与回归 |
最大间隔分类器 |
支持向量机 (Support Vector Machine, SVM) |
步骤1:问题定义 |
精度:在小样本、高维数据上表现优异,泛化能力强。 |
统计学习理论、VC维、结构风险最小化、核方法、凸优化 |
1. 文本分类:垃圾邮件检测、情感分析 |
变量: |
集合特征:支持向量集合 |
可用于文本分类,将文档表示为向量(如TF-IDF),使用线性或非线性核 |
时序流程: |
服务器配置: |
1. 序列最小优化:高效求解SVM对偶问题 |
|
E-L1-0059 |
集成学习 |
装袋法+决策树 |
随机森林 (Random Forest) |
步骤1:自助采样 |
精度:通常比单棵决策树精度高,抗过拟合,对噪声和异常值鲁棒。 |
大数定律、自助法、决策树、不纯度度量(基尼指数、信息增益) |
1. 分类问题:客户流失预测、疾病诊断、图像分类 |
变量: |
集合特征:树集合,自助样本集集合 |
可用于文本分类,将文档表示为词向量,随机森林可处理高维稀疏特征 |
时序流程: |
服务器配置: |
1. 决策树算法:CART、ID3、C4.5 |
|
E-L1-0060 |
集成学习 |
梯度提升决策树 |
梯度提升机 (Gradient Boosting Machine, GBM) |
步骤1:初始化 |
精度:通常比随机森林精度更高,但更容易过拟合。 |
梯度下降、加法模型、决策树、函数空间优化 |
1. 回归预测:房价预测、需求预测、金融时间序列 |
变量: |
集合特征:树序列,样本子集(子采样) |
可处理文本特征,用于文本分类或回归 |
时序流程: |
服务器配置: |
1. 梯度提升树:基本算法 |
|
E-L1-0061 |
序列模型 |
隐马尔可夫模型 |
隐马尔可夫模型 (Hidden Markov Model, HMM) |
步骤1:模型定义 |
精度:在序列标注、语音识别等任务上有效,但假设观测独立给定状态,可能过于简化。 |
马尔可夫过程、隐状态、动态规划、期望最大化算法 |
1. 语音识别:声学建模,将音频帧序列映射为音素状态序列 |
变量: |
集合特征:状态集合,观测集合,序列位置集合 |
用于词性标注、命名实体识别等序列标注任务 |
时序流程(维特比解码): |
服务器配置: |
1. 前向算法:计算观测序列概率 |
|
编号 |
类别 |
模型配方 |
算法/模型/方法名称 |
算法/模型/方法的逐步思考推理过程及每一个步骤的数学方程式和参数选择/参数优化 |
精度/密度/误差/强度 |
底层规律/理论定理 |
典型应用场景【10个场景】和各类特征 |
变量/常量/参数列表及说明 |
数学特征 |
语言特征 |
时序和交互流程的所有细节/分步骤时序情况及数学方程式 |
10亿级并发下的服务器性能与规模需求 |
配套优化算法列表 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
E-L1-0062 |
深度学习 |
深度卷积生成对抗网络 |
DCGAN (Deep Convolutional GAN) |
步骤1:架构设计 |
精度:生成图像质量可通过人工评估或IS、FID等指标衡量。DCGAN能生成较清晰的图像。 |
生成对抗网络、卷积神经网络、反卷积、批归一化 |
1. 图像生成:生成人脸、室内场景、物体等 |
变量: |
集合特征:噪声向量空间,图像空间,特征图空间 |
不直接处理文本,但可结合文本编码进行文本到图像生成 |
时序流程: |
服务器配置: |
1. 原始GAN:基础框架 |
|
E-L1-0063 |
图神经网络 |
图卷积网络 |
GCN (Graph Convolutional Network) |
步骤1:图卷积操作 |
精度:在引文网络(Cora, Citeseer, Pubmed)节点分类任务上达到较高准确率。 |
谱图理论、卷积定理、拉普拉斯矩阵、消息传递 |
1. 社交网络分析:用户分类、社区检测 |
变量: |
集合特征:节点集合,边集合,邻居集合 |
可用于文本分类(构建文档-词图),节点表示可视为文档嵌入 |
时序流程: |
服务器配置: |
1. 谱图卷积:基于图傅里叶变换 |
|
E-L1-0064 |
强化学习 |
深度Q网络 |
DQN (Deep Q-Network) |
步骤1:Q学习 |
精度:在Atari游戏上达到人类水平,但需要大量训练样本。 |
贝尔曼方程、动态规划、时序差分学习、函数逼近、经验回放 |
1. 游戏AI:Atari游戏、棋类游戏 |
变量: |
集合特征:状态空间,动作空间,经验回放池 |
可用于文本游戏,状态为文本描述,动作为离散命令 |
时序流程: |
服务器配置: |
1. Double DQN:解耦动作选择和目标值计算,减少高估 |
|
E-L1-0065 |
时间序列 |
自回归移动平均模型 |
ARIMA (Autoregressive Integrated Moving Average) |
步骤1:模型形式 |
精度:在平稳时间序列预测上表现良好,尤其适合短期预测。 |
自回归模型、移动平均模型、差分、平稳过程、Wold分解定理 |
1. 经济预测:GDP、通货膨胀、失业率 |
变量: |
集合特征:时间点集合,滞后集合 |
可用于文本生成(字符级),但通常不用于自然语言,更适合数值序列 |
时序流程: |
服务器配置: |
1. 自回归模型:AR(p) |
|
E-L1-0066 |
聚类 |
基于密度的聚类 |
DBSCAN (Density-Based Spatial Clustering of Applications with Noise) |
步骤1:定义 |
精度:可发现任意形状的簇,对噪声鲁棒,但依赖参数,对密度变化大的数据效果差。 |
密度可达性、密度相连性、基于密度的聚类理论 |
1. 空间数据挖掘:地理信息聚类(如房屋、商店聚集区) |
变量: |
集合特征:点集,核心点集,边界点集,噪声点集,簇集合 |
可用于文本聚类(文档向量化后),但高维稀疏文本向量可能密度定义困难 |
时序流程: |
服务器配置: |
1. OPTICS:生成簇排序,可视化密度结构,减少参数依赖 |
|
E-L1-0067 |
降维 |
随机投影 |
随机投影 (Random Projection) |
步骤1:理论基础 |
精度:距离保持的精度由ε控制,k越大精度越高。通常用于近似计算,而非精确表示。 |
Johnson-Lindenstrauss引理、度量嵌入、随机矩阵理论、集中不等式 |
1. 文本挖掘:将高维词袋向量降维,用于聚类、分类 |
变量: |
集合特征:点集,随机向量集 |
适用于文本向量降维,保持文档间相似性 |
时序流程: |
服务器配置: |
1. 高斯随机投影:元素来自高斯分布 |
|
E-L1-0068 |
分类 |
朴素贝叶斯 |
朴素贝叶斯 (Naive Bayes) |
步骤1:贝叶斯定理 |
精度:在小数据集、高维数据(如文本)上表现良好,计算高效,但条件独立假设通常不成立,精度可能受限。 |
贝叶斯定理、条件独立假设、最大似然估计、生成模型 |
1. 文本分类:垃圾邮件过滤、情感分析、新闻分类 |
变量: |
集合特征:特征集合,类别集合 |
经典文本分类算法,特别适合词袋表示,特征条件独立假设在文本中近似成立 |
时序流程(多项式朴素贝叶斯): |
服务器配置: |
1. 高斯朴素贝叶斯:连续特征假设高斯分布 |
|
E-L1-0069 |
聚类 |
谱聚类 |
谱聚类 (Spectral Clustering) |
步骤1:构建相似度矩阵 |
精度:可发现非凸形状的簇,对噪声相对鲁棒,但计算复杂度高,对参数敏感。 |
图割理论、拉普拉斯矩阵、谱图理论、瑞利商 |
1. 图像分割:将像素聚类成区域 |
变量: |
集合特征:点集,特征向量集合,簇集合 |
可用于文本聚类,构建文档相似度图(基于词向量相似度),谱聚类发现主题 |
时序流程: |
服务器配置: |
1. 归一化割:谱聚类的目标函数 |
|
E-L1-0070 |
回归 |
岭回归 |
岭回归 (Ridge Regression) |
步骤1:目标函数 |
精度:在存在共线性的情况下,岭回归的均方误差通常低于普通最小二乘。 |
正则化、偏差-方差权衡、岭回归估计量的性质(有偏但方差小) |
1. 经济预测:存在多重共线性的经济指标预测 |
变量: |
集合特征:样本集,特征集 |
|
编号 |
类别 |
模型配方 |
算法/模型/方法名称 |
算法/模型/方法的逐步思考推理过程及每一个步骤的数学方程式和参数选择/参数优化 |
精度/密度/误差/强度 |
底层规律/理论定理 |
典型应用场景【10个场景】和各类特征 |
变量/常量/参数列表及说明 |
数学特征 |
语言特征 |
时序和交互流程的所有细节/分步骤时序情况及数学方程式 |
10亿级并发下的服务器性能与规模需求 |
配套优化算法列表 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
E-L1-0071 |
多模态理解 |
视觉-语言-动作联合推理 |
ViLa (Vision-Language-Action) 模型 |
步骤1:多模态编码 |
精度:在模拟环境和真实机器人任务中,成功率比单模态方法提高15-25% |
多模态融合、分层强化学习、因果推断、跨模态注意力、课程学习 |
1. 家庭机器人:理解自然语言指令完成家务("把桌上的杯子放进厨房水槽") |
变量: |
集合特征:视觉patches集合,词语集合,动作集合,工具集合 |
核心是理解自然语言指令并执行,语言是高级控制接口 |
时序流程: |
服务器配置: |
1. RT-1/RT-2:机器人 Transformer,大规模视觉-语言-动作模型 |
|
E-L1-0072 |
社会计算 |
权力与影响力动态建模 |
权力动态图神经网络 (Power Dynamic GNN) |
步骤1:多关系图构建 |
精度:在组织权力预测任务中,F1分数0.75-0.85;在资源控制预测中,准确率0.8-0.9 |
社会网络分析、图神经网络、博弈论、权力理论、动态系统 |
1. 组织管理:识别关键人物,预测权力转移,优化组织架构 |
变量: |
集合特征:节点集合,边集合,资源类型集合,时间点集合 |
可处理文本描述的关系(如新闻中人物关系),需NLP提取 |
时序流程: |
服务器配置: |
1. RGCN:关系图卷积网络,处理多关系图 |
|
E-L1-0073 |
决策科学 |
多智能体资源分配博弈 |
资源分配博弈求解器 (Resource Allocation Game Solver) |
步骤1:博弈模型定义 |
精度:均衡计算误差(供需不平衡度)<1%,配置效率>95% |
一般均衡理论、博弈论、市场设计、机制设计、福利经济学 |
1. 频谱拍卖:电信频谱资源分配,最大化社会总福利 |
变量: |
集合特征:智能体集合,资源类型集合,交易集合 |
可处理自然语言描述的资源需求和约束,需NLP解析 |
时序流程: |
服务器配置: |
1. 一般均衡求解算法:Scarf算法,单纯形法,梯度下降法 |
|
E-L1-0074 |
认知计算 |
道德与法律推理引擎 |
道德-法律-事实三重推理模型 (Moral-Legal-Factual Reasoning) |
步骤1:事实抽取与表示 |
精度:在模拟案件判决中,与人类法官一致率75-85%;法律条文检索准确率90%+ |
道德哲学、法律推理、贝叶斯网络、知识图谱、可解释AI |
1. 司法辅助:为法官提供判决建议,减轻工作负担 |
变量: |
集合特征:实体集合,关系集合,道德原则集合,法律条文集合 |
核心处理自然语言文本(案件描述、法律条文),生成自然语言解释 |
时序流程: |
服务器配置: |
1. BERT for Legal NLP:Legal-BERT, Lawformer等预训练模型 |
|
E-L1-0075 |
多模态分析 |
阴谋论与虚假信息检测 |
阴谋论检测多模态网络 (Conspiracy Detection Multimodal Network) |
步骤1:多模态特征提取 |
精度:在公开数据集上,F1分数0.8-0.9;误报率5-10% |
传播学、认知心理学、网络科学、多模态机器学习、数字取证 |
1. 社交媒体监控:检测平台上的阴谋论内容,防止虚假信息传播 |
变量: |
集合特征:文本词语集合,图像区域集合,视频帧集合,传播节点集合 |
核心处理自然语言文本,识别阴谋论叙事模式 |
时序流程: |
服务器配置: |
1. 多模态BERT:VisualBERT, LXMERT, VL-BERT |
|
编号 |
类别 |
模型配方 |
算法/模型/方法名称 |
算法/模型/方法的逐步思考推理过程及每一个步骤的数学方程式和参数选择/参数优化 |
精度/密度/误差/强度 |
底层规律/理论定理 |
典型应用场景【10个场景】和各类特征 |
变量/常量/参数列表及说明 |
数学特征 |
语言特征 |
时序和交互流程的所有细节/分步骤时序情况及数学方程式 |
10亿级并发下的服务器性能与规模需求 |
配套优化算法列表 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
E-L1-0076 |
NLP与知识图谱 |
利益相关者与权力关系抽取模型 |
Stakeholder-Power Relation Extractor |
步骤1:实体识别与分类 |
精度:实体识别F1 0.85-0.9,关系抽取F1 0.75-0.85,关系强度量化MAE 0.1-0.15 |
信息抽取、知识图谱、社会网络分析、图算法、自然语言处理 |
1. 企业治理:识别公司实际控制人,分析董事会权力结构 |
变量: |
集合特征:实体集合,关系集合,句子集合,文档集合 |
核心处理自然语言文本,抽取实体和关系 |
时序流程: |
服务器配置: |
1. BERT for NER:BERT-CRF, SpanBERT |
|
E-L1-0077 |
视频理解 |
工作活动识别与效率分析模型 |
Work Activity Recognition and Efficiency Analysis |
步骤1:多模态特征提取 |
精度:活动识别准确率85-95%(粗粒度),70-85%(细粒度);效率评估与人工评估相关性0.8-0.9 |
计算机视觉、音频处理、时间序列分析、人因工程、动作分析 |
1. 制造业:装配线工人动作分析,优化工艺流程 |
变量: |
集合特征:视频帧集合,音频片段集合,活动实例集合 |
可处理文本指令(工作指导),生成文本报告(效率分析、建议) |
时序流程: |
服务器配置: |
1. 3D CNN:I3D, SlowFast, R(2+1)D |
|
E-L1-0078 |
音频处理 |
语音情感与意图识别模型 |
Speech Emotion and Intent Recognition |
步骤1:声学特征提取 |
精度:情感识别准确率70-85%(仅音频),85-95%(音频+视频);意图识别准确率80-90% |
语音信号处理、深度学习、情感计算、语用学、多任务学习 |
1. 智能客服:识别客户情绪,调整服务策略;理解客户意图,准确转接 |
变量: |
集合特征:音频帧集合,特征向量集合,情感类别集合,意图类别集合 |
可处理语音转文本后的语义信息(但本模型主要基于声学) |
时序流程: |
服务器配置: |
1. 声学特征提取:MFCC, PLP, GeMAPS, eGeMAPS |
|
E-L1-0079 |
决策支持 |
多准则群体决策支持系统 |
Multi-Criteria Group Decision Support System |
步骤1:决策问题结构化 |
精度:决策结果与专家判断一致性80-90%;敏感性分析可识别关键准则 |
多准则决策、群体决策、模糊数学、决策理论、协商理论 |
1. 项目选择:企业投资决策,选择最优项目 |
变量: |
集合特征:方案集合,准则集合,决策者集合,评价矩阵 |
收集决策者偏好需要自然语言界面(如问卷、对话) |
时序流程: |
C_i - C_i^j |
,其中C_i^j是决策者j的个人排序。 |
|
E-L1-0080 |
控制理论 |
复杂系统自适应控制与故障诊断 |
Adaptive Control and Fault Diagnosis for Complex Systems |
步骤1:系统建模 |
|
编号 |
类别 |
模型配方 |
算法/模型/方法名称 |
算法/模型/方法的逐步思考推理过程及每一个步骤的数学方程式和参数选择/参数优化 |
精度/密度/误差/强度 |
底层规律/理论定理 |
典型应用场景【10个场景】和各类特征 |
变量/常量/参数列表及说明 |
数学特征 |
语言特征 |
时序和交互流程的所有细节/分步骤时序情况及数学方程式 |
10亿级并发下的服务器性能与规模需求 |
配套优化算法列表 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
E-L1-0080 |
控制理论 |
复杂系统自适应控制与故障诊断 |
自适应容错控制 (Adaptive Fault-Tolerant Control) |
步骤1:系统建模 |
精度:跟踪误差稳态值可达到期望的精度(如1%);故障检测延迟小于设定时间(如0.1s) |
Lyapunov稳定性理论、自适应控制、故障诊断、观测器设计、容错控制 |
1. 飞行器控制:在传感器或执行器故障时保持稳定飞行 |
变量: |
集合特征:状态空间,参数空间,故障模式集合 |
故障描述可能需要自然语言,生成故障报告需要自然语言生成 |
时序流程: |
服务器配置: |
1. 模型参考自适应控制:使系统输出跟踪参考模型输出 |
|
E-L1-0081 |
强化学习 |
多智能体深度强化学习 |
MADDPG (Multi-Agent Deep Deterministic Policy Gradient) |
步骤1:集中训练分散执行 |
精度:在多智能体协作任务中,性能优于独立DQN/DDPG,能够学习复杂协作策略 |
策略梯度方法、Actor-Critic框架、集中训练分散执行、多智能体强化学习 |
1. 多机器人协作:机器人编队、协同搬运、搜索救援 |
变量: |
集合特征:智能体集合,状态集合,动作集合 |
智能体间可进行自然语言通信,用于协调 |
时序流程: |
服务器配置: |
1. 独立DQN/DDPG:每个智能体独立学习,不考虑其他智能体 |
|
E-L1-0082 |
生成模型 |
扩散模型 |
去噪扩散概率模型 (Denoising Diffusion Probabilistic Models, DDPM) |
步骤1:前向过程(加噪) |
精度:生成图像质量高(FID、IS分数好),多样性好,但训练和采样慢 |
扩散过程、变分推断、马尔可夫链、得分匹配、朗之万动力学 |
1. 图像生成:无条件生成高分辨率真实图像 |
变量: |
集合特征:时间步集合{1,...,T},数据点集合 |
可结合文本编码进行文生图,文本作为条件 |
时序流程(训练): |
服务器配置: |
1. Improved DDPM:学习方差,使用余弦噪声调度,提升效果 |
|
E-L1-0083 |
因果推理 |
因果发现与效应估计 |
因果发现算法 (Causal Discovery Algorithms) |
步骤1:条件独立性测试 |
精度:图结构恢复的F1分数(与真实图比较)0.7-0.9;因果效应估计误差(与真实效应比较)<20% |
因果图理论、do-演算、结构因果模型、条件独立性、干预理论 |
1. 医疗研究:发现疾病风险因素,估计药物疗效 |
变量: |
集合特征:变量集合,条件集集合,边集合 |
变量名称通常是文本,因果解释需要自然语言生成 |
时序流程(PC算法): |
服务器配置: |
1. PC算法:基于约束的因果发现 |
|
E-L1-0084 |
多模态 |
视频-文本-音频联合理解模型 |
Video-Text-Audio Joint Understanding Model |
步骤1:多模态特征提取 |
精度:视频分类准确率85-95%,视频检索Recall@1 40-60%,视频描述生成BLEU-4 30-40 |
多模态学习、对比学习、自监督学习、注意力机制、Transformer |
1. 视频检索:用文本搜索视频,用视频搜索相关视频 |
变量: |
集合特征:视频帧集合,文本词语集合,音频帧集合 |
文本是核心模态之一,用于检索、描述、问答 |
时序流程: |
服务器配置: |
1. CLIP:图像-文本对比学习,可扩展到视频 |
|
E-L1-0085 |
图神经网络 |
动态图神经网络 |
动态图神经网络 (Dynamic Graph Neural Networks) |
步骤1:动态图表示 |
精度:动态链接预测AUC 0.8-0.95,动态节点分类准确率70-90% |
图神经网络、时间序列分析、点过程、动态系统、表示学习 |
1. 社交网络:预测好友关系形成,社区演化,影响力传播 |
变量: |
集合特征:节点集合,边集合,时间点集合,事件集合 |
节点和边可能带有文本属性(如用户帖子,交易描述),需NLP处理 |
时序流程(离散时间动态GNN): |
服务器配置: |
1. EvolveGCN:演化GCN,使用RNN演化GCN参数 |
|
编号 |
类别 |
模型配方 |
算法/模型/方法名称 |
算法/模型/方法的逐步思考推理过程及每一个步骤的数学方程式和参数选择/参数优化 |
精度/密度/误差/强度 |
底层规律/理论定理 |
典型应用场景【10个场景】和各类特征 |
变量/常量/参数列表及说明 |
数学特征 |
语言特征 |
时序和交互流程的所有细节/分步骤时序情况及数学方程式 |
10亿级并发下的服务器性能与规模需求 |
配套优化算法列表 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
E-L1-0086 |
联邦学习 |
跨设备联邦学习 |
Federated Averaging (FedAvg) with Differential Privacy |
步骤1:客户端选择 |
精度:在非IID数据下,准确率比集中式低2-10个百分点;通信轮数减少50-90% |
分布式优化、差分隐私、安全多方计算、通信压缩、联邦学习 |
1. 移动键盘预测:在用户设备上训练语言模型,不上传原始输入 |
变量: |
集合特征:客户端集合,数据样本集合,参数空间 |
模型更新可能包含文本嵌入层,需要处理多语言 |
时序流程: |
服务器配置: |
1. FedProx:添加近端项处理统计异质性 |
|
E-L1-0087 |
神经符号推理 |
神经定理证明器 |
Neural Theorem Prover with Differentiable Reasoning |
步骤1:符号表示 |
精度:在标准定理证明基准(如Mizar, TPTP)上,证明成功率40-70%,高于传统ATP但低于人类专家 |
自动定理证明、可微推理、神经符号AI、逻辑编程、强化学习 |
1. 数学定理证明:自动证明数学定理,辅助数学家 |
变量: |
集合特征:符号集合,公式集合,证明树集合 |
逻辑公式通常用自然语言表示,需要自然语言理解 |
时序流程: |
服务器配置: |
1. DeepMath:使用seq2seq模型生成证明步骤 |
|
E-L1-0088 |
元学习 |
模型无关元学习 |
Model-Agnostic Meta-Learning (MAML) |
步骤1:任务分布 |
精度:在标准小样本学习基准(如Mini-ImageNet, Omniglot)上,5-way 1-shot准确率60-70%,5-way 5-shot准确率80-90% |
元学习、小样本学习、梯度下降、优化理论、任务分布 |
1. 小样本图像分类:识别新类别,每类只有几个样本 |
变量: |
集合特征:任务集合,样本集合,参数空间 |
任务描述可能需要自然语言,如"识别动物图片" |
时序流程: |
服务器配置: |
1. Reptile:一阶元学习,简单有效 |
|
E-L1-0089 |
自监督学习 |
对比学习 |
SimCLR (Simple Framework for Contrastive Learning) |
步骤1:数据增强 |
精度:在ImageNet上线性评估(冻结特征,训练线性分类器)准确率70-75%,微调后接近有监督(差1-2个百分点) |
对比学习、表示学习、度量学习、信息最大化、自监督学习 |
1. 图像表示学习:预训练视觉模型,用于下游分类、检测、分割 |
变量: |
集合特征:样本集合,增强样本集合,正负样本对集合 |
文本对比学习需要自然语言处理,如句子嵌入 |
时序流程: |
服务器配置: |
1. MoCo:动量对比,使用队列存储负样本,减少批次需求 |
|
E-L1-0090 |
可解释AI |
可解释性归因方法 |
Integrated Gradients (IG) |
步骤1:基准选择 |
精度:归因与人类直觉一致性较高,但依赖基准选择;计算成本中等(需多次梯度计算) |
可解释AI、归因方法、梯度积分、特征重要性、模型解释 |
1. 图像分类解释:可视化哪些像素对分类最重要 |
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)