登录社区云,与社区用户共同成长
邀请您加入社区
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐
Word Embedding :从分布式假设到神经网络语言模型
Word Embedding(词嵌入)是一种将离散的词汇符号映射到连续的低维稠密向量空间的技术。在这个向量空间中,语义相似的词在几何距离上彼此接近,从而实现了从"符号匹配"到"语义计算"的跨越。核心定义词嵌入是将单词(或多词短语)表示为固定维度的实值向量,这些向量之间的距离(例如余弦相似度)反映了单词之间的相关性,这种相关性基于单词通常出现的上下文。分布式假设(1954)↓统计共现分析(LSA/S
共享记忆 vs 私有记忆:多 Agent 的记忆架构选择
Agent记忆:Agent存储的所有历史信息,包括交互历史、工具调用结果、任务执行记录、领域知识等,用来辅助Agent完成当前任务,避免重复工作,保持行为一致性。工作记忆:存储在大模型上下文窗口中的短期信息,生命周期为单次推理,容量受上下文窗口限制短期记忆:存储在Redis/PostgreSQL中的最近7-30天的交互信息,生命周期为天级长期记忆:存储在向量数据库/对象存储中的长期信息,生命周期年
神经符号 AI:结合逻辑与神经网络的 Harness
过去十年,以Transformer为核心的深度学习技术取得了革命性进展:从图像分类、自然语言处理到蛋白质结构预测,纯数据驱动的神经网络在感知类任务上的表现已经接近甚至超过人类水平。幻觉问题:大模型会编造不存在的事实、法律条文、医学诊断依据,完全无法用于对准确性要求100%的场景推理短板:在多步数学计算、逻辑证明、因果推断类任务上,即使是GPT-4这类顶级大模型的准确率也不足60%可解释性缺失:黑箱
扫一扫分享内容
为遵守国家网络实名制规定,未绑定将限制内容发布与互动
所有评论(0)