##还是在想该怎么设计这个课程 是直接开始教 python还是如何
思来想去还是 想先教你们如何部署一个简易的大模型 我们可以先把他跑起来 然后再去思考 如何做到的 为什么 以及 接下来如何用python 用代码去搭建一个聊天机器人
所以第一节课还是教你们用几个软件之间的搭配去实现 调用一个大模型,后面我们再去学习如何手搓

1.什么是聊天机器人

1.1 概念:聊天机器人是一种基于人工智能的自然语言处理技术开发的软件程序,能够通过文本或者语言与用户进行交互,模拟人类对话,它可以根据用户的输入或者指令,生成相应的回答或者执行特点的操作

1.2 特点

自然语言处理(nlp):能够理解用户输入自然语言,包括语音和文字,并且从中提取关键信息和意图

对话管理:通过对话引擎维持对话的连贯性,根据上下文的内容生成合适的回答

个性化交互:可以根据用户的历史记录和偏好提供定制化的回答

多功能性;除了聊天,还可以执行任务,如查询,预定服务,提供帮助等

1.3应用场景

客户服务:再电商,金融等领域,聊天机器人可以自动解答客户的服务,提供24*7的服务支持

娱乐:一些机器人专门被设计用于和客户进行趣味对话,提供娱乐体验

教育:用于语言学习,知识问答等教育场景

智能家居:控制家电,如空调,灯光等

医疗健康:提供健康咨询,挂号服务等

1.4 有哪些场景的聊天机器人

deepseek
由杭州深度求索人工智能基础技术研究有限公司研发,其优势在于性能卓越,低成本开发和开源策略

kimi智能助手

由月之暗面科技有限公司开发,支持超长上下文(最高200万汉字),适合长文本处理和复杂对话

通义前问

阿里云推出的人工智能助手,适合办公场景,提供高效的信息处理能力

讯飞星火

科大讯飞出品,支持语音输入和语音朗读回复,适合语音交互场合

豆包

字节跳动推出,支持抖音和今日头条的内容信息获取,适合内容创作和信息检索,

##所以我们接下来要做一个聊天机器人 我们将从0到1的开始搭建

项目需求分析

该项目再构建一个基于大模型的智能聊天机器人,利用其强大的自然语言处理和生成能力,为用户提供高效,精准,个性化的对话服务

该聊天机器人将集成先进的大规模预训练语言模型(如gpt qwen等) 具备自然语言理解,多轮对话,情感分析,知识问答等核心功能,并课根据具体应用场景进行定制化扩展,如客服咨询,教育辅导,娱乐互动等

相关功能需求如下

1 分析对话功能需求

自然语言处理

        聊天机器人能够理解和生成自然语言文本,支持中文和英文对话
        能够处理用户的输入并生成准确,流程的回复

实施对话交互
        用户可以用过streamlit 界面输入文本,聊天机器人实时响应并展示回复
        对话过程流程,延迟时间不超过3秒

用户界面功能需求
        提供输入框,发送按钮和对话展示区域
        界面设计简洁美观,易于操作

交互式体验
        用户输入问题后,点击发送按钮即可触发对话
        聊天机器人的回复实时展示再对话区域

####

根据上述功能需求,项目采用模块化设计,前端通过streamlit等框架实现简洁易用的交互功能,后端基于ollama等平台进行模型部署和管理,确保系统的高效性和可扩展性

项目目标旨在开发一款基于自然语言处理技术的聊天机器人,能够通过网页界面于用户进行实时对话,为用户提供高效 便捷 的交互体验

##如何搭建聊天机器人

常见的搭建聊天机器人方式有3种,通常根据功能会结合其中1到2中实现聊天机器人搭建,3种方式分别是

1 使用五代码平台搭建
2 使用开源框架开发
3基于大语言模型的集成

1 无代码平台

无代码平台允许用户通过可视化界面快速创建聊天机器人,无需编程基础,例如扣子 coze 是一个由字节跳动开发的智能体应用开发平台,支持集成多种大预言模型(如deepseek),并可以快速接入微信公众号,即使是其他平台的llm

搭建步骤:

  1. 注册并登录平台:访问 扣子官网,使用抖音或飞书扫码登录。

  2. 创建应用:填写智能体名称、功能介绍和图标。

  3. 配置机器人

  • 选择模型(如 DeepSeek 或其他大模型)

  • 添加插件(如联网、绘画等)

  • 编写开场白并测试对话效果

  1. 接入平台:将机器人接入微信公众号或其他平台,配置必要的参数(如 AppID)

如果需求简单且希望快速上线,优先选择无代码平台。

使用开源框架开发

如果你有一定的编程基础,可以使用开源框架如chatterbot 和web框架 如flask 来开发聊天机器人

安装必要的库:安装flask和chatterbot

编写代码:创建一个额flask应用,集成chatterbot并训练模型

创建前端界面:使用html和javascript创建一个简单的聊天界面

部署应用 将应用部署到服务器,如heroku或本地服务器

chatterbot 是一个开源的python 库 用于创建聊天机器人,它通过机器学习技术来生成对话内容,能够根据用户输入自动学习和生成回答

chatterbot库对话的生成能力有限,生成文本可能不够自然,大模型出来之前使用较多

基于大语言模型的集成

如果你希望使用更强大语言模型 可以通过本地部署或者云服务快速搭建聊天机器人

1. 模型部署:使用ollama部署qwen或者deeepseek

2配置机器人 通过ollama的api配置聊天机器人,设置模型,对话历史等参数

  1. 接入微信或其他平台:使用 Gewechat 框架将机器人接入微信。

适合有一定技术能力的企业,需要高度定制化功能的聊天机器人。

适合大模型出来后有更好对话效果场景,目前企业纷纷采用方式。

三种方式区别联系
  • 如果需求简单且希望快速上线,优先选择无代码平台。

  • 如果需求复杂,需要高度定制化功能,建议选择开源框架。

  • 如果需要高质量的对话体验且预算充足,可以选择基于大语言模型的集成。

当前项目我们选择基于开源框架和基于大语言模型集成的综合方式来开发聊天机器人,不仅能保障适合数据隐私和安全性要求,还可以实现高质量对话体验。接下来我们一起看项目方案

##项目方案

这里我们采用综合的基于开源框架和编程开发方法来开发聊天机器人。具体来说,这种方法结合了后端模型(Ollama 平台的 Qwen, DeepSeek模型)和前端界面(Streamlit 框架)来实现聊天机器人的功能。这种方法需要一定的编程基础,但可以提供更高的灵活性和定制化能力。

后端模型:Ollama 平台的 Qwen 模型

  • 特点:基于 Ollama 平台部署 Qwen, DeepSeek模型作为后端核心,提供自然语言处理和对话生成能力。

  • 技术细节

    • Ollama 是一个开源的 AI 模型部署平台,支持多种大语言模型(LLM)。

    • Qwen 是一个高性能的语言模型,能够处理和生成自然语言文本。

    • 通过后端服务调用 Qwen 模型,将用户输入传递给模型,并获取模型的回复。

    • 前端界面:Streamlit 框架

    • 特点:使用 Streamlit 框架搭建用户界面,提供简洁、交互式的 Web 应用。

    • 技术细节

      • Streamlit 是一个基于 Python 的开源框架,适合快速开发数据科学和机器学习相关的 Web 应用。

      • 你通过 Streamlit 创建了一个用户界面,包括输入框、发送按钮和对话展示区域。

      • 用户可以通过网页与聊天机器人进行实时对话。

    • 对话交互与模型调用

    • 特点:后端服务负责将用户输入传递给 Qwen 模型,并将模型生成的回复返回给前端界面。

    • 技术细节

      • 你可能使用了 Python 编程语言来实现后端逻辑,将用户输入发送到 Qwen 模型,并处理模型的输出。

      • 这种方式需要编写代码来实现前后端的通信,确保对话的实时性和准确性。

        项目架构设计

        整体项目架构如下:

  • 项目完整架构:

  • 后端模型:利用 Ollama 平台的 Qwen 模型,该模型具备出色的自然语言处理能力,能够理解和生成自然语言文本,为聊天机器人提供核心的对话处理功能。

  • 前端界面:采用 Streamlit 框架搭建用户界面,Streamlit 是一个简单易用的 Python 库,能够快速创建美观、交互式的 Web 应用,使用户能够通过网页与聊天机器人进行实时对话。

  • 对话交互:用户可以通过 Streamlit 界面输入文本,聊天机器人基于 Qwen 模型对输入内容进行理解和处理,生成相应的回复并展示在界面上,实现流畅的对话交互。

  • 模型调用:后端服务负责将用户输入传递给 Qwen 模型,并获取模型生成的回复,然后将回复内容返回给前端界面进行展示,确保对话的实时性和准确性。

  • 界面展示:Streamlit 界面提供简洁明了的布局,包括输入框、发送按钮和对话展示区域,用户可以方便地输入问题并查看机器人的回答,提升用户体验。

【熟悉】大模型核心基础

学习目标:掌握大模型应用场景及核心运行机制,为搭建聊天机器人应用奠定理论基础

大模型分类

自然语言处理模型

自然语言大模型(large language models,LLMs)是基于深度学习的模型,旨在理解和生成人类语言,他们通过大规模文本数据的训练,能够执行多种自然语言处理(nlp)任务,如专注于文本生成,理解 翻译等任务 例如 gpt系列 bert (google) t5 等

机器视觉(cv)

视觉大模型(large visual models),核心是通过大规模数据和复杂模型架构,实现对图像和视频的深度理解和生成,与传统计算机视觉模型相比,视觉大模型具有更强的泛化能力和多任务适应性,能够处理复杂的视觉任务,如图像分类 目标检测语义分割 图像生成

例如 sd  stable diffusion vit vision tansformers dalle 和clip(open ai) 

语音模型

语言大模型是基于升读学习技术构建的人工智能模型,主要用于处理语言相关的任务,如语音识别(asr) 语音合成(tts) 语音翻译等 今年来,随着深度学习和大规模数据训练的发展,语音大模型在性能和功能上取得了显著进展,能够支持多语言,多场景的复杂任务

例如whisper (openai) wavenet (deepmind) 讯飞星火

讯飞星火由科大讯飞推出的语音大模型,尤其在中文语音识别方面表现突出,支持多种方言和少数民族语言。此外,讯飞星火还具备强大的语音合成能力。

语音模型‌是一种将声音信号转换为数字信号的模型。

语音模型的应用场景

  1. 语音识别‌:将人类语音转换为文本或其他可理解的形式,广泛应用于智能助手、语音输入和自动化客服系统。

  2. 语音合成‌:生成自然、具备韵律且富有情感的语音,适用于多语言、情感丰富的TTS应用。

  3. 语音增强‌:提高语音信号的清晰度和质量,常用于噪声环境下的语音处理。

  4. 声音事件监测‌:识别环境中的特定声音事件,如警报声、机器故障声等。

  5. 说话人识别‌:识别说话人的身份,常用于安全验证和个性化服务。

多模态模型

多模态模型是一种能够同时处理多种数据模态(如文本 图像 音频 视频等)的人工智能模型 于传统的单模态模型相比,多模态模型通过整合不同模特的数据,能够提供更全面,更准确的裂解和生成能力 这些模型在多个领域展现出强大的应用潜力 例如医疗诊断,自动驾驶,智能助手

核心在于跨模态融合,即将不同模态的数据表示映射到同意空间,以便模型能够理解和生成跨模态的内容,例如 在视觉回答(vqa)任务中, 模型需要同时理解图像内容和自然语言问题,以生成准确的答案

举例:GPT-4(支持多模态)、Flamingo(DeepMind)、BLIP、KOSMOS(微软)

###本来想 这章就带大家 先装下来一个模型的先跑的 但是一不小心 讲太多了 
那就下一节再带大家安装模型

    Logo

    AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

    更多推荐