2026保姆级教程:Bilinote免费API配置全攻略,零成本搞定视频转写+AI笔记!

🌟感谢陪伴~ 小白博主在线求友
🌿 跟着小白学/Java/软件设计/鸿蒙开发/芯片开发
📖专栏汇总:
《软件设计师》专栏 | 《Java》专栏 | 《 RISC-V 处理器实战》专栏 | 《Flutter鸿蒙实战》专栏 | 《React Native开发》专栏

文章目录
2026保姆级教程:Bilinote免费API配置全攻略,零成本搞定视频转写+AI笔记!
📝 文章摘要
最近好多小伙伴问我Bilinote怎么配免费API,还有人遇到“网页解析失败”的报错不知道咋回事。今天这篇教程我就给大家讲得明明白白:先解决最常见的报错疑问,再给大家推荐一批2026年最新可用的免费纯文本大模型API和多模态大模型API,还有本地免费的语音转写和视频解析方案,最后给大家准备了三个一键配置模板,啥都不懂的小白跟着复制粘贴就能搞定!
📚 文章目录
- 先解决最常见的报错疑问!
- Bilinote免费API配置思维导图
- 免费纯文本大模型API推荐(国内可用)
- 免费多模态大模型API推荐(适配视频画面理解)
- 补充:免费语音转写+视频解析方案
- Bilinote全量免费API一键配置模板
- Bilinote配置流程图
- 新手必看FAQ问答
- 避坑指南:这些错误别再犯!
- 文章总结与互动
先解决最常见的报错疑问!
很多小伙伴刚拿到API的Base URL,就迫不及待放到浏览器里打开,结果看到“网页解析失败,可能是不支持的网页类型”,瞬间慌了:“是不是API坏了?”
完全不是! 这里给大家打个比方:这些URL是大模型API的服务端点,就像快递柜的取件码——取件码是给快递员(程序/软件)用的,你直接用浏览器(普通人)去“扫”,肯定打不开呀!
正确做法:把这些URL老老实实填到Bilinote的.env配置文件里,Bilinote这个“快递员”就能正常用它们取“包裹”(调用AI能力)了,完全不影响功能!
Bilinote免费API配置思维导图
免费纯文本大模型API推荐(国内可用)
纯文本模型适合只需要音频转写后文字摘要、结构化整理的场景,下面这些都是2026年最新可用的,国内直连,免费额度足!
1. 字节跳动 豆包大模型(我自己用得最多!)
- 免费额度:个人认证后,新用户直接送50万Tokens免费额度,Lite版长期超低门槛免费,日常做笔记几乎零成本!
- 为啥推荐:国内大厂直连,延迟特别低,中文理解能力拉满,润色笔记、整理结构都特别顺手,稳定性没得说!
- 申请API Key步骤:
- 打开豆包开放平台链接,注册登录账号;
- 进入控制台,点击“创建应用”,按提示填好信息;
- 应用创建好后,就能拿到你的API Key啦,复制保存好!
- Bilinote一键配置代码:
# 豆包纯文本大模型配置
MODEL_PROVIDER=openai
OPENAI_API_KEY=这里填你刚才复制的豆包API Key
OPENAI_BASE_URL=https://ark.cn-beijing.volces.com/api/v3
OPENAI_MODEL=doubao-1.5-lite-32k
2. 腾讯混元大模型(免费额度有效期长!)
- 免费额度:首次开通送100万Tokens免费资源包(有效期1年!),
hunyuan-lite模型永久免费调用,学生认证还能额外加赠每日5万Tokens! - 为啥推荐:腾讯官方出品,国内网络特别稳,不会抽风,免费额度有效期长,适合日常批量生成笔记!
- 申请API Key步骤:
- 打开腾讯混元大模型链接,注册登录;
- 进入控制台,开通服务后创建API密钥;
- 复制你的API Key和Secret Key保存好!
- Bilinote一键配置代码:
# 腾讯混元纯文本大模型配置
MODEL_PROVIDER=openai
OPENAI_API_KEY=这里填你的腾讯混元API Key
OPENAI_BASE_URL=https://api.hunyuan.cloud.tencent.com/v1
OPENAI_MODEL=hunyuan-lite
3. 零一万物(长文本处理超强!)
- 免费额度:新用户注册送约360万Tokens免费额度(永久有效!),支持200K超长上下文窗口!
- 为啥推荐:长文本处理能力拉满,最高支持200万Token上下文,要是你有超长课程、系列视频想一次性总结,选它准没错!
- 申请API Key步骤:
- 打开零一万物开放平台链接,注册登录;
- 进入API Key管理页面,创建新的API Key;
- 复制保存好你的API Key!
- Bilinote一键配置代码:
# 零一万物纯文本大模型配置
MODEL_PROVIDER=openai
OPENAI_API_KEY=这里填你的零一万物API Key
OPENAI_BASE_URL=https://api.lingyiwanwu.com/v1
OPENAI_MODEL=yi-34b-chat-0205
4. 月之暗面(Kimi同源模型!)
- 免费额度:新用户注册送15元免费额度(无过期时间!),限频不限Token,每分钟最多3次请求,单日Token无上限!
- 为啥推荐:Kimi同源模型,长文本处理能力同样很强,支持128万Token上下文,多集视频、长课程批量总结也没问题!
- 申请API Key步骤:
- 打开月之暗面开放平台链接,注册登录;
- 进入API Key页面,创建新的密钥;
- 复制保存好你的API Key!
- Bilinote一键配置代码:
# 月之暗面纯文本大模型配置
MODEL_PROVIDER=openai
OPENAI_API_KEY=这里填你的月之暗面API Key
OPENAI_BASE_URL=https://api.moonshot.cn/v1
OPENAI_MODEL=moonshot-v1-8k
5. Ollama本地开源大模型(完全永久免费!)
- 免费额度:完全永久免费! 本地运行,不需要API Key,不需要联网,没有调用次数限制!
- 为啥推荐:极致隐私保护!所有数据都在你自己电脑上处理,不经过第三方服务器,要是你有敏感内容想处理,选它最放心!
- 前置准备:
- 先打开Ollama官网链接,下载安装Ollama软件;
- 安装好后,打开电脑的终端(Windows是CMD或PowerShell,Mac是终端),输入
ollama pull qwen2:7b拉取模型; - 模型拉取完成后,就能用啦!
- Bilinote一键配置代码:
# Ollama本地纯文本大模型配置
MODEL_PROVIDER=openai
OPENAI_API_KEY=ollama(这里随便填,不用校验)
OPENAI_BASE_URL=http://localhost:11434/v1
OPENAI_MODEL=qwen2:7b
免费多模态大模型API推荐(适配视频画面理解)
要是你想让Bilinote**“看懂”视频里的板书、PPT、图表、关键帧**,那就必须用多模态模型!下面这些同样是2026年最新可用的,国内直连!
1. 字节跳动 豆包多模态大模型(新手首选!)
- 免费额度:个人认证后,新用户送的50万Tokens免费额度也能用来调用多模态模型,国内直连无门槛!
- 为啥推荐:中文画面识别准确率特别高!不管是板书、PPT、公式还是图表,都能精准识别,和文本字幕联动生成完整笔记,延迟还低,做国内课程、短视频的笔记特别顺手!
- 申请API Key步骤:和上面纯文本豆包模型一样,同一个API Key就能用!
- Bilinote一键配置代码:
# 豆包多模态大模型配置
MODEL_PROVIDER=openai
OPENAI_API_KEY=这里填你的豆包API Key
OPENAI_BASE_URL=https://ark.cn-beijing.volces.com/api/v3
OPENAI_MODEL=doubao-vision-lite-240515
# 本地免费语音转写(必开!)
WHISPER_ENABLE=true
WHISPER_MODEL=base
WHISPER_DEVICE=cpu
2. 腾讯混元多模态大模型(公式识别超强!)
- 免费额度:首次开通送的100万Tokens通用额度,也能直接用来调用多模态模型,
hunyuan-lite多模态版长期免费! - 为啥推荐:公式识别能力特别强!要是你有理工科、考研、考公类的课程视频,里面的公式、图表它都能精准识别,腾讯官方出品,稳定性也没得说!
- 申请API Key步骤:和上面纯文本腾讯混元模型一样!
- Bilinote一键配置代码:
# 腾讯混元多模态大模型配置
MODEL_PROVIDER=openai
OPENAI_API_KEY=这里填你的腾讯混元API Key
OPENAI_BASE_URL=https://api.hunyuan.cloud.tencent.com/v1
OPENAI_MODEL=hunyuan-vision
# 本地免费语音转写(必开!)
WHISPER_ENABLE=true
WHISPER_MODEL=base
WHISPER_DEVICE=cpu
3. 零一万物 Yi-Vision 多模态大模型(长视频多帧处理超强!)
- 免费额度:新用户注册送的360万Tokens通用额度,也能覆盖多模态调用,无额外收费!
- 为啥推荐:长视频多帧处理能力拉满!支持高分辨率多帧图像输入,超长上下文+画面理解结合,能一次性处理长视频的多个关键帧,不会丢失画面信息,系列课程、纪录片、超长教学视频选它!
- 申请API Key步骤:和上面纯文本零一万物模型一样!
- Bilinote一键配置代码:
# 零一万物多模态大模型配置
MODEL_PROVIDER=openai
OPENAI_API_KEY=这里填你的零一万物API Key
OPENAI_BASE_URL=https://api.lingyiwanwu.com/v1
OPENAI_MODEL=yi-vl-plus
# 本地免费语音转写(必开!)
WHISPER_ENABLE=true
WHISPER_MODEL=base
WHISPER_DEVICE=cpu
4. Ollama本地开源多模态大模型(完全永久免费!)
- 免费额度:完全永久免费! 本地运行,不需要联网,不需要API Key,没有任何调用限制!
- 为啥推荐:还是极致隐私保护!所有视频画面、音频、文本都在你自己电脑上处理,数据不会上传到任何第三方服务器,敏感内容放心用!
- 前置准备:
- 先安装好Ollama软件(步骤同上);
- 打开终端,输入
ollama pull qwen2-vl:7b拉取多模态模型; - 模型拉取完成后,就能用啦!
- Bilinote一键配置代码:
# Ollama本地多模态大模型配置
MODEL_PROVIDER=openai
OPENAI_API_KEY=ollama(这里随便填)
OPENAI_BASE_URL=http://localhost:11434/v1
OPENAI_MODEL=qwen2-vl:7b
# 本地高精度语音转写(必开!)
WHISPER_ENABLE=true
WHISPER_MODEL=large-v3
WHISPER_DEVICE=cpu
补充:免费语音转写+视频解析方案
1. 免费语音转写补充方案
除了上面配置里的本地Whisper,还有这些免费方案可以选:
- 腾讯云语音识别:新用户赠送20小时免费录音文件识别时长,中文识别准确率高,支持方言、专业术语,适配课程视频转写,点击这里去腾讯云语音识别。
- 阿里云智能语音交互:新用户赠送50小时免费转写时长,支持长音频精准断句,适配长视频、系列课程转写,点击这里去阿里云智能语音交互。
- 本地Whisper进阶免费方案:完全免费!
large-v3模型识别准确率远超基础版,支持多语言、方言,配置代码如下:
# 本地Whisper进阶配置
WHISPER_ENABLE=true
WHISPER_MODEL=large-v3
WHISPER_DEVICE=cpu(如果你有N卡,这里可以填cuda,速度会大幅提升!)
2. 免费视频解析补充方案
- yt-dlp 开源工具:完全免费!支持B站、YouTube、抖音等1000+平台的视频/音频提取,更新频率快,适配平台规则变化,是Bilinote最佳本地补充方案,点击这里去yt-dlp的GitHub页面。
- you-get 开源工具:完全免费!轻量易操作,一键提取主流平台视频、音频、字幕文件,适合新手使用,点击这里去you-get的GitHub页面。
- Bilinote内置解析:原生支持B站、YouTube链接解析,无需额外配置,直接粘贴链接就能提取音频、字幕、封面,特别方便!
Bilinote全量免费API一键配置模板
下面给大家准备了三个模板,大家根据自己的需求选一个,直接复制到Bilinote根目录的.env文件里,把API Key换成自己的就行!
版本1:新手首选永久免费版(国内直连、多模态、零门槛)
# ==============================================
# Bilinote 新手首选免费配置
# 模型:豆包多模态Lite版 + 本地Whisper转写
# ==============================================
# 核心多模态AI模型(永久免费可用!)
MODEL_PROVIDER=openai
OPENAI_API_KEY=这里填你的豆包API Key
OPENAI_BASE_URL=https://ark.cn-beijing.volces.com/api/v3
OPENAI_MODEL=doubao-vision-lite-240515
# 本地免费语音转写(必开!零成本!)
WHISPER_ENABLE=true
WHISPER_MODEL=base
WHISPER_DEVICE=cpu
# 视频解析配置(默认免费,无需修改!)
PARSE_PROXY=
# 基础服务配置(不用改!)
HOST=0.0.0.0
PORT=1224
版本2:全本地完全免费版(无需联网、无需API Key、极致隐私)
# ==============================================
# Bilinote 全本地零成本配置
# 无需API Key、无需联网、无任何费用
# ==============================================
# 本地开源多模态模型(需要先安装Ollama并拉取模型!)
MODEL_PROVIDER=openai
OPENAI_API_KEY=ollama
OPENAI_BASE_URL=http://localhost:11434/v1
OPENAI_MODEL=qwen2-vl:7b
# 本地高精度语音转写
WHISPER_ENABLE=true
WHISPER_MODEL=large-v3
WHISPER_DEVICE=cpu
# 基础服务配置(不用改!)
HOST=0.0.0.0
PORT=1224
版本3:长视频/系列课程专用版(超长上下文、多帧处理)
# ==============================================
# Bilinote 长视频专用免费配置
# 模型:零一万物Yi-Vision 长上下文多模态
# ==============================================
# 超长上下文多模态模型
MODEL_PROVIDER=openai
OPENAI_API_KEY=这里填你的零一万物API Key
OPENAI_BASE_URL=https://api.lingyiwanwu.com/v1
OPENAI_MODEL=yi-vl-plus
# 本地免费语音转写
WHISPER_ENABLE=true
WHISPER_MODEL=base
WHISPER_DEVICE=cpu
# 基础服务配置(不用改!)
HOST=0.0.0.0
PORT=1224
Bilinote配置流程图
新手必看FAQ问答
1. API Key怎么申请?
答:每个API的申请步骤我在上面都写啦!大家翻到对应的API章节,跟着步骤一步一步来就行,都是点击链接、注册登录、创建应用/密钥、复制保存这几步,很简单的!
2. 免费额度用完了怎么办?
答:免费额度用完后,大家可以选择:
- 换另一个平台的免费API用(比如豆包的用完了用腾讯混元的);
- 要是用量不大,也可以考虑付费,不过一般个人做笔记,免费额度完全够用;
- 用Ollama本地开源模型,完全永久免费,没有额度限制!
3. Ollama怎么安装?
答:很简单!
- 打开Ollama官网链接,点击下载按钮,根据你的电脑系统(Windows/Mac/Linux)下载对应的安装包;
- 下载好后,双击安装包,跟着提示一步一步安装就行;
- 安装完成后,打开电脑的终端,输入
ollama --version,要是能看到版本号,就说明安装成功啦!
4. Bilinote怎么启动?
答:不同的安装方式启动方法不一样,要是你是用Docker安装的,就用Docker命令启动;要是你是用源码安装的,就用对应的启动命令启动。大家可以参考Bilinote的官方文档,里面有详细的启动步骤!
5. 配置好后还是用不了怎么办?
答:大家可以先检查这几点:
- API Key有没有填错?是不是多填了空格或者少填了字符?
- Base URL有没有填错?是不是和我给的完全一致?
- 模型名称有没有填错?是不是对应平台的模型名称?
- 有没有重启Bilinote?配置好后一定要重启才能生效!
要是检查了这几点还是用不了,欢迎在评论区留言,我会帮你看看!
避坑指南:这些错误别再犯!
- API的Base URL不要在浏览器里打开! 再强调一遍,这些URL是给程序用的,不是给人看的,打开了肯定会报错!
- API Key要妥善保管! 不要把你的API Key泄露到公网、GitHub等公开平台,要是被别人盗用了,可能会产生费用!
- 免费额度要注意查看! 大家可以去对应平台的控制台查看免费额度的使用情况,避免超支,要是快用完了,提前换一个平台或者用本地模型!
- 本地模型要先安装对应软件! 要是你想用Ollama本地模型,一定要先安装Ollama软件,再拉取对应的模型,不然配置了也用不了!
- 多模态模型要配合语音转写一起用! 要是你用了多模态模型,一定要把本地Whisper打开,这样才能同时处理视频的画面和音频,生成完整的笔记!
如果本文对你有帮助,欢迎点赞👍、收藏⭐、评论💬!
个人领域:C++/java/Al/软件开发/芯片开发
个人主页:「一名热衷协作的开发者,在构建中学习,期待与你交流技术、共同成长。」
座右铭:「与其完美地观望,不如踉跄地启程」
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐





所有评论(0)