使用 OpenAI Whisper 模型实现语音转文本
whisper
openai/whisper: 是一个用于实现语音识别和语音合成的 JavaScript 库。适合在需要进行语音识别和语音合成的网页中使用。特点是提供了一种简单、易用的 API,支持多种语音识别和语音合成引擎,并且能够自定义语音识别和语音合成的行为。
项目地址:https://gitcode.com/gh_mirrors/whisp/whisper
免费下载资源
·
1. 引言
语音转文本(STT)技术通过将语音信号转换为文本,使得机器可以理解和处理自然语言。这种技术广泛应用于智能助手、语音搜索、字幕生成等领域。OpenAI 提供了基于 Whisper 模型的语音转文本 API,支持多种音频格式和语言的转录与翻译。
2. Whisper 模型简介
Whisper 是 OpenAI 开发的一个开源语音转文本模型。large-v2 Whisper 模型是其中最先进的版本,具备出色的转录和翻译能力。通过 OpenAI 提供的 API,我们可以方便地将音频文件转换为文本。
3. API 功能介绍
OpenAI 提供了两个语音转文本端点:transcriptions 和 translations。它们基于 Whisper 模型,主要功能包括:
- 将音频转录为原语言的文本。
- 将音频翻译并转录为英文文本。
API 支持的输入文件类型包括 mp3、mp4、mpeg、mpga、m4a、wav 和 webm,文件大小限制为 25 MB。
4. 快速开始
下面我们以 Python 代码示例展示如何使用 OpenAI Whisper 模型进行音频转文本操作。
4.1 环境准备
首先,确保你已经安装了 OpenAI 的 Python 库。如果没有安装,可以使用以下命令进行安装:
bash
复制代码
pip install openai
4.2 代码实现
以下代码示例展示了如何使用 Whisper 模型将音频文件转录为文本:
from openai import OpenAI
# 初始化 OpenAI 客户端
client = OpenAI(
base_url="https://jiekou.wlai.vip/v1",
api_key="your_api_key" # 请替换为你的 API 密钥
)
# 打开要转录的音频文件
audio_file = open("/path/to/file/audio.mp3", "rb")
# 调用转录 API
transcription = client.audio.transcriptions.create(
model="whisper-1",
file=audio_file
)
# 输出转录结果
print(transcription.text)
在上面的代码中,我们首先初始化 OpenAI 客户端,然后打开要转录的音频文件。通过调用 client.audio.transcriptions.create
方法,将音频文件传递给 API,并指定使用 Whisper 模型进行转录。最终,我们打印出转录的文本结果。
4.3 响应处理
默认情况下,API 返回的响应类型为包含原始文本的 JSON 格式,例如:
{ "text": "想象一下你曾经有过的最疯狂的想法,并且你很好奇它如何能扩大到 100 倍、1000 倍。..." }
我们可以根据需要对响应进行处理,将文本保存到文件或进行进一步的文本分析。
GitHub 加速计划 / whisp / whisper
65.57 K
7.69 K
下载
openai/whisper: 是一个用于实现语音识别和语音合成的 JavaScript 库。适合在需要进行语音识别和语音合成的网页中使用。特点是提供了一种简单、易用的 API,支持多种语音识别和语音合成引擎,并且能够自定义语音识别和语音合成的行为。
最近提交(Master分支:3 个月前 )
ba3f3cd5
* Add clip_timestamps option
* Add hallucination_silence_threshold option
* Fix typing for python < 3.9
---------
Co-authored-by: Jong Wook Kim <jongwook@openai.com> 10 个月前
8bc88606
11 个月前
更多推荐
已为社区贡献2条内容
所有评论(0)