检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
实时语音识别 支持“华北-北京四”、“华东-上海一”区域。 当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别和语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。
实时语音识别响应 开始识别请求响应 事件响应 识别结果响应 错误响应 严重错误响应 结束识别请求响应 父主题: 实时语音识别接口
设置音量,0~100,默认50。 SetSpeed 否 Integer 设置语速,-500~500,默认0。 SetSubtitle 否 String 设置字幕,部分发音人支持字幕时间戳,详见API文档。 示例代码 如下示例仅供参考,最新代码请前往SDK(websocket)章节获取并运行。 #include
时间戳数据 功能介绍 实时语音合成服务在生成音频流的同时,可以生成每个汉字/英文单词的时间戳信息。该信息可用于视频字幕和驱动数字人口型。 参数设置 设置请求参数subtitle为"word_level"或"phoneme_level"时,开启时间戳功能。 响应信息 表1 响应参数
实时语音识别工作流程 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。 开始阶段需要发送开始指令,包含采样率,音频格式,是否返回中间结果等配置信息。服务端会返回一个开始响应。 发送音频阶段客户端会分片发送音频数据,服务会返回识别结果或者其他事件,如音频超时,静音部分过长等。
实时语音合成响应 开始合成响应 语音合成结果响应 语音合成结束响应 语音合成错误响应 严重错误响应 父主题: 实时语音合成接口
huaxiaofei朝气男声发音人,仅支持pcm domain取值范围: common,通用领域 默认:chinese_xiaoyan_common 实时语音合成和语音合成属于同一种资源,按次计费。实时语音合成普通发音人,每100字计一次。精品发音人每50字计一次。 响应参数 Python SDK响应结果为byte
sentence_stream_connect(request) # 实时语音识别单句模式 rasr_client.continue_stream_connect(request) # 实时语音识别连续模式 # use enterprise_project_Id
选择连接模式,目前实时语音识别提供三种接口,流式一句话、实时语音识别连续模式、实时语音识别单句模式 // 选择1 流式一句话连接 // rasrClient.shortStreamConnect(request); // 选择2,实时语音识别单句模式
实时语音识别连续模式 功能介绍 连续识别模式的语音总长度限制为五小时,适合于会议、演讲和直播等场景。 连续识别模式在流式识别的基础上,结合了语音的端点检测功能。语音数据也是分段输入,但是连续识别模式将会在处理数据之前进行端点检测,如果是语音才会进行实际的解码工作,如果检测到静音,
实时语音合成请求 开始语音合成请求 父主题: 实时语音合成接口
实时语音识别单句模式 功能介绍 单句模式自动检测一句话的结束,因此适合于需要与您的系统进行交互的场景,例如外呼、控制口令等场景。 实时语音识别引擎的单句识别模式,和连续识别模式类似,也会进行语音的端点检测,如果检测到静音,将直接丢弃,检测到语音才会馈入核心进行实际的解码工作,如果
提升教学效率。 直播实时字幕 将视频直播或现场直播中的音频实时转为字幕,为观众提供更高效的观会体验,方便对直播内容进行监控。 会议实时记录 将视频或电话会议中的音频实时转为文字,可实时校核、修改及检索转写会议内容,提高会议效率。 即时文本录入 手机App上实时录音并即时提供转写的文本,例如语音输入法等。
实时语音识别请求 实时语音识别工作流程 开始识别 发送音频数据 结束识别 父主题: 实时语音识别接口
默认:8000 property String 否 可参考表3和表4。 默认:chinese_xiaoyan_common 实时语音合成和语音合成属于同一种资源,按次计费。实时语音合成普通发音人,每100字计一次。精品发音人每50字计一次。 speed Integer 否 语速。 取值范围:-500~500
开始合成响应 功能介绍 语音合成引擎收到实时语音合成请求时,首先向客户端发送合成开始响应,表示开始处理语音合成请求。 响应消息 表1 响应参数 名称 参数类型 说明 resp_type String 响应类型。参数值为START,表示开始语音合成。 trace_id String
"command": "END", "cancel": false } 状态码 状态码请参见状态码。 错误码 错误码请参见错误码。 父主题: 实时语音识别请求
静音超长,也即没有检测到声音。 在流式一句话模式下: 不会返回VOICE_START、VOICE_END、EXCEEDED_SILCENCE事件。 在实时语音识别单句模式下: 返回VOICE_START事件,表示检测到语音,此时IVR可以做打断。 返回VOICE_END事件后,表示一句话结束,后续的音频将被忽略,不会再进行识别。
ket的对应软件包或库接口,与实时语音识别引擎握手连接,并发送语音数据和接收转写结果,最后关闭Websocket连接。 获取Websocket握手请求wss-URI请参见Websocket握手请求。 获取实时语音识别请求消息格式信息请参见实时语音识别请求。 获取实时语音识别响应消息格式请参见实时语音识别响应。
"SIS.0002", "error_msg": "***" } 状态码 状态码请参见状态码。 错误码 错误码请参见错误码。 父主题: 实时语音识别响应