检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
语音合成结果响应 音频流数据 时间戳数据 父主题: 实时语音合成响应
附录 示例音频
AnalysisInfoResult 参数 是否必选 参数类型 描述 role 否 String 角色类型,目前对于8k音频以及16k双声道音频仅支持 AGENT(座席),USER(用户)。可用于电话质检等场景。对于16k单声道音频,支持多个说话人,取值范围是(speaker1 ~ speaker10),最多支持10个说话人,可用于会议场景。
息体加入后的请求如下所示,其中“data”参数表示将音频转化为Base64编码字符串。 POST https://sis-ext.cn-north-4.myhuaweicloud.com/v1/{project_id}/asr/short-audio Content-Type:
设置合成音频格式,默认pcm config.setAudioFormat("pcm"); // 设置合成音频采样率,当前支持8000和16000,默认8000 config.setSampleRate("8000"); // 设置合成音频音量大小,取值0-100,默认50
接口说明 实时语音识别接口基于Websocket协议实现。分别提供了“流式一句话”、“实时语音识别连续模式”、“实时语音识别单句模式”三种模式。 三种模式的握手请求wss-URI不同,基于Websocket承载的实时语音识别请求和响应的消息格式相同。 开发者可以使用java、py
附录 示例音频 获取项目ID 获取账号ID 获取AK/SK 公共请求参数 公共响应参数 状态码 错误码 配置OBS访问权限
Websocket握手请求 流式一句话 实时语音识别连续模式 实时语音识别单句模式 父主题: 实时语音识别接口
/v1/{project_id}/asr/short-audio 录音文件识别接 录音文件识别接口 识别接口:POST /v1/{project_id}/asr/transcriber/jobs 状态查询:GET /v1/{project_id}/asr/transcriber/jobs/{job_id}
语音合成能不能支持返回立体音(双声道)格式的音频 如何解决“The silence time is too long, and the audio will not be recognized”报错 Token怎么获取 如何申请公测 如何修改发音人 实时语音识别多人同时使用,如何区分各自识别结果
使用项目ID替换“{{cn4-project_id}}”值。可在我的凭证获取项目ID。 单击“body”,复制音频的base64编码值到data参数中(配置文件中已填充示例音频)。 单击“send”,发送请求,查看识别结果。
当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别和语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 支持中文、英文、中英文,文本不长于500个字符。 支持合成采样率8kHz、16kHz。
Runtime Exception修改为Checked Exception 2019-07-30 新增: 实时语音识别章节 2019-07-02 下线了ASR SDK的长语音识别功能。 2019-06-10 重新封装SDK,进行了重构,加入重试机制。 2019-03-30 第一次正式发布。
如何使用Websocket调用实时语音识别 解决方案 1. 下载Java SDK 或 Python SDK,参考《SDK参考》中获取SDK章节。 2. 配置SDK环境,参考《SDK参考》中配置Java环境。 3. 使用SDK里的demo进行调用。参考Java SDK和Python
response); 开始合成音频数据时回调。 void onTranscriptionEnd(RttsResponse response); 合成音频数据结束时回调。 void onTranscriptionError(RttsResponse response); 合成音频数据过程中失败时回调。
API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI PUT /v1/{project_id}/asr/vocabularies/{vocabulary_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String
实时语音识别多人同时使用,如何区分各自识别结果 每个用户独立建立websocket连接,不可共用一个websocket连接。 父主题: API使用类
语音识别是强制绑定使用OBS进行录音文件存储吗 不是,只有录音文件识别需要使用OBS服务,语音交互服务对用户存储在OBS的数据,具有只读权限,没有修改和删除的权限。所以用户是否删除上传至OBS服务的数据,需要用户根据自己的obs桶的使用情况或者容量大小确认,并在OBS服务上执行。
参数类型 说明 data 是 String 合成后生成的语音数据,以Base64编码格式返回。用户如需生成音频,需要将Base64编码解码成byte数组,再保存为wav音频。 示例代码 如下示例仅供参考,最新代码请前往SDK(websocket)章节获取并运行。 /* * Copyright
创建热词表 在一句话识别、录音文件识别、实时语音识别服务中,如果在您的业务领域有一些特有的词,默认识别效果差的时候可以考虑使用热词管理功能,将这些词添加到词表,改善识别效果。 热词可以是姓名、公司名、某个领域的专有名词,如人名"王晓茗”(通常会识别为"王小明”)、运输域的“高栏”