检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
AnalysisInfoResult 参数 是否必选 参数类型 描述 role 否 String 角色类型,目前对于8k音频以及16k双声道音频仅支持 AGENT(座席),USER(用户)。可用于电话质检等场景。对于16k单声道音频,支持多个说话人,取值范围是(speaker1 ~ speaker10),最多支持10个说话人,可用于会议场景。
附录 示例音频 获取项目ID 获取账号ID 获取AK/SK 公共请求参数 公共响应参数 状态码 错误码 配置OBS访问权限
语音合成结果响应 音频流数据 时间戳数据 父主题: 实时语音合成响应
Websocket握手请求 流式一句话 实时语音识别连续模式 实时语音识别单句模式 父主题: 实时语音识别接口
接口说明 实时语音识别接口基于Websocket协议实现。分别提供了“流式一句话”、“实时语音识别连续模式”、“实时语音识别单句模式”三种模式。 三种模式的握手请求wss-URI不同,基于Websocket承载的实时语音识别请求和响应的消息格式相同。 开发者可以使用java、py
产品咨询类 什么是语音交互服务 支持哪些语言 语音合成后输出的音频格式是什么 是否支持离线使用 语音合成后能否返回播放时长 是否支持aac格式的语音文件转文字 如何查看当前接口是否免费调用
语音合成能不能支持返回立体音(双声道)格式的音频 如何解决“The silence time is too long, and the audio will not be recognized”报错 Token怎么获取 如何申请公测 如何修改发音人 实时语音识别多人同时使用,如何区分各自识别结果
如何使用Websocket调用实时语音识别 解决方案 1. 下载Java SDK 或 Python SDK,参考《SDK参考》中获取SDK章节。 2. 配置SDK环境,参考《SDK参考》中配置Java环境。 3. 使用SDK里的demo进行调用。参考Java SDK和Python
/v1/{project_id}/asr/short-audio 录音文件识别接 录音文件识别接口 识别接口:POST /v1/{project_id}/asr/transcriber/jobs 状态查询:GET /v1/{project_id}/asr/transcriber/jobs/{job_id}
当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别和语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 支持中文、英文、中英文,文本不长于500个字符。 支持合成采样率8kHz、16kHz。
使用项目ID替换“{{cn4-project_id}}”值。可在我的凭证获取项目ID。 单击“body”,复制音频的base64编码值到data参数中(配置文件中已填充示例音频)。 单击“send”,发送请求,查看识别结果。
Runtime Exception修改为Checked Exception 2019-07-30 新增: 实时语音识别章节 2019-07-02 下线了ASR SDK的长语音识别功能。 2019-06-10 重新封装SDK,进行了重构,加入重试机制。 2019-03-30 第一次正式发布。
response); 开始合成音频数据时回调。 void onTranscriptionEnd(RttsResponse response); 合成音频数据结束时回调。 void onTranscriptionError(RttsResponse response); 合成音频数据过程中失败时回调。
登录后,“X-Auth-Token”和“project_id”参数会自动填充,无需填写。 填写待合成文字。 在text中输入待合成的文本,其中config参数为合成音频的音色、语速、格式等设置项,可使用默认值。 单击“调试”按钮,获取识别结果。 父主题: 调用API或SDK
实时语音识别多人同时使用,如何区分各自识别结果 每个用户独立建立websocket连接,不可共用一个websocket连接。 父主题: API使用类
参数类型 说明 data 是 String 合成后生成的语音数据,以Base64编码格式返回。用户如需生成音频,需要将Base64编码解码成byte数组,再保存为wav音频。 示例代码 如下示例仅供参考,最新代码请前往SDK(websocket)章节获取并运行。 /* * Copyright
语音识别是强制绑定使用OBS进行录音文件存储吗 不是,只有录音文件识别需要使用OBS服务,语音交互服务对用户存储在OBS的数据,具有只读权限,没有修改和删除的权限。所以用户是否删除上传至OBS服务的数据,需要用户根据自己的obs桶的使用情况或者容量大小确认,并在OBS服务上执行。
使用前务必确认代理能否可用,最好避免使用代理。 表3 请求参数 参数名称 是否必选 参数说明 Data 必选 本地音频文件经过Base64编码后的字符串。 AudioFormat 必选 音频格式。 Property 必选 属性字符串,语言_采样率_模型,如chinese_8k_common。
如何调用WebSocket API 前提条件 在调用实时语音识别的Websocket接口之前,您需要完成Token认证,详细操作指导请参见认证鉴权。 接口使用介绍 实时语音识别接口使用Websocket协议承载,客户端与服务端交流流程如图1所示。 分为三个主要步骤: WebSocket握手。
息体加入后的请求如下所示,其中“data”参数表示将音频转化为Base64编码字符串。 POST https://sis-ext.cn-north-4.myhuaweicloud.com/v1/{project_id}/asr/short-audio Content-Type: