检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
支持哪些语言 录音文件识别、语音合成支持中文普通话。 一句话识别和实时语音识别支持中文普通话,带方言口音的普通话和方言(四川话、粤语和上海话)。 父主题: 产品咨询类
SDK支持哪些语言 目前union sdk(仅支持https接口)已支持java、python、.net、cpp、go。websocket接口支持Java、Python,cpp,后续根据需求考虑支持其他语言。 父主题: SDK使用类
com/ei/experiencespace/sis.html 使用前必读 用户需要具备编程能力,熟悉Java、Python、IOS等编程语言。 用户通过调用API接口,将语音文件识别成可编辑的文本,然后返回JSON格式的识别结果,用户需要通过编码将识别结果对接到业务系统或保存为TXT、Excel等格式。
电话回访等。 调用API接口需要具备一定的编程开发能力,返回的结果为JSON格式,用户需要通过编程来处理识别结果。 您可以根据以下介绍选择合适的使用方式: 通过华为云EI智能体验馆,零基础,一键快速体验语音交互功能。 如果您是业务开发者,没有代码编写基础,您可以使用该方式体验语音
调用Java SDK实现一句话识别 语音交互服务软件开发工具包(SIS SDK)是对语音交互服务提供的REST API进行的封装,用户直接调用语音交互SDK提供的接口函数即可实现使用语音交互业务能力的目的,以简化用户的开发工作。SIS SDK目前支持Java和Python。 本章节提供了通过Java
12版本。 优先推荐使用新版SDK语音交互服务SDK,该SDK基于统一规范开发,支持Java/Python/C++/.NET/Go/NodeJs/PHP,使用方法可参考api-explorer、SDK开发指南。该SDK暂不支持websocket方法。 如果需要使用实时语音识别,可考虑使用表
SSML标记语言介绍 本文为您介绍SSML(Speech Synthesis Markup Language)标记语言的功能、标签使用及示例。 概述 SSML 是一种基于 XML 的语音合成标记语言。使用 SSML 可以更加准确、具体的定义合成音频的效果,包括控制断句分词方式、发
配置环境 在使用语音交互SDK时,需要准备的环境请参见表 开发环境。 目前Java SDK不支持在android中使用。 表1 开发环境 准备项 说明 操作系统 Windows系统,推荐Windows 7及以上版本。 JDK Java开发环境的基本配置。版本要求:强烈推荐使用1.8版本。
"speed": 10, "pitch": 10, "volume": 60 } } 使用Python3语言调用语音合成API,将文本合称为语音,并调整语音的音色、语速、音高、音量 # -*- coding: utf-8 -*- # 此demo仅
式。 三种模式的握手请求wss-URI不同,基于Websocket承载的实时语音识别请求和响应的消息格式相同。 开发者可以使用java、python、c++等开发语言支持Websocket的对应软件包或库接口,与实时语音识别引擎握手连接,并发送语音数据和接收转写结果,最后关闭Websocket连接。
结束识别请求响应 服务器端收到“结束识别”请求时或语音识别过程中发生错误,服务端会向客户端推送如下响应消息,以json字符串形式放置在text message中。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为END,表示结束识别响应。
严重错误响应 功能介绍 严重错误,通常指流程无法继续的情况。出现严重错误响应时,流程不再继续,服务器端会主动断连。 响应消息 表1 响应参数 名称 参数类型 说明 resp_type String 响应类型。参数值为FATAL_ERROR,表示此次合成发生不可恢复的错误。 trace_id
事件响应 服务器端检测到某些事件时,会给出如下响应消息,以json字符串形式放置在text message中。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为EVENT,表示开始识别响应。 trace_id String 服
严重错误响应 严重错误,通常指流程无法继续的情况。比如当出现客户端分片音频间隔超时(例如20s)。 出现严重错误响应时,流程不再继续,服务器端会主动断连。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为FATAL_ERROR,表示开始识别响应。
开始识别请求响应 由于WebSocket是全双工的,因此响应就是从服务器端发送给客户端的消息,但也并不是所有的请求信息都有一条对应的响应。服务器端收到“开始识别”请求时,会给出如下响应消息,以json字符串形式放置在text message中。 响应消息 表1 响应参数 参数名 参数类型
语音合成后输出的音频格式是什么 语音合成后返回一组Base64编码格式的语音数据,用户需要用编程语言或者sdk将返回的Base64编码格式的数据解码成byte数组,再保存为wav格式的音频。 语音合成(Text To Speech ,TTS服务)服务的音频格式则根据接口中audi
SDK(新版) 推荐使用新版SDK语音交互服务SDK,该SDK基于统一规范开发,支持Java/Python/C++/.NET/Go/NodeJs/PHP,使用方法可参考API Explorer。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能,但该
配置Android 环境 配置环境。 在使用语音交互SDK时,需要提前配置好android系统的开发环境,如表1所示。 表1 配置环境准备项 准备项 说明 JDK Java开发环境的基础配置。版本要求:推荐使用1.8版本。 Gradle 在Gradle官网上下载好之后,配置环境变量即可。推荐使用Gradle7
Sec-WebSocket-Key 发送WebSocket握手请求时,包含该头域。 采用Base64编码的随机16字节长的字符序列。用来发送给服务器使用,服务器会使用此字段组装成另一个key值放在握手返回信息里发送客户端。 x3JJHMbDL1EzLkh9GBhXDw== Sec-WebSocket-Version
识别速度快 把语言模型、词典和声学模型统一集成为一个大的神经网络,同时在工程上进行了大量的优化,大幅提升解码速度,使识别速度在业内处于领先地位。 多种识别模式 支持多种实时语音识别模式,如流式识别、连续识别和实时识别模式,灵活适应不同应用场景。 定制化服务 可定制特定垂直领域的语言层模型