检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
API 文本审核 图像审核 音频审核 视频审核 音频流审核 视频流审核 文档内容审核
SDK调用示例 文本审核 图像审核 音频审核 视频审核 音频流审核 视频流审核 文档审核 父主题: 使用SDK(.NET)
SDK调用示例 文本审核 图像审核 音频审核 视频审核 音频流审核 视频流审核 文档审核 父主题: 使用SDK(GO)
SDK调用示例 文本审核 图像审核 音频审核 视频审核 音频流审核 视频流审核 文档审核 父主题: 使用SDK(Java)
SDK调用示例 文本审核 图像审核 音频审核 视频审核 音频流审核 视频流审核 文档审核 父主题: 使用SDK(Node.js)
SDK调用示例 文本审核 图像审核 音频审核 视频审核 音频流审核 视频流审核 文档审核 父主题: 使用SDK(Python)
SDK调用示例 文本审核 图像审核 音频审核 视频审核 音频流审核 视频流审核 文档审核 父主题: 使用SDK(PHP)
内容审核(Content Moderation),是基于图像、文本、音频、视频的检测技术,可自动检测涉黄、涉暴、图文违规等内容,用户通过调用API对上传的图片、文字、音视频进行内容审核,获取推理结果,帮助用户打造智能化业务系统提升业务效率。 使用本服务的操作流程如下所示: 图1 使用流程 表1 使用流程说明
内容审核(V3)版本共包含文本审核、图像审核、音频审核、视频审核、音频流审核、视频流审核、文档内容审核7个服务,其中文本审核和图像审核与V2版本的文本审核、图像审核计费一致,其余服务均为V3版本的新服务,不涉及。 如何对接内容审核(V3)版本? 在内容审核资料页,根据内容审核(V3)版本的《API参考》资料适配对接。
期内,且无法退还费用。 超过套餐包内额度的部分转按需计费后,按当月累计调用量落入的阶梯计费。 套餐包余量可登录内容审核控制台在“费用与成本 > 我的套餐”中查看。 欠费 按需购买的接口是按照每小时扣费,当账户的余额不足时,无法对上一个小时的费用进行扣费,就会导致欠费。 您续费后可
库中配置的内容。 登录内容审核服务管理控制台。 在左侧菜单栏中选择“设置>自定义词库 V2”,在“自定义词库 V2”页面单击“白词库”页签下的“创建词库”按钮,会弹出“创建词库”窗口。 图1 创建词库 在窗口中填写词库名称,输入新增的白名单关键词。单击“确定”,完成词库的创建。
本地调用 内容审核软件开发工具包(Moderation SDK)是对内容审核提供的REST API进行的封装,以简化用户的开发工作。用户通过添加依赖或下载的方式调用API即可实现使用内容审核业务能力的目的。 本章节以文本内容审核为例,介绍如何使用Moderation Python
给用户授权内容审核权限流程 步骤1:创建用户组并授权 用户组是用户的集合,IAM通过用户组功能实现用户的授权。您在IAM中创建的用户,需要加入特定用户组后,用户才具备用户组所拥有的权限。关于创建用户组并给用户组授权的方法,可以参考如下操作。 使用注册的华为账号登录华为云,登录时请选择“账号登录”。 进入华为云控制台,
文本审核不支持word文件直接上传,只能通过调用API接口的方式,分析并识别用户上传的文本内容是否有敏感内容,并将识别结果返回给您。调用方法请参考《内容审核-文本入门》。 建议您先把word文件中字符串提取出来 ,然后分批、分字段调用服务的API接口,进行文本审核。 父主题: API使用类
terrorism:暴恐元素的检测。 porn:涉黄内容元素的检测。 ad:广告图文的检测。 all:包含terrorism和porn场景的检测。 可通过配置上述场景,来完对应场景元素的检测。 为空或无此参数表示terrorism检测,但不包含porn场景。 说明: 每个检测场景的检测次数会分类统计。
二维码位置信息,该数组有四个值,分别代表左上角的坐标和右下角的坐标。 例如:[207,522,340,567],207代表的是左上角的横坐标,522代表左上角的纵坐标,340代表的是右下角的横坐标,567代表的是右下角的纵坐标。 qr_content String 图片中二维码指向的链接,当请求参数cat
Array of strings 视频流中画面需要检测的风险类型,列表不能为空。 可选择的风险类型如下: porn:鉴黄内容的检测 terrorism:暴恐内容的检测 image_text:图文违规内容的检测(检测图片中出现的广告、色情、暴恐的文字违规内容以及二维码内容) audio_categories
否 Array of strings 视频中画面需要检测的风险类型,列表不能为空。 terrorism:暴恐内容的检测 porn:鉴黄内容的检测 image_text:图文违规内容的检测(检测图片中出现的广告、色情、暴恐的文字违规内容以及二维码内容) audio_categories
strings 网页视频中音频需要检测的风险类型,不传或为空时表示不审核网页视频中音频的内容, 可取值如下: porn:涉黄检测 ad:广告检测 abuse:辱骂检测 moan:娇喘检测 callback 否 String 该字段非空时,检测结果会回调通知您的URL。该字段为空时,您需要定时轮询获取检测结果。
用户自定义场景为:自定义黑名单词库。 说明: 默认场景采用人工智能文本检测技术识别您所上传的文本内容,自定义场景可通过您自行配置黑名单词库来过滤和检测指定文本内容。 自定义黑名单词库的名称指定给categories就是设置自定义的场景,自定义词库的创建和使用请参见配置自定义词库。 flood场景不支持使用自定义白名单词库。