云服务器内容精选
-
解决方法 在迁移方案设计页面的应用列表,单击操作列的“查看资源配置”,进入目的端配置表页面。 在资源配置明细区域,单击主机资源操作列的“更改目的端规格”,右侧弹出资源详情窗口。 单击主机规格后的“更改规格”,可以修改目的端主机规格和镜像。 单击磁盘对应的目的端规格处的“更改规格”,可以修改目的端磁盘的存储类型和资源总用量(磁盘容量)。Linux主机的磁盘容量可以根据源端主机磁盘的实际使用量,进行缩容,即小于源端磁盘容量。更改磁盘规格后,系统会自动判断是否进行了磁盘缩容,在主机资源配置明细列表中的“磁盘缩容”列,“是”代表已缩容;“否”代表未缩容。 系统盘容量取值范围为:40 G~1024 G 数据盘容量取值范围为:10 G~32768 G 当前仅支持Linux主机磁盘缩容,需确保缩容后容量大于源端实际使用量。 跨可用区迁移场景仅支持扩容,即使配置缩容,系统也会自动创建一个与源端磁盘容量相同的目的端磁盘。
-
约束限制 由于x2hce-ca工具安装会有额外资源包引入,不建议在业务环境中运行。x2hce-ca工具仅支持在HCE 2.0的操作系统进行安装使用。 x2hce-ca工具支持扫描的文件格式为jar、py、pyc、bin、sh、rpm、ko。其中,只支持扫描源码为C、C++、Java和Python语言的rpm格式文件。 x2hce-ca工具不支持回滚,任务异常中断后会在/opt/x2hce-ca/目录下产生残留文件,并不影响工具再次使用。异常中断的任务请重新执行。 安装和运行x2hce-ca工具的系统参数要求如下所述。 表1 运行x2hce-ca工具的操作系统参数要求 硬件类型 说明 架构 x86_64 CPU 双核及以上 内存 系统空闲内存要求8GB及以上 硬盘 20GB及以上 父主题: x2hce-ca应用兼容性评估
-
查看提示词评估结果 评估任务创建完成后,会跳转至“评估”页面,在该页面可以查看评估状态。 图1 查看提示词评任务状态 单击“评估名称”,进入评估任务详情页,可以查看详细的评估进度,例如在图2中有10条评估用例,当前已评估8条,剩余2条待评估。 图2 查看评估进展 评估完成后,可以查看每条数据的评估结果。 在评估结果中,“预期结果”表示变量值(问题)所预设的期望回答,“生成结果”表示模型回复的结果。通过比对“预期结果”、“生成结果”的差异可以判断提示词效果。 父主题: 批量评估提示词效果
-
数据评估概念 数据评估旨在通过对数据集进行系统的质量检查,评估其准确性、完整性、一致性和代表性等多个维度,发现潜在问题并加以解决。 在构建和使用数据集的过程中,数据评估是确保数据质量的关键步骤,直接影响模型的性能和应用效果。高质量的数据集能够显著提升模型的准确性,并增强模型在实际应用中的可靠性与稳定性。因此,数据评估是数据工程中不可或缺的一环,帮助用户在数据准备阶段识别并解决数据中的问题,为后续的模型训练和优化奠定坚实基础。 ModelArts Studio大模型开发平台提供了全面的数据集质量评估工具,能够帮助用户从多个维度检测和优化数据集的质量。平台预设了多种数据类型的基础评估标准,用户可以直接使用这些标准,也可以根据具体的业务需求创建自定义的评估标准。通过这种灵活的配置方式,用户能够根据不同的应用场景和目标,精确地评估和优化数据质量,确保数据在进入模型训练阶段之前达到高标准,进而提升模型的性能和效果。
-
数据集评估标准介绍 平台预置了多种数据类型的基础评估标准,用户可以直接使用这些标准,也可以根据具体的业务需求创建自定义的评估标准。 NLP数据质量标准 V1.0:ModelArts Studio大模型开发平台针对文本数据集预设了一套基础评估标准,涵盖了数据准确性、完整性、一致性、格式规范等多个维度。该标准旨在帮助用户高效评估和优化文本数据的质量,确保数据符合模型训练的要求,提升模型的性能和可靠性。用户可以直接使用该标准进行评估,也可以根据特定业务需求进行自定义调整,确保评估标准与应用场景高度契合,从而为后续的模型训练和优化提供高质量的数据支持。 视频数据质量标准 V1.0:ModelArts Studio大模型开发平台针对视频数据集预设了一套评估标准,涵盖了视频的清晰度、帧率、完整性、标签准确性等多个质量维度。该标准帮助用户评估和优化视频数据的质量,确保数据符合大模型训练的要求,提升模型的精度与可靠性。用户可以直接使用该标准进行评估,也可根据具体的业务需求自定义评估标准,确保视频数据满足不同应用场景的要求,为后续的模型训练和优化提供高质量的视频数据支持。 图片数据质量标准 V1.0:ModelArts Studio大模型开发平台针对图片数据集预设的一套评估标准,涵盖了图像清晰度、分辨率、标签准确性、图像一致性等多个质量维度。该标准帮助用户系统地评估和优化图片数据的质量,确保数据符合模型训练的要求,从而提升模型的准确性和应用效果。用户可以直接采用该标准进行评估,或根据具体业务需求自定义评估标准,以确保图片数据符合特定场景的需求,为后续的模型训练和优化提供可靠的数据支持。
-
数据评估意义 数据评估在数据工程中的作用非常重要,它帮助用户确保数据在进入模型训练阶段之前具备高质量,从而提升模型的效果和可靠性。数据评估的主要意义体现在以下几个方面: 确保数据质量:通过评估数据集的准确性、完整性和一致性,用户可以及时发现并修复数据中的问题,确保数据符合训练标准。 提升模型性能:高质量的数据集直接影响模型的训练效果。通过准确的评估,用户能够确保数据集的高质量,进而提升模型的性能和精度。 减少数据问题带来的风险:数据中潜在的错误和缺陷可能导致模型训练不充分或效果不理想。通过数据评估,用户能够提前发现和解决这些问题,避免模型训练阶段出现数据问题。 灵活的评估标准:ModelArts Studio大模型开发平台不仅提供预设的标准,还允许用户根据不同的数据类型和业务需求创建自定义的评估标准,使评估过程更加灵活和精准。 节省时间和成本:通过自动化的数据评估功能,用户能够迅速了解数据的质量问题,减少手动检查的工作量和时间成本,为后续的数据优化和模型训练节省资源。 总的来说,数据评估为用户提供了一种高效、可靠的数据质量检测机制,使得在数据准备阶段就能够确保数据的高标准,从而为后续的模型训练和优化打下坚实基础,帮助提升大模型的精度和可靠性。
-
网络准备 源数据库与UGO服务的网络是否打通,目前UGO连接源库仅支持公网连接。 源数据库的防火墙需要放通UGO服务的访问,使得UGO可以正常访问本地数据库。 源数据库的访问白名单限制是否对UGO服务放行,各类型数据库添加白名单的方法不同,具体方法请参考各数据库官方文档进行操作。 源数据库设置的最大连接数限制,各类型数据库最大连接数控制的参数和修改方法不同,具体方法请参考各数据库官方文档进行操作。 检查数据库连接信息是否正确,包括提供的IP地址、数据库服务名称、用户名、密码等信息。
-
请求示例 创建名为best_UGO,源库为Oracle-11g,采集全部schema和全部支持的数据类型的评估项目。 POST https://{endpoint}/v1/0ac6eb2c8000d2ee2fd9c006dededbe6/evaluation-projects { "evaluation_project_name" : "best_UGO", "source_db_info" : { "user_name" : "ugo", "password" : "Ugo@123", "connection_string" : "100.xx.xxx.xxx:1521:ORCL", "source_db_type" : "ORACLE", "source_db_version" : "11g" }, "schemas_info" : { "is_select_all_schemas" : true, "schemas_list" : [ ] }, "objects_type_info" : { "is_select_all_objects_type" : true, "objects_type_list" : [ ] } }
-
请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 从 IAM 服务获取的用户Token。 表3 请求Body参数 参数 是否必选 参数类型 描述 evaluation_project_name 是 String 评估项目名称。长度为5-50个字符,以英文字母开头,英文字母或数字结束,允许包含下划线和中划线。不允许重复。 最小长度:5 最大长度:50 source_db_info 是 表4 object 源库信息。 schemas_info 是 表5 object 源库中的schema信息。 objects_type_info 是 表6 object 源库中的对象类型信息。 表4 SourceDBInfo 参数 是否必选 参数类型 描述 connection_string 是 String 连接字符串。 user_name 是 String 用户名。 password 是 String 用户密码。 source_db_type 是 String 数据库类型。 枚举值:ORACLE source_db_version 是 String 数据库版本。 注意: 该字段的值是数据库类型source_db_type对应的版本,当前支持以下组合: ORACLE-11g; ORACLE-12c; ORACLE-18c; ORACLE-19c。 枚举值: 11g 12c 18c 19c 表5 SchemaInfo 参数 是否必选 参数类型 描述 is_select_all_schemas 是 Boolean 是否选择全部schema。 schemas_list 否 Array of strings 需要评估的源库schema列表。is_select_all_schemas为false时,必填。 表6 ObjectTypeInfo 参数 是否必选 参数类型 描述 is_select_all_objects_type 是 Boolean 是否选择全部object类型。取值为true时,不包含USER。 objects_type_list 否 Array of strings 需要评估的object类型列表。is_select_all_objects_type为false时必填。
-
操作场景 标签管理服务(Tag Management Service,TMS)用于用户在云平台,通过统一的标签管理各种资源。TMS服务与各服务共同实现标签管理能力,TMS提供全局标签管理能力,各服务维护自身标签管理 。 建议您先在TMS系统中设置预定义标签。 标签由“键”和“值”组成,每个标签中的一个“键”只能对应一个“值”。 每个实例最多支持10个标签配额。 用户可在创建数据库评估或对象迁移项目时添加标签,也可在项目创建成功后再添加标签。
-
迁移风险(10大SQL风险语句)和风险SQL摘要有什么关系? 迁移风险和风险SQL摘要之间没有任何关系。 迁移风险(10大SQL风险语句):指过去7天内占用源数据库CPU和内存较高,且执行时间较长的前10条SQL语句。 风险SQL摘要:从目标数据库的角度,概述迁移风险。对于目标数据库不直接支持的某些功能,应用程序需要特别关注该风险。 风险分为不同的类别,如功能风险,性能风险等。 功能风险:例如,目标数据库不直接支持的数据类型(如取值范围)。具体可以从data_type_mismatch,table_def_mismatch,sequence_limitation方面概述。 性能风险:影响库性能的风险。例如, GaussDB 不支持分区间隔,具体可以从分布和分区方面概述。 父主题: 评估项目
-
风险评估 用户可以在风险评估界面中,配置“质量属性评估”和“风险分析”信息,也可以自定义模块输入相关报告信息。 质量属性评估 在顶部选择测试类型,单击文本框区域,输入评估信息,单击“保存”完成创建。 风险分析 用户可以根据测试进展评估风险,单击文本框区域,输入风险分析的信息,单击“保存”完成创建。 自定义信息 单击“新建自定义信息”,新增一条信息模块。 单击模块名称可以重新定义模块标题,输入相关描述,单击完成保存。单击可以将新建的模块删除。 单击“上传附件”,可以将本地文件上传至自定义模块中。 1.上传单个文件的大小不能超过10M。 2.最多只能上传15个附件。
-
测试报告总览 单击报告名称,默认进入测试报告的总览页面。总览页面展示了所选测试计划的相关测试数据情况。 报告项 说明 需求覆盖率 需求覆盖率反映功能点测试覆盖情况,统计所选计划关联的所有需求的测试覆盖率。需求覆盖率 = 已完成数/需求总数。 总遗留DI 统计此版本所有的遗留缺陷所算出的DI值。 说明: 所有缺陷按照严重等级进行计算。 每个缺陷DI值对应类型如下:提示:0.1 一般:1 严重(重要):3 致命(关键):10 新增DI 统计此测试计划所关联的遗留缺陷所算出的DI值。 用例执行率 统计用例的执行情况。用例执行率 = 计划内执行有执行结果的用例数量/计划内所有用例数量。 用例自动化率 非手工测试用例占所有用例数的比例,用例自动化率=(测试计划所有的用例总数-测试计划内手工测试用例数)/测试计划所有的用例总数。 用例有效性比例 发现缺陷的测试执行用例占所有测试执行用例的百分比,用例有效性比例=发现缺陷的测试执行用例数量/测试执行用例数量。 需求通过情况 需求所关联的测试用例结果都为成功时,当前需求为已通过。需求通过率=已通过需求数/需求总数。 用例通过情况 用例通过率反映产品质量,统计选中的计划下所有用例的通过率,并按用例的结果分组统计,未执行的用例计入“未执行”分组。用例通过率=成功数/总数 缺陷严重程度 显示选中的计划下关联的缺陷数量。 自动化率 通过饼图以及详细的用例数量进行展示。 非手工测试用例占所有用例数的比例,用例自动化率=(测试计划所有的用例总数-测试计划内手工测试用例数)/测试计划所有的用例总数。 各测试类型的用例通过率 显示不同测试类型的用例通过率。 缺陷按照模块分布情况 按照模块显示对应的缺陷数量。
-
评估指标说明 模型训练完成后,可以通过一系列的评估方法来衡量模型的性能。当前支持基于规则打分,即基于相似度/准确率进行打分,对比模型预测结果与标注数据的差异,从而计算模型指标。支持的模型指标请参见下表。 表1 规则打分指标 指标名称 说明 BLEU-1 模型生成句子与实际句子在单字层面的匹配度,数值越高,表明模型性能越好。 BLEU-2 模型生成句子与实际句子在中词组层面的匹配度,数值越高,表明模型性能越好。 BLEU-4 模型生成结果和实际句子的加权平均精确率,数值越高,表明模型性能越好。 困惑度 用来衡量大语言模型预测一个语言样本的能力,数值越低,准确率也就越高,表明模型性能越好。 指标适用的任务场景 任务答案是相对比较确定的,例如固定答案的问答任务、NL2SQL、NL2JSON、文本分类等。 指标不适用的任务场景 文案创作、聊天等符合要求即可的场景,该类场景的创作型更强,不存在唯一答案。 指标与模型能力的关系 BLEU指标用于评估模型生成句子(candidate)与实际句子(reference)差异的指标。取值范围在0.0到1.0之间,值越高说明模型生成和实际答案匹配度越高。 可以作为模型能力的参考指标,当两个模型进行比较时,BLEU指标越大的模型效果一般更好。但是模型的能力还是需要通过人工评测来评判,BLEU指标只能作为参考。 指标的缺陷 BLEU指标只考虑n-gram词的重叠度,不考虑句子的结构和语义。
-
查看提示词评估结果 评估任务创建完成后,会跳转至“评估”页面,在该页面可以查看评估状态。 图1 查看评估状态 单击评估名称,进入评估任务详情页,可以查看详细的评估进度。例如,在图2中有10条评估用例,当前已经评估了8条,剩余2条待评估。 图2 查看评估进展 评估完成后,进入“评估报告”页面,可以查看每条数据的评估结果。 在评估结果中,“预期结果”即为变量值(问题)所预设的期望回答,“生成结果”即模型回复的结果。通过比较“预期结果”与“生成结果”的差异可以判断提示词效果。 图3 查看评估报告 父主题: 批量评估提示词效果
更多精彩内容
CDN加速
GaussDB
文字转换成语音
免费的服务器
如何创建网站
域名网站购买
私有云桌面
云主机哪个好
域名怎么备案
手机云电脑
SSL证书申请
云点播服务器
免费OCR是什么
电脑云桌面
域名备案怎么弄
语音转文字
文字图片识别
云桌面是什么
网址安全检测
网站建设搭建
国外CDN加速
SSL免费证书申请
短信批量发送
图片OCR识别
云数据库MySQL
个人域名购买
录音转文字
扫描图片识别文字
OCR图片识别
行驶证识别
虚拟电话号码
电话呼叫中心软件
怎么制作一个网站
Email注册网站
华为VNC
图像文字识别
企业网站制作
个人网站搭建
华为云计算
免费租用云托管
云桌面云服务器
ocr文字识别免费版
HTTPS证书申请
图片文字识别转换
国外域名注册商
使用免费虚拟主机
云电脑主机多少钱
鲲鹏云手机
短信验证码平台
OCR图片文字识别
SSL证书是什么
申请企业邮箱步骤
免费的企业用邮箱
云免流搭建教程
域名价格