云服务器内容精选

  • 解决方法 在迁移方案设计页面的应用列表,单击操作列的“查看资源配置”,进入目的端配置表页面。 在资源配置明细区域,单击主机资源操作列的“更改目的端规格”,右侧弹出资源详情窗口。 单击主机规格后的“更改规格”,可以修改目的端主机规格和镜像。 单击磁盘对应的目的端规格处的“更改规格”,可以修改目的端磁盘的存储类型和资源总用量(磁盘容量)。Linux主机的磁盘容量可以根据源端主机磁盘的实际使用量,进行缩容,即小于源端磁盘容量。更改磁盘规格后,系统会自动判断是否进行了磁盘缩容,在主机资源配置明细列表中的“磁盘缩容”列,“是”代表已缩容;“否”代表未缩容。 系统盘容量取值范围为:40 G~1024 G 数据盘容量取值范围为:10 G~32768 G 当前仅支持Linux主机磁盘缩容,需确保缩容后容量大于源端实际使用量。 跨可用区迁移场景仅支持扩容,即使配置缩容,系统也会自动创建一个与源端磁盘容量相同的目的端磁盘。
  • 约束限制 由于x2hce-ca工具安装会有额外资源包引入,不建议在业务环境中运行。x2hce-ca工具仅支持在HCE 2.0的操作系统进行安装使用。 x2hce-ca工具支持扫描的文件格式为jar、py、pyc、bin、sh、rpm、ko。其中,只支持扫描源码为C、C++、Java和Python语言的rpm格式文件。 x2hce-ca工具不支持回滚,任务异常中断后会在/opt/x2hce-ca/目录下产生残留文件,并不影响工具再次使用。异常中断的任务请重新执行。 安装和运行x2hce-ca工具的系统参数要求如下所述。 表1 运行x2hce-ca工具的操作系统参数要求 硬件类型 说明 架构 x86_64 CPU 双核及以上 内存 系统空闲内存要求8GB及以上 硬盘 20GB及以上 父主题: x2hce-ca应用兼容性评估
  • 查看提示词评估结果 评估任务创建完成后,会跳转至“评估”页面,在该页面可以查看评估状态。 图1 查看提示词评任务状态 单击“评估名称”,进入评估任务详情页,可以查看详细的评估进度,例如在图2中有10条评估用例,当前已评估8条,剩余2条待评估。 图2 查看评估进展 评估完成后,可以查看每条数据的评估结果。 在评估结果中,“预期结果”表示变量值(问题)所预设的期望回答,“生成结果”表示模型回复的结果。通过比对“预期结果”、“生成结果”的差异可以判断提示词效果。 父主题: 批量评估提示词效果
  • 数据评估概念 数据评估旨在通过对数据集进行系统的质量检查,评估其准确性、完整性、一致性和代表性等多个维度,发现潜在问题并加以解决。 在构建和使用数据集的过程中,数据评估是确保数据质量的关键步骤,直接影响模型的性能和应用效果。高质量的数据集能够显著提升模型的准确性,并增强模型在实际应用中的可靠性与稳定性。因此,数据评估是数据工程中不可或缺的一环,帮助用户在数据准备阶段识别并解决数据中的问题,为后续的模型训练和优化奠定坚实基础。 ModelArts Studio大模型开发平台提供了全面的数据集质量评估工具,能够帮助用户从多个维度检测和优化数据集的质量。平台预设了多种数据类型的基础评估标准,用户可以直接使用这些标准,也可以根据具体的业务需求创建自定义的评估标准。通过这种灵活的配置方式,用户能够根据不同的应用场景和目标,精确地评估和优化数据质量,确保数据在进入模型训练阶段之前达到高标准,进而提升模型的性能和效果。
  • 数据集评估标准介绍 平台预置了多种数据类型的基础评估标准,用户可以直接使用这些标准,也可以根据具体的业务需求创建自定义的评估标准。 NLP数据质量标准 V1.0:ModelArts Studio大模型开发平台针对文本数据集预设了一套基础评估标准,涵盖了数据准确性、完整性、一致性、格式规范等多个维度。该标准旨在帮助用户高效评估和优化文本数据的质量,确保数据符合模型训练的要求,提升模型的性能和可靠性。用户可以直接使用该标准进行评估,也可以根据特定业务需求进行自定义调整,确保评估标准与应用场景高度契合,从而为后续的模型训练和优化提供高质量的数据支持。 视频数据质量标准 V1.0:ModelArts Studio大模型开发平台针对视频数据集预设了一套评估标准,涵盖了视频的清晰度、帧率、完整性、标签准确性等多个质量维度。该标准帮助用户评估和优化视频数据的质量,确保数据符合大模型训练的要求,提升模型的精度与可靠性。用户可以直接使用该标准进行评估,也可根据具体的业务需求自定义评估标准,确保视频数据满足不同应用场景的要求,为后续的模型训练和优化提供高质量的视频数据支持。 图片数据质量标准 V1.0:ModelArts Studio大模型开发平台针对图片数据集预设的一套评估标准,涵盖了图像清晰度、分辨率、标签准确性、图像一致性等多个质量维度。该标准帮助用户系统地评估和优化图片数据的质量,确保数据符合模型训练的要求,从而提升模型的准确性和应用效果。用户可以直接采用该标准进行评估,或根据具体业务需求自定义评估标准,以确保图片数据符合特定场景的需求,为后续的模型训练和优化提供可靠的数据支持。
  • 数据评估意义 数据评估在数据工程中的作用非常重要,它帮助用户确保数据在进入模型训练阶段之前具备高质量,从而提升模型的效果和可靠性。数据评估的主要意义体现在以下几个方面: 确保数据质量:通过评估数据集的准确性、完整性和一致性,用户可以及时发现并修复数据中的问题,确保数据符合训练标准。 提升模型性能:高质量的数据集直接影响模型的训练效果。通过准确的评估,用户能够确保数据集的高质量,进而提升模型的性能和精度。 减少数据问题带来的风险:数据中潜在的错误和缺陷可能导致模型训练不充分或效果不理想。通过数据评估,用户能够提前发现和解决这些问题,避免模型训练阶段出现数据问题。 灵活的评估标准:ModelArts Studio大模型开发平台不仅提供预设的标准,还允许用户根据不同的数据类型和业务需求创建自定义的评估标准,使评估过程更加灵活和精准。 节省时间和成本:通过自动化的数据评估功能,用户能够迅速了解数据的质量问题,减少手动检查的工作量和时间成本,为后续的数据优化和模型训练节省资源。 总的来说,数据评估为用户提供了一种高效、可靠的数据质量检测机制,使得在数据准备阶段就能够确保数据的高标准,从而为后续的模型训练和优化打下坚实基础,帮助提升大模型的精度和可靠性。
  • 网络准备 源数据库与UGO服务的网络是否打通,目前UGO连接源库仅支持公网连接。 源数据库的防火墙需要放通UGO服务的访问,使得UGO可以正常访问本地数据库。 源数据库的访问白名单限制是否对UGO服务放行,各类型数据库添加白名单的方法不同,具体方法请参考各数据库官方文档进行操作。 源数据库设置的最大连接数限制,各类型数据库最大连接数控制的参数和修改方法不同,具体方法请参考各数据库官方文档进行操作。 检查数据库连接信息是否正确,包括提供的IP地址、数据库服务名称、用户名、密码等信息。
  • 请求示例 创建名为best_UGO,源库为Oracle-11g,采集全部schema和全部支持的数据类型的评估项目。 POST https://{endpoint}/v1/0ac6eb2c8000d2ee2fd9c006dededbe6/evaluation-projects { "evaluation_project_name" : "best_UGO", "source_db_info" : { "user_name" : "ugo", "password" : "Ugo@123", "connection_string" : "100.xx.xxx.xxx:1521:ORCL", "source_db_type" : "ORACLE", "source_db_version" : "11g" }, "schemas_info" : { "is_select_all_schemas" : true, "schemas_list" : [ ] }, "objects_type_info" : { "is_select_all_objects_type" : true, "objects_type_list" : [ ] } }
  • 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 从 IAM 服务获取的用户Token。 表3 请求Body参数 参数 是否必选 参数类型 描述 evaluation_project_name 是 String 评估项目名称。长度为5-50个字符,以英文字母开头,英文字母或数字结束,允许包含下划线和中划线。不允许重复。 最小长度:5 最大长度:50 source_db_info 是 表4 object 源库信息。 schemas_info 是 表5 object 源库中的schema信息。 objects_type_info 是 表6 object 源库中的对象类型信息。 表4 SourceDBInfo 参数 是否必选 参数类型 描述 connection_string 是 String 连接字符串。 user_name 是 String 用户名。 password 是 String 用户密码。 source_db_type 是 String 数据库类型。 枚举值:ORACLE source_db_version 是 String 数据库版本。 注意: 该字段的值是数据库类型source_db_type对应的版本,当前支持以下组合: ORACLE-11g; ORACLE-12c; ORACLE-18c; ORACLE-19c。 枚举值: 11g 12c 18c 19c 表5 SchemaInfo 参数 是否必选 参数类型 描述 is_select_all_schemas 是 Boolean 是否选择全部schema。 schemas_list 否 Array of strings 需要评估的源库schema列表。is_select_all_schemas为false时,必填。 表6 ObjectTypeInfo 参数 是否必选 参数类型 描述 is_select_all_objects_type 是 Boolean 是否选择全部object类型。取值为true时,不包含USER。 objects_type_list 否 Array of strings 需要评估的object类型列表。is_select_all_objects_type为false时必填。
  • 操作场景 标签管理服务(Tag Management Service,TMS)用于用户在云平台,通过统一的标签管理各种资源。TMS服务与各服务共同实现标签管理能力,TMS提供全局标签管理能力,各服务维护自身标签管理 。 建议您先在TMS系统中设置预定义标签。 标签由“键”和“值”组成,每个标签中的一个“键”只能对应一个“值”。 每个实例最多支持10个标签配额。 用户可在创建数据库评估或对象迁移项目时添加标签,也可在项目创建成功后再添加标签。
  • 迁移风险(10大SQL风险语句)和风险SQL摘要有什么关系? 迁移风险和风险SQL摘要之间没有任何关系。 迁移风险(10大SQL风险语句):指过去7天内占用源数据库CPU和内存较高,且执行时间较长的前10条SQL语句。 风险SQL摘要:从目标数据库的角度,概述迁移风险。对于目标数据库不直接支持的某些功能,应用程序需要特别关注该风险。 风险分为不同的类别,如功能风险,性能风险等。 功能风险:例如,目标数据库不直接支持的数据类型(如取值范围)。具体可以从data_type_mismatch,table_def_mismatch,sequence_limitation方面概述。 性能风险:影响库性能的风险。例如, GaussDB 不支持分区间隔,具体可以从分布和分区方面概述。 父主题: 评估项目
  • 风险评估 用户可以在风险评估界面中,配置“质量属性评估”和“风险分析”信息,也可以自定义模块输入相关报告信息。 质量属性评估 在顶部选择测试类型,单击文本框区域,输入评估信息,单击“保存”完成创建。 风险分析 用户可以根据测试进展评估风险,单击文本框区域,输入风险分析的信息,单击“保存”完成创建。 自定义信息 单击“新建自定义信息”,新增一条信息模块。 单击模块名称可以重新定义模块标题,输入相关描述,单击完成保存。单击可以将新建的模块删除。 单击“上传附件”,可以将本地文件上传至自定义模块中。 1.上传单个文件的大小不能超过10M。 2.最多只能上传15个附件。
  • 测试报告总览 单击报告名称,默认进入测试报告的总览页面。总览页面展示了所选测试计划的相关测试数据情况。 报告项 说明 需求覆盖率 需求覆盖率反映功能点测试覆盖情况,统计所选计划关联的所有需求的测试覆盖率。需求覆盖率 = 已完成数/需求总数。 总遗留DI 统计此版本所有的遗留缺陷所算出的DI值。 说明: 所有缺陷按照严重等级进行计算。 每个缺陷DI值对应类型如下:提示:0.1 一般:1 严重(重要):3 致命(关键):10 新增DI 统计此测试计划所关联的遗留缺陷所算出的DI值。 用例执行率 统计用例的执行情况。用例执行率 = 计划内执行有执行结果的用例数量/计划内所有用例数量。 用例自动化率 非手工测试用例占所有用例数的比例,用例自动化率=(测试计划所有的用例总数-测试计划内手工测试用例数)/测试计划所有的用例总数。 用例有效性比例 发现缺陷的测试执行用例占所有测试执行用例的百分比,用例有效性比例=发现缺陷的测试执行用例数量/测试执行用例数量。 需求通过情况 需求所关联的测试用例结果都为成功时,当前需求为已通过。需求通过率=已通过需求数/需求总数。 用例通过情况 用例通过率反映产品质量,统计选中的计划下所有用例的通过率,并按用例的结果分组统计,未执行的用例计入“未执行”分组。用例通过率=成功数/总数 缺陷严重程度 显示选中的计划下关联的缺陷数量。 自动化率 通过饼图以及详细的用例数量进行展示。 非手工测试用例占所有用例数的比例,用例自动化率=(测试计划所有的用例总数-测试计划内手工测试用例数)/测试计划所有的用例总数。 各测试类型的用例通过率 显示不同测试类型的用例通过率。 缺陷按照模块分布情况 按照模块显示对应的缺陷数量。
  • 评估指标说明 模型训练完成后,可以通过一系列的评估方法来衡量模型的性能。当前支持基于规则打分,即基于相似度/准确率进行打分,对比模型预测结果与标注数据的差异,从而计算模型指标。支持的模型指标请参见下表。 表1 规则打分指标 指标名称 说明 BLEU-1 模型生成句子与实际句子在单字层面的匹配度,数值越高,表明模型性能越好。 BLEU-2 模型生成句子与实际句子在中词组层面的匹配度,数值越高,表明模型性能越好。 BLEU-4 模型生成结果和实际句子的加权平均精确率,数值越高,表明模型性能越好。 困惑度 用来衡量大语言模型预测一个语言样本的能力,数值越低,准确率也就越高,表明模型性能越好。 指标适用的任务场景 任务答案是相对比较确定的,例如固定答案的问答任务、NL2SQL、NL2JSON、文本分类等。 指标不适用的任务场景 文案创作、聊天等符合要求即可的场景,该类场景的创作型更强,不存在唯一答案。 指标与模型能力的关系 BLEU指标用于评估模型生成句子(candidate)与实际句子(reference)差异的指标。取值范围在0.0到1.0之间,值越高说明模型生成和实际答案匹配度越高。 可以作为模型能力的参考指标,当两个模型进行比较时,BLEU指标越大的模型效果一般更好。但是模型的能力还是需要通过人工评测来评判,BLEU指标只能作为参考。 指标的缺陷 BLEU指标只考虑n-gram词的重叠度,不考虑句子的结构和语义。
  • 查看提示词评估结果 评估任务创建完成后,会跳转至“评估”页面,在该页面可以查看评估状态。 图1 查看评估状态 单击评估名称,进入评估任务详情页,可以查看详细的评估进度。例如,在图2中有10条评估用例,当前已经评估了8条,剩余2条待评估。 图2 查看评估进展 评估完成后,进入“评估报告”页面,可以查看每条数据的评估结果。 在评估结果中,“预期结果”即为变量值(问题)所预设的期望回答,“生成结果”即模型回复的结果。通过比较“预期结果”与“生成结果”的差异可以判断提示词效果。 图3 查看评估报告 父主题: 批量评估提示词效果