检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
算节点中支持配置连接器,注册数据集,任务执行,查看任务执行日志。 连接器(Connector) 连接器是可信智能计算节点内置的连接特定数据源所需的对象模板,目前支持连接MRS Hive、MySQL、RDS、DWS、ORACLE等多种连接器,并支持扩展增加新的连接器。 数据集(Data
water_bal integer COMMENT '水费' ); 将下面的数据分别导入csv文件并上传到MySQL数据源所在服务器。 Tax表的数据如下: id,tax_bal,industry 123400999,745,互联网 123400998,324
执行作业时,提示“启动新任务失败,服务器任务队列超出缓存长度”,如何解决? TICS执行作业时,如果当前环境资源不足,会将任务缓存入队列中。任务队列长度默认为10。当空间缓存的任务超出长度时,界面会提示报错。 您可以通过TICS空间页查看是否有作业等待中或正在运行,等待任务运行完成或者停止其他任务后,再执行作业。
为防止资源滥用,平台限定了各服务资源的配额,对用户的资源数量和容量做了限制。如您最多可以创建多少台弹性云服务器、多少块云硬盘。 如果当前资源配额限制无法满足使用需要,您可以申请扩大配额。 怎样查看我的配额? 登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 在页面右上角,选择“资源
升级过程的相关操作记录将会保存。 由于1.20.0版本架构变化,如果需要跨1.20.0版本升级,则需要联系客服或技术支持人员,先刷新后台数据库,再通过TICS控制台进行空间升级。 如果未刷新数据库,直接通过TICS控制台将TICS 1.20.0之前版本升级到1.20.0及后续版本,则会导致升级后业务功能故障、且无法回滚。
回滚过程的相关操作记录将会保存。 由于1.20.0版本架构变化,如果需要跨1.20.0版本回滚,则需要联系客服或技术支持人员,先刷新后台数据库,再通过TICS控制台进行空间回滚。 如果未刷新数据库,直接通过TICS控制台将TICS 1.20.0及后续版本回滚到1.20.0之前版本,则会导致回滚后业务功能故障。
water_bal integer COMMENT '水费' ); 将下面的数据分别导入csv文件并上传到MySQL数据源所在服务器。 Tax表的数据如下: id,tax_bal,industry 123400999,745,互联网 123400998,324
发布数据 前提条件 计算节点已创建完成,创建方法请参考部署计算节点。 发布数据 发布数据前,若不存在已创建好的连接器和数据,需先执行创建连接器和创建数据集操作。 若待发布的数据已经创建完成,参照以下流程进入“数据管理”页,执行以下操作即可。 用户登录TICS控制台。 进入TICS
data_type String 数据类型,DWS.DWS类型数据集,LOCAL_CSV.本地文件类型数据集,MRS.HIVE类型数据集,MYSQL.MySql类型数据集,ORACLE.Oracle类型数据集,RDS.RDS类型数据集 description String 描述 id String
Failed 未满足前提条件,服务器未满足请求者在请求中设置的其中一个前提条件。 413 Request Entity Too Large 由于请求的实体过大,服务器无法处理,因此拒绝请求。为防止客户端的连续请求,服务器可能会关闭连接。如果只是服务器暂时无法处理,则会包含一个Retry-After的响应信息。
算节点只能选择LOCAL。 执行脚本 用户本地的自定义执行脚本,样例请参考准备本地横向联邦数据资源中步骤4。 训练模型 用户自定义模型,样例请参考准备本地横向联邦数据资源中步骤3。 初始权重参数 评估时必填,训练时可选,样例请参考准备本地横向联邦数据资源中步骤3。 迭代次数 即epoch,数据迭代计算的次数。
是否必选 参数类型 描述 dataset_type 是 String 数据集类型,按照传入枚举类型,返回所属作业类型的数据集。例如:传入MYSQL,返回分析作业可用的数据集;传入LOCAL_CSV,返回学习作业可用数据集 agent_id 否 String 可信计算节点id,最大32位,由字母和数字组成
发任务给各个数据参与方所在的计算节点。 参与方计算节点从租户侧网络内的数据中获取数据,并使用安全算法进行加密输出。 数据在TICS提供的服务器中进行机密计算。 最终将计算完成的结果加密返回给作业发起方。 空间的整体配置通过空间管理员进行统一管理。 父主题: 多方安全计算场景
DEPLOYING, TERMINATING; data_count Long 样本对齐数据量 obs_path String obs/本地文件路径 start_time String 开始时间 end_time String 结束时间 result_ext String 样本对齐结果
的诉求。同时,在云端提供统一的设备/应用监控、日志采集等运维能力,为企业提供完整的边缘和云协同的一体化服务的边缘计算解决方案。 前提条件 本地存在下载好的空间信息和证书文件,下载方式参考下载计算节点配置信息。 若需将执行过程记录审计至区块链,请确保当前加入的空间已开启区块链审计服
的诉求。同时,在云端提供统一的设备/应用监控、日志采集等运维能力,为企业提供完整的边缘和云协同的一体化服务的边缘计算解决方案。 前提条件 本地存在下载好的空间信息和证书文件,下载方式参考下载计算节点配置信息。 若需将执行过程记录审计至区块链,请确保当前加入的空间已开启区块链审计服
result_storage_region_name String 结果所在region name,最大长度128 obs_path String obs/本地文件路径,最大长度256 counter_map Map<String,Integer> 实例统计,最大长度1024 请求示例 查询学习类型作业执行结果
fl作业类型枚举。TRAIN(训练),EVALUATE(评估)。 hfl_platform_type 否 String 联邦学习运行平台枚举值。LOCAL(本地),MODEL_ARTS(modelarts) agent_id 是 String 作业发起可信计算节点id,最大32位,由字母和数字组成
制台。 图1 前往计算节点 登录计算节点后,在下图所述位置新建连接器。 图2 新建连接器 输入正确的连接信息,建立数据源和计算节点之间的安全连接。 图3 输入信息 建立完成后,连接器显示正常说明连接正常。 图4 连接正常 进入数据管理,进行数据集发布。 图5 新建数据管理 填写参数信息。
制台。 图1 前往计算节点 登录计算节点后,在下图所述位置新建连接器。 图2 新建连接器 输入正确的连接信息,建立数据源和计算节点之间的安全连接。 图3 输入信息 建立完成后,连接器显示正常说明连接正常。 图4 连接正常 进入数据管理,进行数据集发布。 图5 新建数据管理 填写参数信息。