检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
工作负载。 自定义变量 单击“添加”设置键值对形式的应答。也可以进行批量添加,批量添加格式为{"k1":"v1","k2":"v2"}。 可单击“复制”,复制已设置的键值对应答,复制的应答格式为{"k1":"v1","k2":"v2"}。 创建aiopslogdaemonset、
日志空间是日志服务为微服务的日志分配的使用空间。 业务须在日志接入页面填写日志相关信息并提交申请日志空间,日志空间支持定义空间内日志的结构化格式信息,此时要求所有使用此空间的日志都满足该日志格式。 日志采集配置 日志采集配置是日志服务采集端在采集微服务实例中日志时所需的配置,一种日志对应一项采集配置。 日志
个统计点,选择秒级,每一秒会生成一个统计点。 汇聚时间戳 仅支持时间戳格式字段timestamp,获取当前计算的日志的时间。 时间戳格式 选择时间戳格式。支持秒、毫秒、纳秒级时间戳,获取当前计算的日志的时间格式。 汇聚维度 结合业务场景需要,选择日志是以哪些日志字段进行日志汇聚,支持多选。
dBalancer::SLB。 表1 SLB实例字段说明 参数名 类型 是否必选 说明 version String 是 SLB部署版本,格式为1.4.15,不带后缀,请和SLB管理台所选版本号区分。 flavor String 是 规格:2C8G、4C16G、8C32G、16C64G
#仓库状态,0:仓库正常创建成功,1:仓库创建中,2:创建失败,3:仓库冻结,4:仓库已经关闭 "https_url": "string", #使用HTTPS克隆仓库时所使用的URL "ssh_url": "string", #使用SSH方式克隆仓库时所使用的URL
angeIP。 当匹配项类型为自定义参数或path时,仅支持:equal、sha256、pattern 值 对应匹配的值。 上传文件格式为TXT格式,多个数据用“,”分隔,文件大小不能超过102400B。 当匹配条件为equal时,例如填写1,2,3,表示1或2或3都可匹配。 当匹配条件为rangeIP时,填写样例:
angeIP。 当匹配项类型为自定义参数或path时,仅支持:equal、sha256、pattern 值 对应匹配的值。 上传文件格式为TXT格式,多个数据用“,”分隔,文件大小不能超过102400B。 当匹配条件为equal时,例如填写1,2,3,表示1或2或3都可匹配。 当匹配条件为rangeIP时,填写样例:
angeIP。 当匹配项类型为自定义参数或path时,仅支持:equal、sha256、pattern 值 对应匹配的值。 上传文件格式为TXT格式,多个数据用“,”分隔,文件大小不能超过102400B。 当匹配条件为equal时,例如填写1,2,3,表示1或2或3都可匹配。 当匹配条件为rangeIP时,填写样例:
AI原生应用引擎支持所有数据集进行数据标注吗? 进行标注的数据集必须同时满足用途为“模型训练”、任务领域为“自然语言处理”、任务子领域为“文本生成”、数据集格式为“对话文本”四个条件。 父主题: AI原生应用引擎
angeIP。 当匹配项类型为自定义参数或path时,仅支持:equal、sha256、pattern 值 对应匹配的值。 上传文件格式为TXT格式,多个数据用“,”分隔,文件大小不能超过102400B。 当匹配条件为equal时,例如填写1,2,3,表示1或2或3都可匹配。 当匹配条件为rangeIP时,填写样例:
大模型微调需要的数据有要求吗? AI原生应用引擎用于大模型微调的数据集任务领域为“自然语言处理”、数据集格式为“对话文本”。 文件内容要求为标准json数组,例如: [{"instruction": "aaa", "input": "aaa", "output": "aaa"},{"instruction":
语言 在下拉列表选择转换成的语言种类“中文”或“英文”,默认为音频文件原语言,可以做语言翻译任务。 输出格式 可选格式包括: json verbose_json 分段粒度 当“输出格式”为“verbose_json”时,需配置此参数。 可选包括: segment:较短的文本片段。 word:单个的中文汉字或英文单词。
SLB同步异常相关问题 SSL_do_handshake() failed test nginx: nginx: [emerg] host not found in upstream "后端服务器名称" in /.../server...conf:17 nginx: .../nginx
输入子工作流的ID和输入参数,即可调用子工作流。 调用子工作流节点的输入和输出通常以JSON格式传递,因此,一般在调用子工作流节点前添加一个JSON构造器节点,将对象转换为JSON格式字符串,在调用子工作流节点后添加一个JSON解析动作,用于解析调用子工作流的输出,提供给后续节点使用,如图1所示。
Kafka”,进入Kafka页面。 在列表中找到保存指标数据的Topic,单击该Topic所在行的“编辑”。 在编辑页面,数据格式定义中单击“从最新位置获取数据格式”或“从最早位置获取数据格式”,如图2所示。可以获取到数据结构,数据字段说明如表2所示,然后单击“确定”。 图2 获取数据结构 表2 CES数据字段说明
Kafka”,进入Kafka页面。 在列表中找到保存指标数据的Topic,单击该Topic所在行的“编辑”。 在编辑页面,数据格式定义中单击“从最新位置获取数据格式”或“从最早位置获取数据格式”,如图2所示。可以获取到数据结构,数据字段说明如表2所示,然后单击“确定”。 图2 获取数据结构 表2 CES数据字段说明
后,可通过source ~/.bashrc或重启机器,再启动agent进行数据采集。 数据模型定义 业务写入告警文件时,为Json格式字符串。具体格式如下表,其中字段长度等限制建议遵循表格规定,否则可能会导致未定义行为,告警可能失败。 业务文件中的数据需要按照监控系统的要求定义,
tf中,需要修改规则时只能重新发布IAC版本;meta模式的规则配置在meta.json文件中,使用IAC部署时可以直接修改。两种模式二选一即可,也可以根据规则格式自行编写IAC代码。 将olc目录复制到tfinstance下,自行在meta.json中添加资源组,调用olc即可。 将olc目录复制到
tf中,需要修改规则时只能重新发布IAC版本;meta模式的规则配置在meta.json文件中,使用IAC部署时可以直接修改。两种模式二选一即可,也可以根据规则格式自行编写IAC代码。 将olc目录复制到tfinstance下,自行在meta.json中添加资源组,调用olc即可。 将olc目录复制到
172.25.100.43:2379,172.25.101.42:2379", 排查定位 登录SLB实例主机,执行命令curl -k -v https://172.25.100.42:2379检查网络是否通畅。 若网络不通,执行命令ps -ef|grep easyconf,检查进程是否存在。