检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
的数据对象 方法的执行依赖于Workflow对象的名称:当该名称的工作流不存在时,则创建新工作流并创建新执行;当该名称的工作流已存在时,则更新存在的工作流并基于新的工作流结构创建新的执行 workflow.release_and_run() 发布Workflow至运行态并运行 该
t5xxl_fp16.safetensors 以上4个权重文件全部上传到宿主机工作目录${work_dir}/下。 下载lora训练所需模型权重 FLUX.1-dev下载链接:https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main
error_code String 删除该模型失败的错误码。 model_id String 删除失败的模型id。 请求示例 DELETE https://{endpoint}/v1/{project_id}/models/{model_id} 响应示例 状态码:200 删除成功或者失败的提示信息。
_work_dir}路径下; cd ${container_work_dir} wget http://images.cocodataset.org/zips/train2014.zip && unzip train2014.zip wget https://github.co
如下以查询uuid为2cd88daa-31a4-40a8-a58f-d186b0e93e4f的训练作业对应worker-0镜像保存任务为例。 GET https://endpoint/v2/{project_id}/training-jobs/2cd88daa-31a4-40a8-a58f-d1
超参搜索算法的参数取值。 type String 超参搜索算法的参数类型。 请求示例 查询0代码超参搜索支持的搜索算法的信息。 GET https://endpoint/v2/{project_id}/search-algorithms 响应示例 状态码:200 ok { "search_algo_count"
接口启动2种方式。详细启动服务与请求方式参考:https://docs.vllm.ai/en/latest/getting_started/quickstart.html。 以下服务启动介绍的是在线推理方式,离线推理请参见https://docs.vllm.ai/en/lates
String 语言。可选值如下: zh-cn:中文 en-us:英文(默认值) sample_state 否 String 查询指定样本状态下的统计信息。可选样本状态如下: __ALL__:已标注 __NONE__:未标注 __UNCHECK__:待验收 __ACCEPTED__:验收通过
n_train.sh进行变量的初始化,如AK/SK。run_train.sh后跟python是保证python文件能在已经初始化的变量环境下执行,即使用run_train.sh去启动python。 表3 data_source 参数列表 参数 是否必选 参数类型 说明 dataset_id
只支持自定义镜像导入模型部署的在线服务。 准备工作 ModelArts使用WebSocket完成推理需要用户自己准备自定义镜像,该自定义镜像需要在单机环境下能够提供完整的WebSocket服务,如完成WebSocket的握手,client向server发送数据,server向client发送数据
= OpenAI( api_key="您的 APIKEY", # 从MaaS控制台鉴权管理处获取。 base_url="https://infer-modelarts.cn-east-4.myhuaweicloud.com/v1/infers/xxxxxx/v1"
参数 参数类型 描述 name String 资源指标的名称。 labels Object 资源指标的标签信息。 请求示例 GET https://{endpoint}/v2/{project_id}/metrics/runtime/pools 响应示例 状态码:200 OK。
数据集 设置环境变量。 export EAGLE_TARIN_MODE=1 如果使用开源数据集,推荐使用原论文代码仓数据集,下载地址:https://huggingface.co/datasets/Aeala/ShareGPT_Vicuna_unfiltered/blob/main/ShareGPT_V4
数据集 设置环境变量。 export EAGLE_TARIN_MODE=1 如果使用开源数据集,推荐使用原论文代码仓数据集,下载地址:https://huggingface.co/datasets/Aeala/ShareGPT_Vicuna_unfiltered/blob/main/ShareGPT_V4
数据集 设置环境变量。 export EAGLE_TARIN_MODE=1 如果使用开源数据集,推荐使用原论文代码仓数据集,下载地址:https://huggingface.co/datasets/Aeala/ShareGPT_Vicuna_unfiltered/blob/main/ShareGPT_V4
接口启动2种方式。详细启动服务与请求方式参考:https://docs.vllm.ai/en/latest/getting_started/quickstart.html。 以下服务启动介绍的是在线推理方式,离线推理请参见https://docs.vllm.ai/en/lates
models Array of ModelListItem objects 模型元数据信息。 total_count Integer 不分页的情况下符合查询条件的总模型数量。 count Integer 符合查询条件的模型数量。 表5 ModelListItem 参数 参数类型 描述 owner
String 团队标注任务ID。 表2 Query参数 参数 是否必选 参数类型 描述 sample_state 否 String 查询指定样本状态下的统计信息。可选样本状态如下: __ALL__:已标注 __NONE__:未标注 __UNCHECK__:待验收 __ACCEPTED__:验收通过
String 用户token。 响应参数 状态码:200 表4 响应Body参数 参数 参数类型 描述 count Integer 不分页的情况下符合查询条件的总数量。 total_count Integer 当前查询结果的数量,不设置offset、limit查询参数时,count与total相同。
样本列表。样本属性请见表3。 表3 sample样本属性 参数 参数类型 描述 source String 被标注对象的URI,支持OBS、HTTPS、Content。其中Content为文本内容,例如:“source”:“s3://path-to-jpg”,“source”:“content://I