检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
/home/ma-user/work/models/llama-2-13b-chat-hf 【必改】。加载tokenizer与Hugging Face权重时,对应的存放地址。请根据实际规划修改。 OUTPUT_SAVE_DIR /home/ma-user/work/AscendFactory/saved_dir_for_output/
使用自定义引擎在ModelArts Standard创建模型 使用自定义引擎创建模型,用户可以通过选择自己存储在SWR服务中的镜像作为模型的引擎,指定预先存储于OBS服务中的文件目录路径作为模型包来创建模型,轻松地应对ModelArts平台预置引擎无法满足个性化诉求的场景。 自定义引擎创建模型的规范
{} to obs bucket {}".format(log_tar, obs_bucket)) obs_url = "https://%s.obs.%s.myhuaweicloud.com/%s/%s" % (obs_bucket, self.region_id,
传输完成文件大小(字节)。 file_size_total Long 总文件大小(字节)。 请求示例 获取数据集导入任务列表 GET https://{endpoint}/v2/{project_id}/datasets/{dataset_id}/import-tasks 响应示例
最小GPU规格。 min_memory String 最小内存。 min_ascend String 最小Ascend规格。 请求示例 GET https://{endpoint}/v1/{project_id}/models 响应示例 状态码:200 模型列表 { "total_count"
内置属性:三元组关系标签的指向实体类型,创建关系标签时必须指定,该参数仅文本三元组数据集使用。 请求示例 查询团队标注任务中未审核样本的统计信息 GET https://{endpoint}/v2/{project_id}/datasets/WxCREuCkBSAlQr9xrde/workforce
描述 error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 GET https://{endpoint}/v1/{project_id}/models/ai-engine-runtimes 响应示例 状态码:200
2312-aarch64-snt9b-20240606190017-b881580 RUN cd /home/ma-user && git clone https://github.com/comfyanonymous/ComfyUI.git -c http.sslVerify=false && cd
其中,index-url为pip源ip地址,使用时需自行替换。本示例以华为源为例,具体如下: [global] index-url = https://mirrors.huaweicloud.com/repository/pypi/simple trusted-host = mirrors
参数 参数类型 描述 az String AZ的名称。 count Integer AZ的资源数量。 请求示例 查询节点池列表。 GET https://{endpoint}/v2/{project_id}/pools/{pool_name}/nodepools { } 响应示例 状态码:200
ppCode的参数值修改为真实的AppCode值。 Python示例代码如下: import requests API_URL = "https://xxxxxxx/v1/gallery/65f38c4a-bbd0-4d70-a724-5fccf573399a/" headers
训练作业的版本名称。 请求示例 如下以创建“job_id”为10,“pre_version_id”为20的一个新版本作业为例。 POST https://endpoint/v1/{project_id}/training-jobs/10/versions/ { "job_desc":
String 数据集的版本名称,名称仅包含数字、字母、中划线和下划线,长度是0-32位。 请求示例 查询数据处理任务版本列表 GET https://{endpoint}/v2/{project_id}/processor-tasks/{task_id}/versions?offset=0&limit=5
I引擎”。 “容器调用接口” 当“AI引擎”选择“Custom”时,才会显示该参数。 模型提供的推理接口所使用的协议和端口号,缺省值是HTTPS和8080,端口和协议需要根据模型实际定义的推理接口进行配置。 “健康检查” 用于指定模型的健康检查。使用Custom引擎时,会显示该参
如果您在本地IDEA环境中开发工作流,则Session初始化使用如下方式 # 认证用的ak和sk硬编码到代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全; # 本示例以ak和sk保存在环境变量中来实现身份验证为例,运行本示例前请先在本地环境中设置环境变量HUAWEIC
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 查询资源池详情。 GET https://{endpoint}/v2/{project_id}/pools/{pool_name} { } 响应示例 状态码:200 OK。
开放脚本地址,其中region-id根据实际region修改,例如cn-southwest-2 value: "https://mtest-bucket.obs.{region-id}.myhuaweicloud.com/acc/rank"
'{"prompt": "hello", "temperature":0, "max_tokens":20}' vLLM接口请求参数说明参考:https://docs.vllm.ai/en/stable/dev/sampling_params.html 方式二:使用OpenAI接口请求服务,命令参考如下。
from_pretrained(onnx_model_path, torch_dtype=torch.float32).to("cpu") url = "https://raw.githubusercontent.com/CompVis/stable-diffusion/main/assets/st
方式二:对于提供了onnx模型的仓库,可以直接下载onnx模型。 通过git下载diffusers对应版本的源码。 git clone https://github.com/huggingface/diffusers.git -b v0.11.1 在diffusers的script