正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
} } 执行如下命令。 Composer install 可以看到当前目录底下生成一个vendor文件夹,文件夹中有autoload.php、composer 和google三个文件夹。 Linux系统 Linux系统下可以使用以下命令生成zip包。 zip –rq vendor.zip
tion/json”。 当函数的事件源是APIG时,相关约束条件请参考Base64解码和返回结构体的说明。 工程打包。 函数工程创建以后,可以得到以下目录,选中工程所有文件,打包命名为“fss_examples_python2.7.zip”,如图1所示。 图1 打包 本例函数工程
text/plain”。 当函数的事件源是APIG时,相关约束条件请参考Base64解码和返回结构体的说明。 工程打包 函数工程创建以后,可以得到以下目录,选中工程所有文件,打包命名为“fss_examples_php7.3.zip”,如图1所示。 图1 工程打包 本例函数工程文
自定义模型 Stable-Diffusion应用支持使用自定义模型,您可以将自己的模型上传到指定OBS桶的对应路径中,模型辅助函数会为您将模型转发到SFS Turbo共享路径,在页面重新加载后模型即可使用。 初始化 模型上传与加载 父主题: 通过应用中心部署AI绘画Stable-Diffusion
s-test”测试事件,单击“测试”,测试函数,如图1所示。 图1 配置测试事件 函数执行成功后,部分函数日志如图2所示,全部的日志信息,可以到“日志”页签查询。 图2 函数执行结果 父主题: 使用函数处理DIS数据
ensionAddr, nil) } 其中10.174.242.117:11800 用户可以根据自己部署的是sykwalking collector的地址即可,testservice 用户可以根据自己项目服务进行命名。 在本地编译生成二进制文件,将二进制文件和以extension为前缀的
le”。 其他配置保持默认,无需修改。 图1 购买集群 确认配置信息无误,单击“提交”,创建集群。 图2 创建集群 创建集群需要较长时间,可以从图2中查看进度,请耐心等待。 创建委托 在服务控制台左侧导航栏,选择“管理与监管 > 统一身份认证服务”,进入统一身份认证服务控制台后,
Framework开源CLI版本3.28.1或更高版本,详情请参见安装Serverless Framework的开源CLI。 如果已经具备了这些前提条件,则可以跳过部署示例服务。 安装Node.js和NPM 安装Node.js和NPM,下载地址请参考下载说明。 最后,您应该能够从命令行中运行node
约束:内置 cuda 11.6,函数需要基于 cuda11.6 版本开发,使用其他版本的 cuda 请考虑使用自定义镜像函数。 定制运行时函数,可以在设置->常规设置中,启用 GPU。 图1 启用GPU 父主题: 部署方式
w”,单击“创建函数”。 创建成功后,左侧编辑框即可看到刚创建的函数。 在EXPLORER可以看到完整的kong_new函数,其中函数代码只是 “index.js”,其余的都是配置文件,可以不关心。 函数下载、推送代码比较流程 鉴于本地代码与远程代码可能存在不同,会存在新代码覆盖
会默认生成一个日志流(函数名称开头)。 您也可以针对某个函数自行关联日志组和日志流,管理函数日志,即进行函数调用后,调用日志会保存到指定的日志组和日志流下。具体操作请参见配置日志组及日志流。 默认创建的20个日志流,您无法自定义。您可以在函数的“日志”页签下,按“F12”,找到q
首次访问函数慢,如何优化? 怎样获取在函数运行过程中实际使用了多少内存? 为什么第一次请求会比较慢? 调用API时,报错怎么办? 如何读取函数的请求头? 函数间可以相互调用吗? API同步执行函数接口,是否支持内网调用? 为什么函数实际使用内存大于预估内存,甚至触发OOM? 函数内存超限返回“runtime
上传图片至your-bucket-input桶,OBS生成事件触发函数运行,将图片压缩,压缩后的图片存放在your-bucket-output桶中。可以在函数详情页日志页签查看函数运行日志。 进入your-bucket-output桶对象界面,查看压缩后的图片大小。 图2 压缩图片 父主题:
“FunctionGraph”文件下的“Default Java project”节点。如图3所示。 图3 选择默认Java模板 输入工程名称,选择工程目录(也可以使用默认目录),单击“Finish”完成模板创建。如图4所示。 图4 完成创建 父主题: 开发工具
准实时推理业务的处理耗时一般在秒级~分钟级。例如,典型的CV任务处于秒级别,典型的视频处理和AIGC场景均处于分钟级别。 容忍冷启动 业务可以容忍GPU冷启动耗时,或者业务流量波形对应的冷启动概率低。 功能优势 函数计算为准实时推理工作负载提供以下功能优势: 原生Serverless使用方式
Turbo FullAccess VPC Administrator SWR Admin 图2 选择策略 请根据需要选择权限作用范围,如果不确定可以选择“所有资源”或者在“指定区域项目资源”中选择“华东-上海一”。 图3 指定区域项目资源 "OBS Administrator"暂不支持该授权范围,默认授权所有资源。
对于获取用户Token接口,返回如图1所示的消息头,其中“x-subject-token”就是需要获取的用户Token。有了Token之后,您就可以使用Token认证调用其他API。 图1 获取用户Token响应消息头 响应消息体 响应消息体通常以结构化格式返回,与响应消息头中Cont
函数计算平台提供了默认的按量GPU实例之外的另一种GPU使用方式——预留GPU实例。如果您希望消除冷启动延时的影响,满足实时推理业务低延迟响应的要求,可以通过配置预留GPU实例来实现。更多关于预留模式的信息,请参见预留实例管理。 服务质量优先,服务成本次优 预留GPU实例的计费周期不同于按量
单击“下一步”,进入委托选择页面,在“配置权限”界面勾选“Tenant Administrator”,单击“确定”。 Tenant Administrator:拥有该权限的用户可以对企业拥有的所有云资源执行任意操作。 单击“确定”,完成权限委托设置。 父主题: 工作流+函数:自动化处理OBS中数据
6建议使用3.6.3以上版本。 为Python 2.7安装PyMySQL依赖包,并指定此依赖包的安装路径为本地的/tmp/pymysql下,可以执行如下命令。 pip install PyMySQL --root /tmp/pymysql 执行成功后,执行以下命令。 cd /tmp/pymysql/