检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用Open API创建的实例如何自动安装指定插件?
部署微服务容器镜像 安装Developer Console插件 打开插件市场,搜索到“Developer Console”后,单击“安装”即可完成安装,动图演示如下: 部署微服务到CCI容器实例 配置Profile Profile是一组API调用鉴权所需配置的抽象,Profile中的相关信息可通过访问我的凭证获取
单击“安装”。 安装完成后,可在已安装中查看到安装成功的插件,即可访问。
Python允许多个版本共存,但各版本安装的第三方库不共享,使用时请注意当前的Python版本。 安装PyLint 快速安装: 打开CodeArts IDE Online时,在页面右下角的弹框中,单击Install,PyLint会自动安装到当前选择版本的Python中。
NodeJs技术栈相关操作 本节介绍NodeJs技术栈的相关操作,具体如下: 安装依赖包 查看库包的逻辑实现 运行/调试代码 登录工作界面请参考启动IDE实例。 安装依赖包 在终端窗口中直接运行npm install安装依赖的库包,操作步骤如下: 单击左上角。
支持插件扩展,通过实例内置的插件市场搜索和安装插件,实现能力横向扩展。 父主题: 产品优势
在手机上安装WeLink后,使用WeLink扫描二维码完成WeLink账号登录,扫码之后单击“允许登录”。 登录成功后,WeCode Toolkit插件显示WeLink开发者注册名。
安装依赖包 使用CodeArts IDE Online的Go技术栈,可通过执行go get命令安装依赖包,执行命令前需先设置“GOPATH”环境变量,如:export GOPATH=~/gotools,具体操作步骤如下: 单击左上角,选择“终端 > 新建终端”,或使用快捷键“Ctrl
发布We码小程序 通过CodeArts IDE Online上的WeCode Toolkit插件,可以将编写调试完毕的We码小程序上传发布到WeLink应用市场(这样手机上的WeLink应用可以搜索并安装这个已经发布的We码小程序)。
父主题: 基于CodeArts IDE Online快速开发、部署微服务
准备工作 注册和安装WeLink 在手机应用市场上搜索找到“WeLink”并安装。 创建Welink应用 登录WeLink开发者后台,创建一个自己的应用,详细可参考We码小程序,如下图。
基于CodeArts IDE Online快速开发、部署微服务 概要 准备工作 开发调试微服务 制作微服务容器镜像 部署微服务容器镜像
基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型 概要 准备工作 导入和预处理训练数据集 创建和训练模型 使用模型
进入“基础配置”页面,选择Python技术栈,CPU架构选择X86计算,CPU/内存选择2U4G,单击“下一步”。 进入“工程配置”页面,选择不创建工程,然后单击“确定”,完成实例创建。
CodeArts IDE Online暂不支持GPU加速,建议安装tensorflow-cpu减小磁盘占用,并加快安装速度。 鲲鹏镜像暂时无法安装TensorFlow,敬请期待后续更新。
CodeArts IDE Online部署时通过物理区域划分,为项目级服务。
插件描述 tags Array of strings 插件标签 tag_all_list Array of strings 所有标签 publisher PublisherSnake object - arch Array of strings 系统架构 target String 安装目标
插件描述 tags Array of strings 插件标签 tag_all_list Array of strings 所有标签 publisher PublisherSnake object - arch Array of strings 系统架构 target String 安装目标
API创建的实例如何自动安装指定插件?
Ubuntu系统可用“sudo apt-get install bear”命令安装 bear工具。 生成“compile_commands.json”文件后,CodeArts IDE Online会询问是否将此文件配置为“compileCommands”。