检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
数据开发 项目创建 数据开发项目需为开发环境和生产环境配置数据鉴权模式,选择计算资源组,同时可以指定运行账号及运行队列。 图1 项目创建 离线任务开发 离线数据开发支持 HiveSQL、ImpalaSQL、SparkSQL、Python、Shell、Jar、Spark 等任务类型。
称 单击“确定”,完成配置。 使配置生效。 如已完成组件部署,单击页面上方“生效配置”。在右侧弹框中确认配置信息,并单击“确定”,使配置生效。 如未完成组件部署,单击页面上方“配置并部署组件”。在右侧弹框中单击“确定”待部署执行完成后,配置生效。 配置并部署完成后,可以到“组件监控”选择对应实例查看监控指标数据。
数据量:数据量和报表复杂度越大,对数据库的要求就越高,按照不同数据量和报表复杂度对数据库配置进行了推荐;如果数据量超过亿行,建议使用分布式数据库进行部署; 操作:推荐配置按照常用使用推荐,如果用户有特殊操作(比如大数据量的导出等),建议提升一档推荐配置; 小型配置 推荐客户:小范围试用和用户量较小的客户环境 用户数
进入购买RocketMQ实例页面。 在“快速购买”页签中,设置实例基础配置。 表4 实例基础配置参数说明 参数名称 说明 计费模式 RocketMQ实例的计费模式。 取值范围: 包年/包月:一种预付费模式,即先付费再使用,按照订单的购买周期进行结算。 按需付费:一种后付费模式,即先使用再付费,按照RocketMQ
在Linux环境中查看Spark程序调测结果 操作场景 Spark应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果数据查看应用程序运行情况。 登录Spark WebUI查看应用程序运行情况。 通过Spark日志获取应用程序运行情况。 操作步骤 查看Spark应用运行结果数据。
使用Spark执行Hudi样例程序(Java) 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.hudi.examples.HoodieWriteClientExample 创建客户端对象来操作Hudi: String tablePath = args[0];
使用Spark执行Hudi样例程序(Scala) 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.hudi.examples.HoodieDataSourceExample。 插入数据: def insertData(spark: SparkSession
如何处理用户在使用chrome浏览器时无法显示任务状态的title 问题 用户在使用chrome浏览器浏览Flink Web UI页面时无法显示title。此处以Tasks为例进行分析,用户将鼠标置于Tasks的彩色小方框上,无法显示彩色小框的title说明,如图1所示。正常的显示界面如图2所示。
port-preserved IPsec配置指引 WEB页面的VPN配置过程说明: 登录设备WEB管理界面,在导航栏中选择“VPN > IPsec”。 配置IKE提议:选择新建IKE提议,指定认证方式、认证算法、加密算法、DH、生命周期与华为云参数相同。 配置IPsec策略: 基本配置中选择设备角色为对等/分支节点,IP地址类型选择IPv4
Value:接口 语音交互服务的监控指标说明 安全与合规 Web应用防火墙 SYS.WAF Key:instance_id Value:独享引擎实例 Key:waf_instance_id Value:云模式实例 WAF监控指标说明 数据库安全服务 SYS.DBSS Key:audit_id
USER_INDEXES USER_INDEXES视图存储关于本模式下的索引信息。 名称 类型 描述 owner character varying(64) 索引的所有者。 index_name character varying(64) 索引名。 table_name character
如何恢复出厂设置 问题描述 设备回收用于其他部署时,如何恢复出厂设置。 解决方法 在“系统 >配置文件管理”,单击“恢复出厂设置”。 设备会清空当前配置重启。 以上问题的解决方法如果还不能解决问题,请及时联系华为运维工程师进行调试解决。 父主题: 常见FAQ
ssc = new StreamingContext(sparkConf, Seconds(batchSize.toLong)) //配置Streaming的CheckPoint目录。 //由于窗口概念的存在,此参数是必需的。 ssc.checkpoint(checkPointDir)
计费说明 多主版实例目前支持按需计费模式。购买成功后将按照数据库实例的实际使用时长计费。计费详情请参见计费说明。 使用须知 如需使用多主版实例,请在管理控制台右上角,选择“工单 > 新建工单”,提交申请使用 多主版实例目前仅支持按需计费模式。 内核版本为2.0.45.230950版本时,才支持创建多主版实例。
型开发、训练、管理、部署功能,可灵活使用其中一个或多个功能。 支持本地IDE+ModelArts 插件远程开发能力,线上线下协同开发,开发训练一体化架构,支持大模型分布式部署及推理。 统一管理AI开发全流程,提升开发效率,记录模型构建实验全流程。 多场景部署,灵活满足业务需求 支持云端/边端部署等多种生产环境。
附录 状态码 错误码 获取项目ID 获取企业项目ID 获取防火墙ID 获取账号、IAM用户、项目、用户组、区域、委托的名称和ID 地域信息表
择角色类型。企业模式的相关介绍请参见企业模式概述。 当该角色在简单模式空间下使用时,选择为“开发&生产模式,自定义角色”。 当该角色在企业模式空间下的开发环境下使用时,选择为“开发模式,自定义角色”。 当该角色在企业模式空间下的生产环境下使用时,选择为“生产模式,自定义角色”。
使用多可用部署均分模式。 multiAZBalance 否 bool 插件中deployment组件多可用部署是否采用均分模式,默认:false。插件Deployment实例均匀调度到当前集群下各可用区,增加新的可用区后建议扩容插件实例以实现跨可用区高可用部署;均分模式限制不同可
目录(例如“ /opt/female/” )下。 运行样例程序前,需要在Spark客户端的“spark-defaults.conf”配置文件中将配置项“spark.yarn.security.credentials.hbase.enabled”设置为“true”(该参数值默认为“
在Linux环境中查看Spark程序调测结果 操作场景 Spark应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果数据查看应用程序运行情况。 登录Spark WebUI查看应用程序运行情况。 通过Spark日志获取应用程序运行情况。 操作步骤 查看Spark应用运行结果数据。