检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
public static void main(String[] args) { // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great
作业进度,失败时为“-1”,其它情况为0~100。 status String 作业状态: BOOTING:启动中。 FAILURE_ON_SUBMIT:提交失败。 RUNNING:运行中。 SUCCEEDED:成功。 FAILED:失败。 UNKNOWN:未知。 NEVER_EXECUTED:未被执行。 isStopingIncrement
Integer 申请量。 call_num Integer 调用总量。 success_num Integer 成功调用量(取数成功)。 fail_num Integer 失败调用量(取数失败)。 legal_num Integer 合法调用量(通过校验)。 illegal_num
请根据创建的kafka集群认证填入相应配置:security.protocol=SASL_SSL/SASL_PLAINTEXT,sasl.mechanism=PLAIN/SCRAM-SHA-512 KMS密钥 是 通过KMS加解密数据源认证信息,选择KMS中的任一默认密钥或自定义密钥即可。
public static void main(String[] args) { // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great
public static void main(String[] args) { // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great
提交调度后的作业执行失败,报depend job [XXX] is not running or pause怎么办? 如何创建数据库和数据表,数据库对应的是不是数据连接? 为什么执行完HIVE任务什么结果都不显示? 在作业监控页面里的“上次实例状态”只有运行成功、运行失败,这是为什么?
参数类型 说明 status 是 String 执行状态。 LAUNCHING:提交中 RUNNING:运行中 FINISHED:执行成功 FAILED:执行失败 results 是 List<Result> 执行结果 message 否 String 执行失败消息。 表4 Result数据结构说明
public static void main(String[] args) { // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great
已获取本地Elasticsearch数据库的服务器IP、端口、用户名和密码。 如果Elasticsearch服务器是在本地数据中心或第三方云上,需要确保Elasticsearch可通过公网IP访问,或者是已经建立好了企业内部数据中心到华为云的VPN通道或专线。 创建CDM集群并绑定EIP
已获取API的域名、请求url、请求方法、AppKey和AppSecret等信息,具体参见认证前准备。 安装openssl库。 apt-get install libssl-dev 安装curl库。 apt-get install libcurl4-openssl-dev 获取SDK 登录DataArts
已获取API的域名、请求url、请求方法、AppKey和AppSecret等信息,具体参见认证前准备。 安装openssl库。 apt-get install libssl-dev 安装curl库。 apt-get install libcurl4-openssl-dev 获取SDK 登录DataArts
public static void main(String[] args) { // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great
unreasonable_permissions Array of DiagnosePermissionDetail objects 不合理权限配置列表。 表5 DiagnosePermissionDetail 参数 参数类型 描述 id String 权限配置编号。 task_id String 诊断任务id。
取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 dli_link 访问标识(AK) 访问DLI数据库时鉴权所需的AK和SK。 您需要先创建当前账号的访问密钥,并获得对应的AK和SK。 登录控制台,在用户名下拉列表中选择“我的凭证”。 进入“我的凭证”页面,选择“访问密钥
public static void main(String[] args) { // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great
选择目的表所属的资源队列。 DLI的default队列无法在迁移作业中使用,您需要在DLI中新建SQL队列。 cdm 数据库名称 写入数据的数据库名称。 dli 表名 写入数据的表名。 car_detail 分区 用于抽取分区的信息。 ['year=2020'] ['year=2020,location=sun']
{ "domain_id": "accountid", "name": "username", "password": "**********", "email": "email", "description":
B数据库映射关系进行开发生产环境隔离,如图3所示。详细操作请参见DB配置。 图2 创建数据连接时选择同一个集群 图3 DB配置 数据准备与同步 数据湖服务创建完成后,您需要按照项目规划(例如数据开发需要操作的库表等),分别在开发和生产环境的数据湖服务中,新建数据库、数据库模式(仅DWS需要)、数据表等。
public static void main(String[] args) { // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great