检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
填写HIVE的JDBC格式连接串,例如:jdbc:hive2:// host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的数据库名。 用户名 数据库的登录用户名。 上传认证文件 单击“上传文件”,上传FI Hive配置文件。配置文件获取请参考获取FI
Connect实例,用户在购买时会一次性付费,服务将在到期后自动停止使用。 如果在计费周期内不再使用包年/包月资源,您可以执行退订操作,系统将根据资源是否属于五天无理由退订、是否使用代金券和折扣券等条件返还一定金额到您的账户。详细的退订规则请参见云服务退订规则概览。 如果您已开启“自动续费”功能,为避免
HBSE的JDBC格式连接串,例如:jdbc:hbase:// host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的数据库名。 用户名 数据库的登录用户名。 上传认证文件 单击“上传文件”,上传FI HBase配置文件。配置文件获取请参考获取FI
HIVE的JDBC格式连接串,例如:jdbc:hive2:// host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的数据库名。 用户名 数据库的登录用户名。 上传认证文件 单击“上传文件”,上传MRS Hive配置文件。配置文件获取请参考获取MRS
BASE的JDBC格式连接串,例如:jdbc:hbase:// host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的数据库名。 用户名 数据库的登录用户名。 上传认证文件 单击“上传文件”,上传MRS HBase配置文件。配置文件获取请参考获取MRS
Connect的数据集成,把业务系统A中的数据进行格式转换后,集成到业务系统B的数据库中使用。后续根据制定的同步计划,定时把业务系统A中新增的数据同步到业务系统B中,保证了两个系统间的数据同步。 ROMA Connect的数据集成直接读取业务系统A中数据库的数据,并根据集成任务的配置,筛选出指定数据并进行数
检查API是否存在 404 APIG.3003 The environment does not exist. 指定的环境不存在 检查环境是否存在 404 APIG.3004 The app does not exist. 指定的应用不存在 检查应用是否存在 404 APIG.3005
vpc-channels 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方式请参见API参考的“附录 > 获取项目ID”章节。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是
证两种认证方式。 单向认证:客户端与服务端连接时,客户端需要验证所连接的服务端是否正确。 双向认证:客户端与服务端连接时,除了客户端需要验证所连接的服务器是否正确之外,服务端也需要验证接入的客户端是否正确。 约束与限制 仅支持添加pem编码格式的SSL证书。 添加的SSL证书仅支持RSA、ECDSA和DSA加密算法。
Boolean 是否开启客户端证书校验。只有绑定证书时,该参数才生效。当绑定证书存在trusted_root_ca时,默认开启;当绑定证书不存在trusted_root_ca时,默认关闭。 缺省值:false is_has_trusted_root_ca Boolean 是否存在信任的根
可移除断点。 触发器节点、并行处理节点和分支判断节点等不可添加断点。 调试运行:单击“调试运行”,工作流开始执行调试。如果工作流中存在断点,工作流会停留在该断点,并展示进入当前断点的数据,包括“属性”和“载荷”数据;如果工作流中不存在断点,工作流会自动运行至结束,或者在运行出错的节点停止,并展示错误信息。
接口参数说明 请求参数 表1 请求参数 参数 是否必选 参数类型 描述 job_name 是 String 任务名称。由英文字母、数字、下划线、中划线组成,长度为4~64字符。 datasource 是 Object 数据源参数对象。包括连接器接数据库依赖的参数,所有参数组成的Json体。
新建一个Request对象,将请求method、url、query、signedHeaders对应的请求头放入其中。判断是否需要设置body并设置。 需要读取body的条件为:不存在值为UNSIGNED-PAYLOAD的x-sdk-content-sha256头。 Request apiRequest
分的结果通过节点变量传递给后续节点。通常“数据拆分”组件后续会连接“数据筛选”组件以配合使用。 “数据拆分”为异步处理组件,如果一个任务中存在“数据拆分”节点,最终开放的API将返回传入“数据拆分”节点时的数据。 配置参数 参数 说明 表达式 数据拆分的表达式。 使用表达式将数据
branch_result=result['分支名称'] 后续节点为“变量赋值”、“分支判断”和“数据转换”时,使用“$.分支名”获取该分支的执行结果。 失败时停止 并行处理出现错误时的是否停止。 True:表示任一并行处理的分支出现错误时,整个任务便停止,并返回错误信息。 Fa
若不同业务系统间直接访问对方的数据库,操作方式过于复杂,且容易发生数据库信息泄露风险。 企业在日常运营的过程中,会持续的生产和累积数据资产,大部分企业的数据资产仅在企业内部使用,资产复用率低。若直接把数据库提供给合作伙伴或第三方访问,又难以保证数据库的对外安全访问问题。 解决方案
生产消息时,给消息Key加随机后缀,使消息均衡分布到不同分区上。 在实际业务场景中,为消息Key加随机后缀,会导致消息全局不保序,需根据实际业务判断是否适合给消息Key加随机后缀。 服务端 合理设置Topic的分区数,在不影响业务处理效率的情况下,调大Topic的分区数量。 当服务端出现
击操作列的“续费”。 批量续费:在资源页面勾选需要续费的资源(可同时勾选多个实例),单击列表左上角的“批量续费”。 选择实例的续费时长,判断是否勾选“统一到期日”。确认配置费用后单击“去支付”。 将实例到期时间统一到每个月的某一天的详细介绍请参见统一包年/包月资源的到期日。 进入
处理器 分支判断 并行处理 延时 EDI处理 变量赋值 变量修改 排序 数据转换 数据拆分 数据筛选 脚本处理 日志采集 数据映射 循环处理 异常监控 终止 对称加解密 非对称加解密 XML校验
如果Kafka有多个副本(Broker),可单击“添加地址”填写多个连接地址。 是否SASL_SSL ROMA Connect与Kafka的连接是否使用SASL_SSL认证加密。 用户名/应用Key 仅当“是否SASL_SSL”选择“是”时需要配置。 SASL_SSL认证所使用的用户名,如果使用ROMA