检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如果开启了ZooKeeper SSL,需要在上传后HDFS的“/user/developuser/myjobs/apps/spark2x”目录下的“hbase-site.xml”文件中新增以下内容: <property> <name>HBASE_ZK_SSL_ENABLED</name>
功能介绍 AddDoublesUDF主要用来对两个及多个浮点数进行相加,在该样例中可以掌握如何编写和使用UDF。 一个普通UDF必须继承自“org.apache.hadoop.hive.ql.exec.UDF”。 一个普通UDF必须至少实现一个evaluate()方法,evaluate函数支持重载。
properties.setProperty("user", "hivetest"); properties.setProperty("SSL", "true"); properties.setProperty("KerberosConfigPath", PATH_TO_KRB5_CONF);
Broker提供数据接收、获取服务 ssl.port 9093 21008 Broker提供数据接收、获取服务的SSL端口 sasl.port 21007 21007 Broker提供SASL安全认证端口,提供安全Kafka服务 sasl-ssl.port 21009 21009
KerberosKeytabPath user.keytab的路径。 presto.preperties样例 user = prestouser SSL = true KerberosRemoteServiceName = HTTP KerberosPrincipal = prestouser
connect(driver, url, {"user": user, "SSL": "true", "password": password
<HSFabricIP2:port2>,<HSFabricIP3:port3>/hive/default?serviceDiscoveryMode=hsfabric&SSL=false。 表2 HSbroker连接参数 参数名 参数值 数据连接名称 自定义 驱动 io.prestosql.jdbc.PrestoDriver
11补丁安装后,需要重新下载安装全量的客户端,包含Master节点的原始客户端和虚拟私有云的其他节点使用的客户端(即您自行搭建的客户端)。 主备Master节点的原始客户端全量更新,请参见更新客户端配置(2.x及之前版本)。 自行搭建的客户端全量安装方法,请参见安装客户端(2.x及之前版本)。 重新安装客户端前建议先对老客户端进行备份。
在“源连接”和“目的连接”选择对应的连接。 选择某个类型的连接,表示从指定的源获取数据,并保存到目的位置。 如果没有需要的连接,可单击“添加新连接”。 在“自”填写源连接的作业配置。 具体请参见Loader作业源连接配置说明。 在“至”填写目的连接的作业配置。 具体请参见Loader作业目的连接配置说明。
"${BIGDATA_ROOT_HOME}/om-server_*/Apache-httpd-*/conf/security/proxy_ssl.cert" SSLCertificateKeyFile "${BIGDATA_ROOT_HOME}/om-server_*/Ap
"${BIGDATA_ROOT_HOME}/om-server_*/Apache-httpd-*/conf/security/proxy_ssl.cert" SSLCertificateKeyFile "${BIGDATA_ROOT_HOME}/om-server_*/Ap
Stream Load任务参数介绍 参数名称 参数描述 签名参数 user:passwd Stream Load创建导入的协议使用的是HTTP协议,通过Basic access authentication进行签名。Doris系统会根据签名验证用户身份和导入权限。 导入任务参数(格式为:-H
选择“ftp-connector”。 FTP模式 选择“ACTIVE”或者“PASSIVE”。 FTP协议 选择: FTP SSL_EXPLICIT SSL_IMPLICIT TLS_EXPLICIT TLS_IMPLICIT 文件名编码类型 文件名或者文件路径名的编码类型。 表3
选择“ftp-connector”。 FTP模式 选择“ACTIVE”或者“PASSIVE”。 FTP协议 选择: FTP SSL_EXPLICIT SSL_IMPLICIT TLS_EXPLICIT TLS_IMPLICIT 文件名编码类型 文件名或者文件路径名的编码类型。 表3
connect(driver, url, {'user': user, 'SSL': "true", 'KerberosPrincipal':
ip:port。 security.protocol:Kafka客户端使用的认证协议,默认值“SASL_PLAINTEXT”,不支持使用SASL_SSL协议。 sasl.mechanism:客户端使用的认证机制,默认值“PLAIN”。 manager_username:集群的用户。 man
装python环境,安装包下载详情请参见:https://www.python.org/。当前以在集群的master节点上运行样例为例。 搭建样例运行环境。 获取运行样例程序时python依赖,请从https://pypi.org/地址中搜索下载decorator、gssapi、
_conf__/carbon.properties -Djdk.tls.ephemeralDHKeySize=2048 -Dspark.ssl.keyStore=./child.keystore #{java_stack_prefer} 父主题: Spark运维管理
src/main/resources目录。并在core-site.xml中增加如下配置项: <property> <name>fs.obs.connection.ssl.enabled</name> <value>true</value> </property> <property> <name>fs.obs
jar:hetu-jdbc-*.jar com.huawei.hetu.JDBCExampleBroker 如果对接的集群开启了ZooKeeper的SSL认证,需要添加JVM参数:-Dzookeeper.clientCnxnSocket=org.apache.zookeeper.ClientCnxnSocketNetty