检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用spark-submit或者spark-sql运行SQL语句,执行3。 使用spark-beeline运行SQL语句,执行4。 执行SQL语句时,需要添加参数“--driver-memory”,设置内存大小,例如: /spark-sql --master=local[4] --driver-memory=512M
database":"base3","source.tablename":"table3"}]} Table Info-Section Name 单表标签名称,仅支持数字、字母、下划线。 - Table Info-Source DataBase 需要同步的Hudi数据库名称。 base1 Table
按照前三步操作,并更改相应表名为索引表名(如,t1_idx)。 迁移索引数据时无需执行4。 向新集群表中导入索引数据。 在新集群的用户表中添加与之前版本用户表相同的索引(名称为'd'的列族不应该已经存在于用户表中)。 命令如下所示: hbase org.apache.hadoop
使用spark-submit或者spark-sql运行SQL语句,执行3。 使用spark-beeline运行SQL语句,执行4。 执行SQL语句时,需要添加参数“--driver-memory”,设置内存大小,例如: /spark-sql --master=local[4] --driver-memory=512M
K_HOME/conf/spark-defaults.conf”中的配置项“spark.driver.extraJavaOptions”中添加如下内容: -XX:OnOutOfMemoryError='kill -9 %p' 父主题: Spark应用开发常见问题
impala_kudu可以使用此数据库。要退出Impala Shell,请使用quit命令。 根据表1创建用户信息表user_info并添加相关数据。 create table user_info(id string,name string,gender string,age int
MRS集群管理员已明确业务需求。 已安装好IoTDB客户端。 操作步骤 登录FusionInsight Manager,选择“系统 > 权限 > 角色”。 单击“添加角色”,然后在“角色名称”和“描述”输入角色名字与描述。 设置角色“配置资源权限”请参见表1。 IoTDB权限: 普通用户权限:具有数据操
upgrade目录下。 参考以下操作,补全“client-info.cfg”中缺失的密码。 执行vi client-info.cfg命令,添加用户密码信息。 例如: clientIp,clientPath,user,password 10.10.10.100,/home/omm/client
(.carbonindexmerge)。 这增强了首次查询性能。 参考信息 建议避免对历史数据进行minor compaction,请参考如何避免对历史数据进行minor compaction? 父主题: CarbonData数据分析
执行以下命令连接ZooKeeper命令行界面。 zkCli.sh -server ZooKeeper所在节点的IP:2181 获取ZooKeeper的IP地址,具体请参考如何获取ZooKeeper地址? 找到对应故障节点表数据对应的ZooKeeper路径。 ls zookeeper_path/replicas/replica_num
(.carbonindexmerge)。 这增强了首次查询性能。 参考信息 建议避免对历史数据进行minor compaction,请参考如何避免对历史数据进行minor compaction? 父主题: CarbonData数据分析
impala_kudu可以使用此数据库。要退出Impala Shell,请使用quit命令。 根据表1创建用户信息表user_info并添加相关数据。 create table user_info(id string,name string,gender string,age int
xml”、“hbase-site.xml”。 方法二:通过准备本地应用开发环境中解压客户端文件的方法获取配置文件,需要在获取的“hbase-site.xml”中手动添加以下配置,其中“hbase.thrift.security.qop”的参数值与1保持一致。 <property> <name>hbase.thrift
K_HOME/conf/spark-defaults.conf”中的配置项“spark.driver.extraJavaOptions”中添加如下内容: -XX:OnOutOfMemoryError='kill -9 %p' 父主题: Spark应用开发常见问题
xml”。 方法二:通过准备HBase应用开发和运行环境中解压客户端文件的方法获取配置文件,需要在获取的“hbase-site.xml”中手动添加以下配置,其中“hbase.thrift.security.qop”的参数值与1保持一致。 <property> <name>hbase.thrift
convert ['0'] to boolean 默认不允许向托管表(表属性external = true)插入数据,如需使用该功能,可参考注意事项,添加hive自定义属性:hive.non-managed-table-writes-enabled=true。 Mppdb有一个限制,数据库的
me客户端节点的用户名,需确保该用户具有访问crontab的权限,可以使用命令echo 用户名 > /etc/cron.allow来为用户添加访问crontab的权限。 password(必填项):远程登录到待安装Flume客户端节点密码。配置文件中包含认证密码信息可能存在安全风
限为644;如果需要修改文件权限,需要修改umask值;例如修改omm用户umask值: 在“/home/omm/.baskrc”文件末尾添加“umask 0026”; 执行命令source /home/omm/.baskrc使文件权限生效。 日志格式 表4 日志格式 日志类型 格式
addColumn(final TableName tableName, final HColumnDescriptor column) 添加一个列簇到指定的表。 void deleteColumn(final TableName tableName, final HColumnDescriptor
mysql.jdbc.Driver" ); 如果MySQL驱动版本是6.x及之后版本,则在创建JDBC Catalog时,“jdbc_url”需要添加“serverTimezone=GMT%2B8”参数,避免因源集群和当前Doris集群时区不一致导致Catalog创建失败。 如果MySQL驱动版本为6