检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
务需求受理、分析、交付等过程的高效运作;并聚焦高价值需求,实现业务价值最大化,支撑业务运作及目标的达成。 数据指标流程设计首先需要基于明确的业务诉求,在明确业务需要统计的指标后,制定指标对应的数据信息。 针对坪效这一数据指标的门店运营业务,创建门店业务流程活动。 新建流程 根据业
配置WAN链路数据 前提条件 已规划好相关数据,并与客户达成一致,具体信息请参考WAN链路数据规划。 已创建好WAN链路模板,具体步骤请参考配置WAN链路模板。 操作步骤 单击“零配置开局”页签。 图1 零配置开局 在左侧列表的“站点列表”中,选择“未配置”,筛选出待配置的站点。
手动导出IoTDB数据 操作场景 该任务指导用户使用“export-csv.sh”将数据从IoTDB导出为CSV格式的文件。 导出CSV格式的数据文件,可能存在注入风险,请谨慎使用。 前提条件 已安装客户端,请参见。例如安装目录为“/opt/client”,以下操作的客户端目录只是举例,请根据实际安装目录修改。
记录数据迁移入库时间 CDM在创建表/文件迁移的作业,支持连接器源端为关系型数据库时,在表字段映射中使用时间宏变量增加入库时间字段,用以记录关系型数据库的入库时间等用途。 前提条件 已创建连接器源端为关系型数据库,以及目的端数据连接。 目的端数据表中已有时间日期字段或时间戳字段。
上传缓冲区数据 UploadBuffer() 上传一个buffer到OBS,此方法会阻塞线程,直至上传结束。目标OBS桶可在华为HiLens控制台上进行配置,详情请参见配置数据存储位置。 接口调用 HiLensEC hilens::UploadBuffer(const std::string
为什么TaurusDB标准版数据表会丢失或数据被删除 TaurusDB标准版不会删除和操作用户的任何数据。出现这种情况,请检查是否为误操作,必要时可利用已有备份恢复文件。 检查误操作:如果已经开启SQL审计日志,可通过审计日志查看数据执行记录。 已有备份恢复文件: 使用TaurusDB标准版实例的恢复功能。
是否支持批量数据标注? 数据标注支持连续时间戳内批量标注数据、连续时间戳内指定值域范围内批量标注、任意连续区域内批量标注、自动检测标注或自定义阈值规则的批量标注。多分类标注不支持自定义阈值规则标注。 连续时间戳内批量标注数据操作步骤如下: 单击,选择横向选择工具。 在图表区域需要
步骤7:数据质量监控 数据质量监控DQC(Data Quality Control)模块是对数据库里的数据质量进行质量管理的工具。您可从完整性、有效性、及时性、一致性、准确性、唯一性六个维度进行单列、跨列、跨行和跨表的分析。 在DataArts Studio数据质量模块中,可以对业务指标和数据质量进行监控。
创建数据库用户 默认只有集群安装时创建的管理员用户可以访问初始数据库,您还可以创建其他数据库用户账号。 1 gaussdb=# CREATE USER joe WITH PASSWORD "********"; 当结果显示为如下信息,则表示创建成功。 1 CREATE ROLE
在创建数据连接前,请确保您已具备连接所需的Agent代理(即CDM集群),且待连接的数据湖与CDM集群之间网络互通。 如果数据湖为云下的数据库,则需要通过公网或者专线打通网络。请确保数据源所在的主机和CDM集群均能访问公网,并且防火墙规则已开放连接端口。 如果数据湖为云上服务
IoTDB Kafka样例程序 功能简介 该样例介绍如何通过Kafka将数据发送到IoTDB。 代码样例 Producer.java: 该样例展示如何将时序数据发送到Kafka集群。 根据实际场景,修改“KafkaProperties.java”文件中的“TOPIC”变量,例如:public
则需要将数据整理为GES支持的格式。 点数据集用于存放点数据。 边数据集用于存放边数据。 元数据用于描述点数据集和边数据集中的数据格式。 GES相关概念和图数据介绍请参见一般图数据格式。 约束限制 通过Import GES节点自动生成元数据时,有如下约束限制: 生成元数据时,目前
标准设计 新建码表 新建数据标准 父主题: 数据架构
取值样例 基本参数 表名 写入数据的目标表名,单击输入框后面的按钮可进入表的选择界面。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据,详细说明请参见使用时间宏变量完成增量同步。 说明: 如果配置了时间宏变量,通过DataArts
使用TMS标签实现资源分组管理 ModelArts支持对接标签管理服务TMS,在ModelArts中创建资源消耗性任务时,可以为这些任务配置标签,通过标签实现资源的多维分组管理。 ModelArts支持配置标签的任务有:创建训练作业任务、创建Notebook、创建推理在线服务、创建ModelArts
在不改变现有IDC网络组织架构的前提下,需要将网络组织架构迁移上云,并实现以IDC中指定IP地址访问外部资源。 在本最佳实践中,根据行业监管部门的要求,业务上云之后仍需要部门A定期以指定的IP地址(10.1.0.55)访问行业监管部门的主机,上传必要的监管数据。 方案架构 监管部门限定只有特定的IP地址(10
描述 调用指定的存储过程。 存储过程由各个连接(connnectors)提供,实现数据操作或者管理任务。例如,系统连接器(System Connector)就定义了存储过程可以取消一个正在运行的查询。有些数据源,例如PostgreSQL,其系统有定义自己的存储过程,这与连接器定义的存储过程不同,是无法被CALL调用的。
JDBC中使用COPY命令导出导入数据 操作场景 使用Java语言开发应用程序时,通过调用JDBC驱动的CopyManager接口,从文件或其他数据库向GaussDB写入数据。 示例1:通过本地文件导出导入数据 调用JDBC驱动的CopyManager接口,通过流方式,将数据库中的数据导出到本地文件
Scala样例代码 功能简介 在Spark应用中,通过使用HBase接口来实现创建表,读取表,往表中插入数据等操作。 代码样例 下面代码片段仅为演示,具体代码参见SparkOnHbaseScalaExample: 样例:创建HBase表 //建立连接hbase的配置参数,此时需要保证hbase-site
训练的数据集预处理说明 以llama2-13b举例,使用训练作业运行:obs_pipeline.sh 训练脚本后,脚本自动执行数据集预处理,并检查是否已经完成数据集预处理。 如果已完成数据集预处理,则直接执行训练任务。如果未进行数据集预处理,则会自动执行scripts/llama2/1_preprocess_data