检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查询数据类列表 功能介绍 查询数据类列表 调用方法 请参见如何调用API。 URI GET /v1/{project_id}/workspaces/{workspace_id}/soc/dataclasses 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是
如何查看安全数据采集和安全数据资源包的剩余量? 已包周期购买安全云脑的安全数据采集和安全数据保留资源包,可以通过以下方法查看剩余量: 在安全云脑总览页面右上角,将鼠标悬停在“标准版”或“专业版”上,页面显示版本管理窗口。 在版本管理窗口中,单击安全数据采集或安全数据保留栏中的“查看”。
查询字段列表 功能介绍 查询字段列表 调用方法 请参见如何调用API。 URI GET /v1/{project_id}/workspaces/{workspace_id}/soc/dataclasses/{dataclass_id}/fields 表1 路径参数 参数 是否必选
运营对象”,默认进入运营对象的数据类管理页面。 图2 进入数据类管理页面 在数据类列表中,查看已有数据类信息。 当数据类较多时,可以通过搜索功能,可快速查询指定数据类。 在数据类列表中,可以查看数据类的名称、业务编码、是否为内置数据类等信息。 如需查看某个数据类的详细信息,可单击目标数据类的名称,右侧将弹出目标数据类的详情页面。
控制器。 执行如下命令,命令查看当前系统的运行状态: top 当显示如下图所示时,则表示ECS中Java进程占用了大量CPU资源。 图3 运行状态 执行如下命令,查看采集器运行日志: docker logs isap-logstash -f 通过查看日志,定位到当前采集通道fil
数据操作语句DQL SELECT 聚合操作 窗口 JOIN OrderBy & Limit Top-N 去重 保留关键字 父主题: SecMaster SQL语法参考
String 数据源产品所属账号的id project_id String 数据源产品所属项目的id region_id String 数据源产品所在区域,具体取值范围查看云地区和终端节点定义,例如cn-north-1 company_name String 数据源产品所属公司的名称
数据采集 组件控制器安装失败,如何处理? 采集节点或采集通道故障,如何处理? 组件控制器常用命令有哪些? 如何释放ECS和VPC终端节点资源?
在弹出的确认框中,单击“确认”。 查看是否还有安全云脑创建的用于数据采集的未释放的VPC终端节点。 在页面左上角单击,选择“网络 > VPC终端节点”,进入VPC终端节点管理控制台。 在终端节点搜索框中,输入“isap”,并按“Enter”,搜索与安全云脑数据采集相关的VPC终端节点。 查看是否还有安全
/opt/cloud/agent_controller_euler.sh uninstall命令,卸载组件控制器。 检查是否已完成卸载。 通过远程管理工具(如:SecureFX、WinSCP)远程登录目标云服务器。 (可选)方法一:执行ls -a /opt/cloud/查看“/op
查询与分析日志 操作场景 数据收集成功后,您可以在查询分析页面对收集到的日志数据进行实时查询分析。 本章节将介绍如何对日志数据进行查询分析,请根据您的需要选择查询分析方式: 方式一:输入查询条件进行查询分析 方式二:使用已有字段进行查询分析 方式三:创建快速查询 操作查询分析结果
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
pipe_name 是 String 数据管道名称 description 否 String 描述 storage_period 是 Integer 数据的保存时间,单位为天;默认30天,取值范围为1~3600 shards 是 Integer 数据管道分区个数;默认创建1个,最大支持创建64个分区
投递日志数据至其他数据管道 操作场景 本章节介绍如何投递日志数据至其他数据管道。主要步骤如下: 步骤一:创建数据投递任务 步骤二:数据投递授权 步骤三:在数据投递的目的数据管道查看数据投递 约束与限制 跨账号投递仅支持投递到其他账号管道中,不支持投递到其他云服务。 如果新增的数据投递
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
势分析等。 本章节将介绍如何将集成的日志数据投递至LTS。操作步骤如下: 步骤一:创建数据投递任务 步骤二:数据投递授权 步骤三:在LTS中查看投递数据 前提条件 已完成需投递日志的数据集成至安全云脑操作,详细操作请参见数据集成。 投递到LTS中,需要已有可用的日志组和日志流。如
图2 进入安全分析页面 在左侧数据空间导航栏中,单击数据空间名称,展开数据管道列后,再单击管道名称,右侧将显示管道数据的检索页面。 图3 管道数据页面 输入查询分析语句,设置时间范围,并单击“查询/分析”,显示查询分析结果。 更多查询分析详细操作请参见查询与分析日志。 单击页面右上角“添加告警”,进入新建告警模型页面。
查看日志数据及其存储位置 日志数据接入完成后,请前往安全分析的安全数据表页面查看接入的日志数据: 在目标工作空间内的左侧导航栏选择“威胁管理 > 安全分析”,进入安全分析页面。 在左侧数据空间导航栏中,单击数据空间名称,展开数据管道列后,再单击管道名称,右侧将显示管道数据的检索页面。 在管道数据检索页面即可查看接入的日志数据。
投递日志数据至OBS桶 操作场景 本章节介绍如何投递日志数据至OBS桶。主要步骤如下: 步骤一:创建数据投递任务 步骤二:数据投递授权 步骤三:在OBS中查看数据投递 约束与限制 跨账号投递仅支持投递到其他账号管道中,不支持投递到其他云服务。 如果新增的数据投递为跨账号投递,则需要登录目的账号进行授权操作。
返回相对应的滚动窗口范围以外的上界时间戳。 示例 根据订单信息使用kafka作为数据源表,JDBC作为数据结果表统计用户在30秒内的订单数量,并根据窗口的订单id和窗口开启时间作为主键,将结果实时统计到JDBC中: 根据MySQL和kafka所在的虚拟私有云和子网创建相应的跨源,并绑定所要使用的