tenyun
Version:
Promise based and chained Tencent Cloud OpenAPI client for NodeJS
1,566 lines (1,467 loc) • 327 kB
TypeScript
/// <reference types="node" />
import { AxiosPromise, AxiosRequestConfig } from "axios";
/** 高级过滤规则 */
declare interface AdvanceFilterRuleInfo {
/** 过滤字段 */
Key: string;
/** 过滤规则,0:等于,1:字段存在,2:字段不存在 */
Rule: number;
/** 过滤值 */
Value?: string;
}
/** 投递Ckafka 高级配置 */
declare interface AdvancedConsumerConfiguration {
/** Ckafka分区hash状态。 默认 false- true:开启根据字段 Hash 值结果相等的信息投递到统一 ckafka 分区- false:关闭根据字段 Hash 值结果相等的信息投递到统一 ckafka 分区 */
PartitionHashStatus?: boolean;
/** 需要计算 hash 的字段列表。最大支持5个字段。 */
PartitionFields?: string[];
}
/** 告警多维分析一些配置信息 */
declare interface AlarmAnalysisConfig {
/** 键。支持以下key:SyntaxRule:语法规则,value支持 0:Lucene语法;1: CQL语法。QueryIndex:执行语句序号。value支持 -1:自定义; 1:执行语句1; 2:执行语句2。CustomQuery:检索语句。 QueryIndex为-1时有效且必填,value示例: "* | select count(*) as count"。Fields:字段。value支持 __SOURCE__;__FILENAME__;__HOSTNAME__;__TIMESTAMP__;__INDEX_STATUS__;__PKG_LOGID__;__TOPIC__。Format:显示形式。value支持 1:每条日志一行;2:每条日志每个字段一行。Limit:最大日志条数。 value示例: 5。 */
Key: string;
/** 值。键对应值如下:SyntaxRule:语法规则,value支持 0:Lucene语法;1: CQL语法。QueryIndex:执行语句序号。value支持 -1:自定义; 1:执行语句1; 2:执行语句2。CustomQuery:检索语句。 QueryIndex为-1时有效且必填,value示例: "* | select count(*) as count"。Fields:字段。value支持 __SOURCE__;__FILENAME__;__HOSTNAME__;__TIMESTAMP__;__INDEX_STATUS__;__PKG_LOGID__;__TOPIC__。Format:显示形式。value支持 1:每条日志一行;2:每条日志每个字段一行。Limit:最大日志条数。 value示例: 5。 */
Value: string;
}
/** 告警分类信息 */
declare interface AlarmClassification {
/** 分类键 */
Key: string;
/** 分类值 */
Value: string;
}
/** 告警策略描述 */
declare interface AlarmInfo {
/** 告警策略名称。 */
Name?: string;
/** 监控对象列表。 */
AlarmTargets?: AlarmTargetInfo[];
/** 监控任务运行时间点。 */
MonitorTime?: MonitorTime;
/** 是否触发告警的单触发条件。与MultiConditions参数互斥。 */
Condition?: string;
/** 持续周期。持续满足触发条件TriggerCount个周期后,再进行告警;最小值为1,最大值为10。 */
TriggerCount?: number;
/** 告警重复的周期。单位是min。取值范围是0~1440。 */
AlarmPeriod?: number;
/** 关联的告警通知渠道组列表。-通过[获取通知渠道组列表](https://cloud.tencent.com/document/product/614/56462)获取关联的告警通知渠道组列表,和MonitorNotice互斥 */
AlarmNoticeIds?: string[];
/** 开启状态。 */
Status?: boolean;
/** 告警策略ID。 */
AlarmId?: string;
/** 创建时间。格式: YYYY-MM-DD HH:MM:SS */
CreateTime?: string;
/** 最近更新时间。格式: YYYY-MM-DD HH:MM:SS */
UpdateTime?: string;
/** 自定义通知模板 */
MessageTemplate?: string | null;
/** 自定义回调模板 */
CallBack?: CallBackInfo;
/** 多维分析设置 */
Analysis?: AnalysisDimensional[];
/** 分组触发状态。true:开启,false:关闭(默认) */
GroupTriggerStatus?: boolean;
/** 分组触发条件。 */
GroupTriggerCondition?: string[];
/** 告警策略绑定的标签信息。 */
Tags?: Tag[];
/** 监控对象类型。0:执行语句共用监控对象;1:每个执行语句单独选择监控对象。 */
MonitorObjectType?: number;
/** 告警级别。0:警告(Warn);1:提醒(Info);2:紧急 (Critical)。 */
AlarmLevel?: number;
/** 告警附加分类字段。 */
Classifications?: AlarmClassification[];
/** 多触发条件。与Condition互斥。 */
MultiConditions?: MultiCondition[];
/** 腾讯云可观测平台通知渠道相关信息,和AlarmNoticeIds互斥 */
MonitorNotice?: MonitorNotice;
}
/** 告警通知渠道组详细配置 */
declare interface AlarmNotice {
/** 告警通知渠道组名称。 */
Name?: string;
/** 告警通知渠道组绑定的标签信息。 */
Tags?: Tag[];
/** 告警模板的类型。可选值: Trigger - 告警触发 Recovery - 告警恢复 All - 告警触发和告警恢复 */
Type?: string;
/** 告警通知模板接收者信息。 */
NoticeReceivers?: NoticeReceiver[];
/** 告警通知模板回调信息。 */
WebCallbacks?: WebCallback[];
/** 告警通知模板ID。 */
AlarmNoticeId?: string;
/** 通知规则。 */
NoticeRules?: NoticeRule[];
/** 免登录操作告警开关。参数值: 1:关闭 2:开启(默认开启) */
AlarmShieldStatus?: number;
/** 调用链接域名。http:// 或者 https:// 开头,不能/结尾 */
JumpDomain?: string;
/** 投递相关信息。 */
AlarmNoticeDeliverConfig?: AlarmNoticeDeliverConfig | null;
/** 创建时间。格式: YYYY-MM-DD HH:MM:SS */
CreateTime?: string;
/** 最近更新时间。格式: YYYY-MM-DD HH:MM:SS */
UpdateTime?: string;
/** 投递日志开关。参数值:1:关闭2:开启 */
DeliverStatus?: number;
/** 投递日志标识。参数值:1:未启用2:已启用3:投递异常 */
DeliverFlag?: number;
/** 通知渠道组配置的告警屏蔽统计状态数量信息。 */
AlarmShieldCount?: AlarmShieldCount | null;
/** 统一设定自定义回调参数。- true: 使用通知内容模板中的自定义回调参数覆盖告警策略中单独配置的请求头及请求内容。- false:优先使用告警策略中单独配置的请求头及请求内容。 */
CallbackPrioritize?: boolean;
}
/** 通知渠道投递日志配置信息 */
declare interface AlarmNoticeDeliverConfig {
/** 通知渠道投递日志配置信息。 */
DeliverConfig?: DeliverConfig;
/** 投递失败原因。 */
ErrMsg?: string;
}
/** 告警屏蔽统计信息 */
declare interface AlarmShieldCount {
/** 符合检索条件的告警屏蔽总数量 */
TotalCount?: number;
/** 告警屏蔽未生效数量 */
InvalidCount?: number;
/** 告警屏蔽生效中数量 */
ValidCount?: number;
/** 告警屏蔽已过期数量 */
ExpireCount?: number;
}
/** 告警屏蔽任务配置 */
declare interface AlarmShieldInfo {
/** 通知渠道组Id */
AlarmNoticeId?: string;
/** 屏蔽规则id */
TaskId?: string;
/** 屏蔽开始时间(秒级时间戳)。 */
StartTime?: number;
/** 屏蔽结束时间(秒级时间戳)。 */
EndTime?: number;
/** 屏蔽类型。1:屏蔽所有通知,2:按照Rule参数屏蔽匹配规则的通知。 */
Type?: number;
/** 屏蔽规则,当Type为2时必填。规则填写方式详见[产品文档](https://cloud.tencent.com/document/product/614/103178)。 */
Rule?: string;
/** 屏蔽原因。 */
Reason?: string;
/** 规则创建来源。1. 控制台,2.api,3.告警通知 */
Source?: number;
/** 操作者。 */
Operator?: string;
/** 规则状态。0:暂未生效,1:生效中,2:已失效 */
Status?: number;
/** 规则创建时间。秒级时间戳(s) */
CreateTime?: number;
/** 规则更新时间。秒级时间戳(s) */
UpdateTime?: number;
}
/** 告警对象 */
declare interface AlarmTarget {
/** 日志主题ID。-通过[获取日志主题列表](https://cloud.tencent.com/document/product/614/56454)获取日志主题ID */
TopicId: string;
/** 查询语句。 */
Query: string;
/** 告警对象序号;从1开始递增。 */
Number: number;
/** 查询范围起始时间相对于告警执行时间的偏移,单位为分钟,取值为非正,最大值为0,最小值为-1440。 */
StartTimeOffset: number;
/** 查询范围终止时间相对于告警执行时间的偏移,单位为分钟,取值为非正,须大于StartTimeOffset,最大值为0,最小值为-1440。 */
EndTimeOffset: number;
/** 日志集ID。通过[获取日志主题列表](https://cloud.tencent.com/document/product/614/56454)获取日志集ID */
LogsetId: string;
/** 检索语法规则,默认值为0。0:Lucene语法,1:CQL语法。详细说明参见检索条件语法规则 */
SyntaxRule?: number;
}
/** 告警对象 */
declare interface AlarmTargetInfo {
/** 日志集ID。 */
LogsetId?: string;
/** 日志集名称。 */
LogsetName?: string;
/** 日志主题ID。 */
TopicId?: string;
/** 日志主题名称。 */
TopicName?: string;
/** 查询语句。 */
Query?: string;
/** 告警对象序号。 */
Number?: number;
/** 查询范围起始时间相对于告警执行时间的偏移,单位为分钟,取值为非正,最大值为0,最小值为-1440。 */
StartTimeOffset?: number;
/** 查询范围终止时间相对于告警执行时间的偏移,单位为分钟,取值为非正,须大于StartTimeOffset,最大值为0,最小值为-1440。 */
EndTimeOffset?: number;
/** 检索语法规则,默认值为0。0:Lucene语法,1:CQL语法。详细说明参见检索条件语法规则 */
SyntaxRule?: number;
/** 主题类型。0: 日志主题,1: 指标主题 */
BizType?: number;
}
/** 告警通知渠道组详情 */
declare interface AlertHistoryNotice {
/** 通知渠道组名称 */
Name: string;
/** 通知渠道组ID */
AlarmNoticeId: string;
}
/** 告警历史详情 */
declare interface AlertHistoryRecord {
/** 告警历史ID */
RecordId: string;
/** 告警策略ID */
AlarmId: string;
/** 告警策略名称 */
AlarmName: string;
/** 监控对象ID */
TopicId: string;
/** 监控对象名称 */
TopicName: string;
/** 监控对象所属地域 */
Region: string;
/** 触发条件 */
Trigger: string;
/** 持续周期,持续满足触发条件TriggerCount个周期后,再进行告警 */
TriggerCount: number;
/** 告警通知发送频率,单位为分钟(min) */
AlarmPeriod: number;
/** 通知渠道组 */
Notices: AlertHistoryNotice[];
/** 告警持续时间,单位为分钟(min) */
Duration: number;
/** 告警状态,0代表未恢复,1代表已恢复,2代表已失效 */
Status: number;
/** 告警发生时间,毫秒级Unix时间戳(ms) */
CreateTime: number;
/** 告警分组触发时对应的分组信息 */
GroupTriggerCondition?: GroupTriggerConditionInfo[];
/** 告警级别,0代表警告(Warn),1代表提醒(Info),2代表紧急 (Critical) */
AlarmLevel?: number;
/** 监控对象类型。0:执行语句共用监控对象; 1:每个执行语句单独选择监控对象。 */
MonitorObjectType?: number;
/** 通知渠道类型,0默认代表cls内部通知渠道,1代表腾讯云可观测平台通知渠道 */
SendType?: number;
}
/** 多维分析的分析维度 */
declare interface AnalysisDimensional {
/** 分析名称 */
Name: string;
/** 分析类型:query(自定义检索分析),field(字段TOP5及占比统计) ,original(相关原始日志) */
Type: string;
/** 分析内容 */
Content: string;
/** 多维分析配置。当Analysis的Type字段为query(自定义)时,支持{"Key": "SyntaxRule", // 语法规则"Value": "1" //0:Lucene语法 ,1: CQL语法}当Analysis的Type字段为field(top5)时, 支持 { "Key": "QueryIndex", "Value": "-1" // -1:自定义, 1:执行语句1, 2:执行语句2},{ "Key": "CustomQuery", //检索语句。 QueryIndex为-1时有效且必填 "Value": "* | select count(*) as count"},{ "Key": "SyntaxRule", // 查不到这个字段也是老语法(Lucene) "Value": "0"//0:Lucene, 1:CQL} 当Analysis的Type字段为original(原始日志)时, 支持{ "Key": "Fields", "Value": "__SOURCE__,__HOSTNAME__,__TIMESTAMP__,__PKG_LOGID__,__TAG__.pod_ip"}, { "Key": "QueryIndex", "Value": "-1" // -1:自定义, 1:执行语句1, 2:执行语句2},{ "Key": "CustomQuery", // //检索语句。 QueryIndex为-1时有效且必填 "Value": "* | select count(*) as count"},{ "Key": "Format", //显示形式。1:每条日志一行,2:每条日志每个字段一行 "Value": "2"},{ "Key": "Limit", //最大日志条数 "Value": "5"},{ "Key": "SyntaxRule", // 查不到这个字段也是老语法 "Value": "0"//0:Lucene, 1:CQL} */
ConfigInfo?: AlarmAnalysisConfig[];
}
/** 免鉴权信息 */
declare interface AnonymousInfo {
/** 操作列表,支持trackLog(JS/HTTP上传日志 )和realtimeProducer(kafka协议上传日志) */
Operations?: string[];
/** 条件列表 */
Conditions?: ConditionInfo[];
}
/** 元数据Pod label标签结构体 */
declare interface AppointLabel {
/** 指定标签类型。- 0:所有Pod label,Keys字段无效- 1:指定Pod label,Keys字段不能为空 */
Type: number | null;
/** 元数据Pod标签的键。有效标签键有两个部分:可选前缀和名称,以斜杠 (/) 分隔。名称部分是必需的,并且必须不超过 63 个字符,以字母数字字符 ([a-z0-9A-Z]) 开头和结尾,中间有破折号(-)、下划线(_)、点(.) 和字母数字。前缀是可选的。如果指定,前缀必须是 DNS 子域:一系列以点 (.) 分隔的 DNS 标签,总长度不超过 253 个字符,后跟斜杠 ( /)。- prefix 格式 `[a-z0-9]([-a-z0-9]*[a-z0-9])?(\.[a-z0-9]([-a-z0-9]*[a-z0-9])?)*`- name 格式 `([A-Za-z0-9][-A-Za-z0-9_.]*)?[A-Za-z0-9]`- key不能重复 */
Keys?: string[] | null;
}
/** 指标采集配置 */
declare interface BaseMetricCollectConfig {
/** 机器组id */
GroupId?: string | null;
/** 基础监控采集配置信息 */
Configs?: MetricCollectConfig[] | null;
}
/** 回调配置 */
declare interface CallBackInfo {
/** 回调时的Body。可将各类告警变量放在请求内容中,详见[帮助文档](https://cloud.tencent.com/document/product/614/74718)。如下示例:```{"TopicId": "{{ .QueryLog[0][0].topicId }}","key": "{{.Alarm}}","time": "{{ .QueryLog[0][0].time }}","log": "{{ .QueryLog[0][0].content.__CONTENT__ }}","namespace": "{{ .QueryLog[0][0].content.__TAG__.namespace }}"}``` */
Body: string;
/** 回调时的HTTP请求头部字段。例如:下面请求头部字段来告知服务器请求主体的内容类型为JSON。```"Content-Type: application/json"``` */
Headers?: string[];
}
/** CKafka的描述-需要投递到的kafka信息 */
declare interface Ckafka {
/** Ckafka 的 InstanceId。- 通过 [获取实例列表信息](https://cloud.tencent.com/document/product/597/40835) 获取实例id。- 通过 [创建实例](https://cloud.tencent.com/document/product/597/53207) 获取实例id。 */
InstanceId: string;
/** Ckafka 的 TopicName。- 通过 [创建 Topic](https://cloud.tencent.com/document/product/597/73566) 获得TopicName。- 通过 [获取主题列表](https://cloud.tencent.com/document/product/597/40847) 获得TopicName。 */
TopicName: string;
/** Ckafka 的 Vip。- 通过 [获取实例属性 ](https://cloud.tencent.com/document/product/597/40836) 获取vip信息。- 如果是通过 角色ARN 方式创建投递任务,则Vip字段可为空。 */
Vip?: string;
/** Ckafka 的 Vport。- 通过 [获取实例属性 ](https://cloud.tencent.com/document/product/597/40836) 获取vip port信息。- 如果是通过 角色ARN 方式创建投递任务,则Vport字段可为空。 */
Vport?: string;
/** Ckafka 的 InstanceName。- 通过 [获取实例列表信息](https://cloud.tencent.com/document/product/597/40835) 获取InstanceName。- 通过 [创建实例](https://cloud.tencent.com/document/product/597/53207) 获取InstanceName。- 如果是通过 角色ARN 方式创建投递任务,则InstanceName字段可为空。 */
InstanceName?: string;
/** Ckafka 的 TopicId。- 通过 [创建 Topic](https://cloud.tencent.com/document/product/597/73566) 获得TopicId。- 通过 [获取主题列表](https://cloud.tencent.com/document/product/597/40847) 获得TopicId。- 如果是通过 角色ARN 方式创建投递任务,则TopicId字段可为空。 */
TopicId?: string;
}
/** 云产品日志投递任务信息 */
declare interface CloudProductLogTaskInfo {
/** 日志服务地域 */
ClsRegion?: string;
/** 实例ID */
InstanceId?: string;
/** 日志集ID */
LogsetId?: string;
/** 日志主题ID */
TopicId?: string;
/** 日志配置拓展信息, 一般用于存储额外的日志投递配置 */
Extend?: string;
/** 日志类型,支持枚举:CDS-AUDIT、CDS-RISK、CDB-AUDIT、TDSQL-C-AUDIT、MongoDB-AUDIT、MongoDB-SlowLog、MongoDB-ErrorLog、TDMYSQL-SLOW、DCDB-AUDIT、DCDB-SLOW、DCDB-ERROR、MariaDB-AUDIT、MariaDB-SLOW、MariaDB-ERROR、PostgreSQL-SLOW、PostgreSQL-ERROR、PostgreSQL-AUDIT、BH-FILELOG、BH-COMMANDLOG、APIS-ACCESS */
LogType?: string;
/** 任务状态, 0创建中 1创建完成 2 删除中 */
Status?: number;
}
/** 采集配置信息 */
declare interface CollectConfig {
/** 指定采集类型的采集配置名称信息。当CollectInfo中Type为0:表示元数据配置,name为元数据名称。目前支持"container_id","container_name","image_name","namespace","pod_uid","pod_name","pod_ip"。当CollectInfo中Type为1:指定pod label,name为指定pod label名称。 */
Name: string;
}
/** 采集配置信息 */
declare interface CollectInfo {
/** 采集类型,必填字段。0:元数据配置。1:指定Pod Label。 */
Type: number;
/** 指定采集类型的采集配置信息。当Type为0时,CollectConfigs不允许为空。当Type为1时,CollectConfigs为空时,表示选择所有Pod Label;否则CollectConfigs为指定Pod Label。 */
CollectConfigs?: CollectConfig[];
}
/** 日志分析的列属性 */
declare interface Column {
/** 列的名字 */
Name?: string;
/** 列的属性 */
Type?: string;
}
/** 投递日志的压缩配置 */
declare interface CompressInfo {
/** 压缩格式,支持gzip、lzop、snappy和none不压缩 */
Format: string;
}
/** 免鉴权条件信息 */
declare interface ConditionInfo {
/** 条件属性,目前只支持VpcID */
Attributes?: string;
/** 条件规则,1:等于,2:不等于 */
Rule?: number;
/** 对应条件属性的值 */
ConditionValue?: string;
}
/** 特殊采集规则配置信息 */
declare interface ConfigExtraInfo {
/** 采集规则扩展配置ID */
ConfigExtraId?: string;
/** 采集规则名称 */
Name?: string;
/** 日志主题ID */
TopicId?: string;
/** 自建k8s集群日志采集类型,支持- container_stdout 标准输出- container_file 标准文件- host_file 节点文件 */
Type?: string;
/** 节点文件配置信息 */
HostFile?: HostFileInfo;
/** 容器文件路径信息 */
ContainerFile?: ContainerFileInfo;
/** 容器标准输出信息 */
ContainerStdout?: ContainerStdoutInfo;
/** 日志格式化方式 */
LogFormat?: string;
/** 采集的日志类型,json_log代表json格式日志,delimiter_log代表分隔符格式日志,minimalist_log代表极简日志,multiline_log代表多行日志,fullregex_log代表完整正则,默认为minimalist_log */
LogType?: string;
/** 提取规则,如果设置了ExtractRule,则必须设置LogType */
ExtractRule?: ExtractRuleInfo;
/** 采集黑名单路径列表 */
ExcludePaths?: ExcludePathInfo[] | null;
/** 更新时间- 时间格式:yyyy-MM-dd HH:mm:ss */
UpdateTime?: string;
/** 创建时间- 时间格式:yyyy-MM-dd HH:mm:ss */
CreateTime?: string;
/** 用户自定义解析字符串 */
UserDefineRule?: string;
/** 机器组ID- 通过[获取机器组列表](https://cloud.tencent.com/document/api/614/56438)获取机器组Id。 */
GroupId?: string;
/** 自建采集配置标 */
ConfigFlag?: string;
/** 日志集ID- 通过[获取日志集列表](https://cloud.tencent.com/document/api/614/58624)获取日志集Id。 */
LogsetId?: string;
/** 日志集name */
LogsetName?: string;
/** 日志主题name */
TopicName?: string;
/** 采集相关配置信息。详情见 CollectInfo复杂类型配置。 */
CollectInfos?: CollectInfo[];
/** 高级采集配置。 Json字符串, Key/Value定义为如下:- ClsAgentFileTimeout(超时属性), 取值范围: 大于等于0的整数, 0为不超时- ClsAgentMaxDepth(最大目录深度),取值范围: 大于等于0的整数- ClsAgentParseFailMerge(合并解析失败日志),取值范围: true或false样例:{"ClsAgentFileTimeout":0,"ClsAgentMaxDepth":10,"ClsAgentParseFailMerge":true} */
AdvancedConfig?: string;
}
/** 采集规则配置信息 */
declare interface ConfigInfo {
/** 采集规则配置ID */
ConfigId?: string;
/** 采集规则配置名称 */
Name?: string;
/** 日志格式化方式 */
LogFormat?: string;
/** 日志采集路径 */
Path?: string;
/** 采集的日志类型。- json_log代表:JSON-文件日志(详见[使用 JSON 提取模式采集日志](https://cloud.tencent.com/document/product/614/17419));- delimiter_log代表:分隔符-文件日志(详见[使用分隔符提取模式采集日志](https://cloud.tencent.com/document/product/614/17420));- minimalist_log代表:单行全文-文件日志(详见[使用单行全文提取模式采集日志](https://cloud.tencent.com/document/product/614/17421));- fullregex_log代表:单行完全正则-文件日志(详见[使用单行-完全正则提取模式采集日志](https://cloud.tencent.com/document/product/614/52365));- multiline_log代表:多行全文-文件日志(详见[使用多行全文提取模式采集日志](https://cloud.tencent.com/document/product/614/17422));- multiline_fullregex_log代表:多行完全正则-文件日志(详见[使用多行-完全正则提取模式采集日志](https://cloud.tencent.com/document/product/614/52366));- user_define_log代表:组合解析(适用于多格式嵌套的日志,详见[使用组合解析提取模式采集日志](https://cloud.tencent.com/document/product/614/61310));- service_syslog代表:syslog 采集(详见[采集 Syslog](https://cloud.tencent.com/document/product/614/81454));- windows_event_log代表:Windows事件日志(详见[采集 Windows 事件日志](https://cloud.tencent.com/document/product/614/96678))。 */
LogType?: string;
/** 提取规则,如果设置了ExtractRule,则必须设置LogType */
ExtractRule?: ExtractRuleInfo;
/** 采集黑名单路径列表 */
ExcludePaths?: ExcludePathInfo[] | null;
/** 采集配置所属日志主题ID即TopicId */
Output?: string;
/** 更新时间- 时间格式:yyyy-MM-dd HH:mm:ss */
UpdateTime?: string;
/** 创建时间- 时间格式:yyyy-MM-dd HH:mm:ss */
CreateTime?: string;
/** 用户自定义解析字符串,详见[使用组合解析提取模式采集日志](https://cloud.tencent.com/document/product/614/61310)。 */
UserDefineRule?: string;
/** 高级采集配置。 Json字符串, Key/Value定义为如下:- ClsAgentFileTimeout(超时属性), 取值范围: 大于等于0的整数, 0为不超时- ClsAgentMaxDepth(最大目录深度),取值范围: 大于等于0的整数- ClsAgentParseFailMerge(合并解析失败日志),取值范围: true或false样例:`{\"ClsAgentFileTimeout\":0,\"ClsAgentMaxDepth\":10,\"ClsAgentParseFailMerge\":true}`控制台默认占位值:`{\"ClsAgentDefault\":0}` */
AdvancedConfig?: string;
/** 日志输入类型(注:windows场景必填且仅支持file和windows_event类型)- file: 文件类型采集- windows_event:windows事件采集- syslog:系统日志采集 */
InputType?: string;
}
/** 控制台分享配置 */
declare interface ConsoleSharingConfig {
/** 分享链接名称 */
Name: string;
/** 仪表盘: 1; 检索页:2 */
Type: number;
/** 分享链接有效期,单位:毫秒,最长支持30天 */
DurationMilliseconds: number;
/** 允许访问的资源列表,目前仅支持一个Resource */
Resources: string[];
/** 分享链接域名,可选范围- 公网匿名分享:填写clsshare.com- datasight内网匿名分享(若开启):datasight内网域名 */
Domain?: string | null;
/** 分享链接加密访问验证码。支持0-9和a-z(不区分大小写)在内的6个字符,可为空,代表免验证码访问 */
VerifyCode?: string | null;
/** 默认查询范围的开始时间点,支持绝对时间(13位Unix时间戳)或相对时间表达式 */
StartTime?: string;
/** 默认查询范围的结束时间点,支持绝对时间(13位Unix时间戳)或相对时间表达式。注意,结束时间点要大于开始时间点 */
EndTime?: string;
/** 仅当StartTime/EndTime为相对时间时使用,基于NowTime计算绝对时间,默认为创建时间 */
NowTime?: number | null;
/** 默认的检索分析语句,仅当Type为2时使用 */
Params?: ConsoleSharingParam[] | null;
/** 是否允许访问者自行修改检索分析时间范围。默认不锁定(false) */
IsLockTimeRange?: boolean;
/** 是否允许访问者自行修改日志检索语句。在检索页分享中表示检索语句锁定状态;在仪表盘中表示过滤变量锁定状态。默认不锁定(false) */
IsLockQuery?: boolean;
/** 检索页分享是否允许访问者下载日志,默认不允许(false) */
IsSupportLogExport?: boolean | null;
}
/** 控制台分享信息 */
declare interface ConsoleSharingInfo {
/** 分享ID */
SharingId: string;
/** 分享链接 */
SharingUrl?: string | null;
/** 匿名分享配置信息 */
SharingConfig?: ConsoleSharingConfig | null;
/** 过期时间 */
ExpiredTime?: number | null;
/** 创建时间 */
CreateTime?: number | null;
/** 修改时间 */
UpdateTime?: number | null;
/** 分享链接状态1: 正常 -1: 因内容安全审查异常导致被封禁(存在于使用公网域名分享时) */
Status?: number | null;
/** 10001-广告 20001-政治 20002-色情 20004-社会事件 20011-暴力 20012-低俗 20006-违法犯罪 20007-谩骂 20008-欺诈 20013-版权 20104-谣言 21000-其他, 10086-聚合, 24001-暴恐(天御独有恶意类型),20472-违法,24005-社会 */
ContentSafetyCode?: number | null;
}
/** 控制台分享链接params参数 */
declare interface ConsoleSharingParam {
/** 名称 */
Name?: string | null;
/** 值 */
Value?: string | null;
}
/** 投递任务出入参 Content */
declare interface ConsumerContent {
/** 是否投递 TAG 信息。当EnableTag为true时,表示投递TAG元信息。 */
EnableTag: boolean;
/** 需要投递的元数据列表,目前仅支持:\_\_SOURCE\_\_,\_\_FILENAME\_\_,\_\_TIMESTAMP\_\_,\_\_HOSTNAME\_\_和\_\_PKGID\_\_ */
MetaFields: string[];
/** 当EnableTag为true时,必须填写TagJsonNotTiled字段。TagJsonNotTiled用于标识tag信息是否json平铺。TagJsonNotTiled为true时不平铺,示例:TAG信息:`{"__TAG__":{"fieldA":200,"fieldB":"text"}}`不平铺:`{"__TAG__":{"fieldA":200,"fieldB":"text"}}`TagJsonNotTiled为false时平铺,示例:TAG信息:`{"__TAG__":{"fieldA":200,"fieldB":"text"}}`平铺:`{"__TAG__.fieldA":200,"__TAG__.fieldB":"text"}` */
TagJsonNotTiled?: boolean;
/** 投递时间戳精度,可选项 [1:秒;2:毫秒] ,默认是1。 */
TimestampAccuracy?: number;
/** 投递Json格式。JsonType为0:和原始日志一致,不转义。示例:日志原文:`{"a":"aa", "b":{"b1":"b1b1", "c1":"c1c1"}}`投递到Ckafka:`{"a":"aa", "b":{"b1":"b1b1", "c1":"c1c1"}}`JsonType为1:转义。示例:日志原文:`{"a":"aa", "b":{"b1":"b1b1", "c1":"c1c1"}}`投递到Ckafka:`{"a":"aa","b":"{\"b1\":\"b1b1\", \"c1\":\"c1c1\"}"}` */
JsonType?: number;
}
/** kafka协议消费组信息 */
declare interface ConsumerGroup {
/** 消费组名称 */
Group?: string;
/** 状态。- Empty:组内没有成员,但存在已提交的偏移量。所有消费者都离开但保留了偏移量- Dead:组内没有成员,且没有已提交的偏移量。组被删除或长时间无活动- Stable:组内成员正常消费,分区分配平衡。正常运行状态- PreparingRebalance:组正在准备重新平衡。有新成员加入或现有成员离开- CompletingRebalance:组正在准备重新平衡。有新成员加入或现有成员离开 */
State?: string;
/** 分区分配策略均衡算法名称。- 常见均衡算法如下: - range:按分区范围分配 - roundrobin:轮询式分配 - sticky:粘性分配(避免不必要的重平衡) */
ProtocolName?: string;
}
/** 消费组信息 */
declare interface ConsumerGroupInfo {
/** 消费组标识 */
ConsumerGroup?: string;
/** 消费者心跳超时时间(秒) */
Timeout?: number;
/** topic列表 */
Topics?: string[];
}
/** 投递规则 */
declare interface ConsumerInfo {
/** 投递规则ID */
ConsumerId?: string;
/** 日志主题ID */
TopicId?: string;
/** 投递任务是否生效 */
Effective?: boolean;
/** CKafka的描述 */
Ckafka?: Ckafka;
/** 是否投递日志的元数据信息 */
NeedContent?: boolean;
/** 如果需要投递元数据信息,元数据信息的描述 */
Content?: ConsumerContent | null;
/** 压缩方式[0:NONE;2:SNAPPY;3:LZ4] */
Compression?: number | null;
/** 投递任务创建毫秒时间戳 */
CreateTime?: number | null;
/** 角色访问描述名 [创建角色](https://cloud.tencent.com/document/product/598/19381) */
RoleArn?: string | null;
/** 外部ID */
ExternalId?: string | null;
/** 任务运行状态。支持`0`,`1`,`2` - `0`: 停止 - `1`: 运行中 - `2`: 异常 */
TaskStatus?: number | null;
/** 高级配置 */
AdvancedConfig?: AdvancedConsumerConfiguration;
}
/** 自建k8s-容器文件路径信息 */
declare interface ContainerFileInfo {
/** namespace可以多个,用分隔号分割,例如A,B */
Namespace: string;
/** 容器名称 */
Container: string;
/** 日志文件夹 */
LogPath: string;
/** 日志名称 */
FilePattern: string;
/** 日志文件信息 */
FilePaths?: FilePathInfo[];
/** pod标签信息 */
IncludeLabels?: string[] | null;
/** 工作负载信息 */
WorkLoad?: ContainerWorkLoadInfo;
/** 需要排除的namespace可以多个,用分隔号分割,例如A,B */
ExcludeNamespace?: string;
/** 需要排除的pod标签信息 */
ExcludeLabels?: string[] | null;
/** metadata信息 */
CustomLabels?: string[] | null;
}
/** 自建k8s-容器标准输出信息 */
declare interface ContainerStdoutInfo {
/** 是否所有容器 */
AllContainers: boolean;
/** container为空表所有的,不为空采集指定的容器 */
Container?: string;
/** namespace可以多个,用分隔号分割,例如A,B;为空或者没有这个字段,表示所有namespace */
Namespace?: string;
/** pod标签信息 */
IncludeLabels?: string[] | null;
/** 工作负载信息 */
WorkLoads?: ContainerWorkLoadInfo[] | null;
/** 需要排除的namespace可以多个,用分隔号分割,例如A,B */
ExcludeNamespace?: string;
/** 需要排除的pod标签信息 */
ExcludeLabels?: string[] | null;
/** metadata信息 */
CustomLabels?: string[] | null;
}
/** 自建k8s-工作负载信息 */
declare interface ContainerWorkLoadInfo {
/** 工作负载的类型,支持的取值如下:- deployment:无状态应用部署控制器。可管理无状态应用的多副本 Pod;支持滚动更新和回滚,实现无缝发布;通过 ReplicaSet 确保指定数量的 Pod 副本持续运行。适合 Web 服务、API 服务、微服务等不需要持久化存储或唯一标识的应用。- statefulset:用于管理有状态应用的控制器。可以为每个 Pod 提供稳定的、唯一的标识(有序的主机名和网络标识);能提供稳定的持久化存储(PVC 随 Pod 的迁移而保留);Pod 的创建、扩展、删除和更新都遵循确定的顺序。适合数据库(MySQL、MongoDB)、消息队列(Kafka、RabbitMQ)、集群应用等需要稳定网络标识和持久化存储的应用。- daemonset:确保所有(或特定)节点上都运行一个 Pod 副本的控制器。会在每个符合条件的 Node 上自动部署并运行一个 Pod;当新节点加入集群时,会自动在新节点上创建 Pod;适合运行节点级别的后台任务或服务,例如日志收集(Fluentd、Filebeat)、节点监控(Node Exporter)、网络插件(Calico、Weave Net)等场景。- job:用于运行一次性任务的控制器。可创建一个或多个 Pod 来执行任务,直到成功完成;当任务完成后,Pod 不会重启(除非配置了重启策略);可以指定任务的并行度和重试次数。适合数据处理、批量任务、数据库迁移、离线计算等一次性执行完成后就退出的任务。- cronjob:基于时间调度的 Job 控制器。类似于 Linux 的 cron,按照预定的时间表周期性地创建并运行 Job。每个调度周期都会创建一个新的 Job 来执行任务。适合定期备份、发送报告、数据清理、定时同步等需要周期性执行的任务。 */
Kind: string;
/** 工作负载的名称 */
Name: string;
/** 容器名 */
Container?: string;
/** 命名空间 */
Namespace?: string;
}
/** 投递日志的内容格式配置 */
declare interface ContentInfo {
/** 内容格式,支持json,csv,parquet */
Format: string;
/** csv格式内容描述 */
Csv?: CsvInfo | null;
/** json格式内容描述 */
Json?: JsonInfo | null;
/** parquet格式内容描述 */
Parquet?: ParquetInfo | null;
}
/** cos导入配置信息 */
declare interface CosRechargeInfo {
/** COS导入配置ID */
Id?: string;
/** 日志主题ID */
TopicId?: string;
/** 日志集ID */
LogsetId?: string;
/** COS导入任务名称 */
Name?: string;
/** COS存储桶 */
Bucket?: string;
/** COS存储桶所在地域。- 通过[地域和访问域名](https://cloud.tencent.com/document/product/436/6224)获取地域信息。 */
BucketRegion?: string;
/** COS文件所在文件夹的前缀 */
Prefix?: string;
/** 采集的日志类型,json_log代表json格式日志,delimiter_log代表分隔符格式日志,minimalist_log代表单行全文;默认为minimalist_log */
LogType?: string;
/** 状态 status 0: 已创建, 1: 运行中, 2: 已停止, 3: 已完成, 4: 运行失败。 */
Status?: number;
/** 是否启用: 0: 未启用 , 1:启用 */
Enable?: number;
/** 创建时间。时间格式:YYYY-MM-DD HH:mm:ss */
CreateTime?: string;
/** 更新时间。时间格式:YYYY-MM-DD HH:mm:ss */
UpdateTime?: string;
/** 进度条百分值 */
Progress?: number;
/** 压缩方式supported: "", "gzip", "lzop", "snappy”; 默认空不压缩 */
Compress?: string;
/** 见: ExtractRuleInfo 结构描述 */
ExtractRuleInfo?: ExtractRuleInfo;
/** COS导入任务类型。1:一次性导入任务;2:持续性导入任务。 */
TaskType?: number;
/** 元数据。支持 bucket,object。 */
Metadata?: string[];
}
/** csv内容描述 */
declare interface CsvInfo {
/** csv首行是否打印key */
PrintKey: boolean;
/** 每列key的名字 */
Keys: string[] | null;
/** 各字段间的分隔符 */
Delimiter: string;
/** 若字段内容中包含分隔符,则使用该转义符包裹改字段,只能填写单引号、双引号、空字符串 */
EscapeChar: string;
/** 对于上面指定的不存在字段使用该内容填充 */
NonExistingField: string;
}
/** 自定义标签结构体 */
declare interface CustomLabel {
/** 标签的键。- 必须以字母或下划线开头,但不可以双下划线(__)开头,后面可以跟任意字母,数字或下划线。- 最大支持256个字符。- key不能重复 */
Key: string | null;
/** 标签的值。- 最大支持256个字符。 */
Value: string | null;
}
/** 自定义指标采集对象 */
declare interface CustomMetricSpec {
/** 端口。取值范围 [1,65535] */
Port: string | null;
/** Metric地址。校验格式:`^/[a-zA-Z0-9-_./]*$` */
Path: string | null;
/** 命名空间列表。- 最大支持100个- namespace 校验格式 `[a-z0-9]([-a-z0-9]*[a-z0-9])?` , 长度不能超过63- namespace 不能重复 */
Namespaces?: string[] | null;
/** Pod标签。- 最大支持100个 */
PodLabel?: Label[] | null;
}
/** 仪表盘信息 */
declare interface DashboardInfo {
/** 仪表盘id */
DashboardId?: string;
/** 仪表盘名字 */
DashboardName?: string;
/** 仪表盘数据 */
Data?: string;
/** 创建仪表盘的时间。格式:YYYY-MM-DD HH:MM:SS */
CreateTime?: string;
/** AssumerUin非空则表示创建该日志主题的服务方Uin */
AssumerUin?: number;
/** RoleName非空则表示创建该日志主题的服务方使用的角色 */
RoleName?: string;
/** AssumerName非空则表示创建该日志主题的服务方名称 */
AssumerName?: string;
/** 日志主题绑定的标签信息 */
Tags?: Tag[];
/** 仪表盘所在地域: 为了兼容老的地域。 */
DashboardRegion?: string;
/** 修改仪表盘的时间。格式:YYYY-MM-DD HH:MM:SS */
UpdateTime?: string;
/** 仪表盘对应的topic相关信息 */
DashboardTopicInfos?: DashboardTopicInfo[];
}
/** 仪表盘订阅通知方式 */
declare interface DashboardNoticeMode {
/** 仪表盘通知方式。- Uin:腾讯云用户- Group:腾讯云用户组- WeCom:企业微信回调- Email:自定义邮件- DingTalk:钉钉- Lark:飞书 */
ReceiverType: string;
/** 知方式对应的值。- 当ReceiverType为:`WeCom`、`DingTalk`、`Lark` 时,Values必须为空,且Url字段必填。- 当ReceiverType为:`Uin`、`Group`、`Email` 时,Values必填,且Url字段必须为空。- 当ReceiverType为:`Uin ` 时,Values为用户id,通过 [拉取子用户](https://cloud.tencent.com/document/product/598/34587) 获取子用户 UID 。- 当ReceiverType为:`Group` 时,Values为用户组id,通过 [查询用户组列表](https://cloud.tencent.com/document/product/598/34589) 获取用户组 ID 。- 当ReceiverType为:`Email` 时,Values为用户邮箱信息。 */
Values?: string[];
/** 仪表盘通知渠道。- 支持:["Email","Sms","WeChat","Phone"]。- 当ReceiverType为 `Email` 或 `WeCom` 时,ReceiverChannels无效。 */
ReceiverChannels?: string[] | null;
/** 订阅方式 - 回调地址。- 当ReceiverType为:`WeCom`、`DingTalk`、`Lark` 时,Url字段必填为各渠道的回调地址。 - 为:`WeCom` 时,Url为 企业微信回调地址。 - 为:`DingTalk` 时,Url为 钉钉机器人Webhook地址。 - 为:`Lark` 时,Url为 飞书机器人Webhook地址。- 当ReceiverType为:`Uin`、`Group`、`Email` 时,Url字段必须为空。 */
Url?: string;
}
/** 仪表盘订阅相关数据 */
declare interface DashboardSubscribeData {
/** 仪表盘订阅通知方式。 */
NoticeModes: DashboardNoticeMode[];
/** 仪表盘订阅时间,为空标识取仪表盘默认的时间。 */
DashboardTime?: string[] | null;
/** 仪表盘订阅模板变量。 */
TemplateVariables?: DashboardTemplateVariable[] | null;
/** 时区。参考:https://en.wikipedia.org/wiki/List_of_tz_database_time_zones#SHANGHAI */
Timezone?: string;
/** 语言。 zh 中文、en`英文。 */
SubscribeLanguage?: string;
/** 调用链接域名。http:// 或者 https:// 开头,不能/结尾 */
JumpDomain?: string;
/** 自定义跳转链接。 */
JumpUrl?: string;
}
/** 仪表盘订阅信息 */
declare interface DashboardSubscribeInfo {
/** 仪表盘订阅id。 */
Id?: number;
/** 仪表盘订阅名称。 */
Name?: string;
/** 仪表盘id。 */
DashboardId?: string;
/** 仪表盘订阅时间。 */
Cron?: string;
/** 仪表盘订阅数据。 */
SubscribeData?: DashboardSubscribeData;
/** 仪表盘订阅记录创建时间。格式:`YYYY-MM-DD HH:MM:SS` */
CreateTime?: string;
/** 仪表盘订阅记录更新时间。格式:`YYYY-MM-DD HH:MM:SS` */
UpdateTime?: string;
/** 仪表盘订阅记录最后一次发送成功时间。格式:`YYYY-MM-DD HH:MM:SS` */
LastTime?: string;
/** 腾讯云主账号Id。 */
Uin?: number;
/** 腾讯云主账号下的子账号Id。 */
SubUin?: number;
/** 仪表盘订阅记录最后一次发送的状态。success:全部发送成功,fail:未发送, partialSuccess:部分发送成功。 */
LastStatus?: string;
}
/** 仪表盘订阅模板变量 */
declare interface DashboardTemplateVariable {
/** key的值 */
Key: string;
/** key对应的values取值values */
Values: string[];
}
/** 仪表盘关联的topic信息 */
declare interface DashboardTopicInfo {
/** 主题id */
TopicId: string;
/** topic所在的地域。- 1:广州- 4:上海- 5:中国香港- 7:上海金融- 8:北京- 9:新加坡- 11:深圳金融- 15:硅谷- 16:成都- 17:法兰克福- 18:首尔- 19:重庆- 22:弗吉尼亚- 23:曼谷- 25:东京- 33:南京- 36:天津- 39:台北- 46:北京金融- 72:雅加达- 74:圣保罗- 78:上海自动驾驶云 */
Region: string;
}
/** 数据加工的资源信息 */
declare interface DataTransformResouceInfo {
/** 日志主题ID- 通过[获取日志主题列表](https://cloud.tencent.com/document/product/614/56454)获取日志主题Id。 */
TopicId: string;
/** 别名限制:不能包含字符 |。 */
Alias?: string;
}
/** 外部表SQL信息 */
declare interface DataTransformSqlDataSource {
/** 数据源类型 1:MySql;2:自建mysql;3:pgsql */
DataSource: number;
/** InstanceId所属地域。例如:ap-guangzhou */
Region: string;
/** 实例Id。- 当DataSource为1时,表示云数据库Mysql 实例id,如:cdb-zxcvbnm */
InstanceId: string;
/** mysql访问用户名 */
User: string;
/** 别名。数据加工语句中使用 */
AliasName: string;
/** mysql访问密码。 */
Password?: string;
}
/** 数据加工任务基本详情 */
declare interface DataTransformTaskInfo {
/** 数据加工任务名称 */
Name?: string;
/** 数据加工任务id */
TaskId?: string;
/** 任务启用状态,默认为1,正常开启, 2关闭 */
EnableFlag?: number;
/** 加工任务类型,1: DSL(使用自定义加工语言的加工任务), 2:SQL(使用sql的加工任务) */
Type?: number;
/** 源日志主题 */
SrcTopicId?: string;
/** 当前加工任务状态(1准备中/2运行中/3停止中/4已停止) */
Status?: number;
/** 创建时间时间格式:yyyy-MM-dd HH:mm:ss */
CreateTime?: string;
/** 最近修改时间时间格式:yyyy-MM-dd HH:mm:ss */
UpdateTime?: string;
/** 最后启用时间,如果需要重建集群,修改该时间时间格式:yyyy-MM-dd HH:mm:ss */
LastEnableTime?: string;
/** 日志主题名称 */
SrcTopicName?: string;
/** 日志集id */
LogsetId?: string;
/** 加工任务目的topic_id以及别名 */
DstResources?: DataTransformResouceInfo[];
/** 加工逻辑函数。 */
EtlContent?: string;
/** 兜底topic_id */
BackupTopicID?: string;
/** 超限之后是否丢弃日志数据 */
BackupGiveUpData?: boolean;
/** 是否开启投递服务日志。 1关闭,2开启 */
HasServicesLog?: number;
/** 任务目标日志主题数量 */
TaskDstCount?: number;
/** 数据加工类型。0:标准加工任务;1:前置加工任务。 */
DataTransformType?: number;
/** 保留失败日志状态。 1:不保留,2:保留 */
KeepFailureLog?: number;
/** 失败日志的字段名称 */
FailureLogKey?: string;
/** 指定加工数据的开始时间,秒级时间戳。- 日志主题生命周期内的任意时间范围,如果超出了生命周期,只处理生命周期内有数据的部分。 */
ProcessFromTimestamp?: number;
/** 指定加工数据的结束时间,秒级时间戳。1. 不可指定未来的时间2. 不填则表示持续执行 */
ProcessToTimestamp?: number;
/** sql数据源信息 */
DataTransformSqlDataSources?: DataTransformSqlDataSource[];
/** 环境变量 */
EnvInfos?: EnvInfo[];
}
/** 投递配置入参 */
declare interface DeliverConfig {
/** 地域信息。示例: ap-guangzhou 广州地域;ap-nanjing 南京地域。详细信息请查看官网[地域和访问域名](https://cloud.tencent.com/document/product/614/18940) */
Region: string;
/** 日志主题ID。-通过[获取日志主题列表](https://cloud.tencent.com/document/product/614/56454)获取日志主题ID */
TopicId: string;
/** 投递数据范围。0: 全部日志, 包括告警策略日常周期执行的所有日志,也包括告警策略变更产生的日志,默认值1:仅告警触发及恢复日志 */
Scope: number;
}
/** 云产品实例维度信息 */
declare interface Dimension {
/** 实例维度名称,此字段可能返回 null,表示取不到有效值。 */
Name?: string | null;
/** 实例维度值,此字段可能返回 null,表示取不到有效值。 */
Value?: string | null;
}
/** 投递DLC任务配置信息 */
declare interface DlcDeliverInfo {
/** 任务id。 */
TaskId?: string;
/** 账号id。 */
Uin?: number;
/** 日志主题id。 */
TopicId?: string;
/** 任务名称。 */
Name?: string;
/** 投递类型,0:实时投递,1:历史投递 */
DeliverType?: number;
/** 投递文件大小,单位MB */
MaxSize?: number;
/** 投递间隔 单位秒 */
Interval?: number;
/** 投递时间范围的开始时间 */
StartTime?: number;
/** 投递时间范围的结束时间 */
EndTime?: number;
/** dlc配置信息 */
DlcInfo?: DlcInfo;
/** 是否开启投递服务日志。1关闭,2开启 */
HasServicesLog?: number;
/** 任务状态。 */
Status?: number;
/** 任务进度。历史投递任务生效。 */
Progress?: number;
/** 日志主题类型。0:标准主题,1:指标主题 */
BizType?: number;
/** 任务创建时间。 */
CreateTime?: number;
/** 任务修改时间。 */
UpdateTime?: number;
}
/** 数据湖计算服务(Data Lake Compute,简称DLC)数据字段配置信息 */
declare interface DlcFiledInfo {
/** cls日志中的字段名 */
ClsField: string;
/** 数据湖计算服务表的列名 */
DlcField: string;
/** 数据湖计算服务字段类型 */
DlcFieldType: string;
/** 解析失败填充字段 */
FillField?: string;
/** 是否禁用 */
Disable?: boolean;
}
/** 数据湖计算服务(Data Lake Compute,简称DLC)导入配置信息 */
declare interface DlcInfo {
/** dlc表信息 */
TableInfo: DlcTableInfo;
/** dlc数据字段信息 */
FieldInfos: DlcFiledInfo[];
/** dlc分区信息 */
PartitionInfos: DlcPartitionInfo[];
/** dlc分区额外信息 */
PartitionExtra?: DlcPartitionExtra;
}
/** 数据湖计算服务(Data Lake Compute,简称DLC)数据分区额外信息 */
declare interface DlcPartitionExtra {
/** 时间格式 eg: %Y-%m-%d %H:%M:%S.%f */
TimeFormat?: string;
/** 时间时区 */
TimeZone?: string;
}
/** 数据湖计算服务(Data Lake Compute,简称DLC)数据分区配置 */
declare interface DlcPartitionInfo {
/** cls日志中的字段名 */
ClsField: string;
/** dlc表的列名 */
DlcField: string;
/** dlc字段类型 */
DlcFieldType: string;
}
/** 数据湖计算服务(Data Lake Compute,简称DLC)数据表配置信息 */
declare interface DlcTableInfo {
/** 数据目录 */
DataDirectory: string;
/** 数据库 */
DatabaseName: string;
/** 数据表 */
TableName: string;
}
/** 键值索引自动配置,启用后自动将日志内的字段添加到键值索引中,包括日志中后续新增的字段。 */
declare interface DynamicIndex {
/** 键值索引自动配置开关 */
Status?: boolean;
}
/** 数据加工-高级设置-环境变量 */
declare interface EnvInfo {
/** 环境变量名 */
Key: string;
/** 环境变量值 */
Value?: string;
}
/** Es导入信息 */
declare interface EsImportInfo {
/** 导入模式。1. 导入历史数据2. 导入实时数据 */
Type: number;
/** 开始时间。 单位:秒级时间戳。 */
StartTime?: number;
/** 结束时间。 单位:秒级时间戳。 */
EndTime?: number;
/** 最大延迟时间。单位:s导入模式为 2: 导入实时数据时必填 */
MaxDelay?: number;
/** 检查间隔。单位:s导入模式为 2: 导入实时数据时必填 */
CheckInterval?: number;
}
/** es集群配置信息 */
declare interface EsInfo {
/** es类型。 1:云es, 2:自建es */
EsType: number;
/** 访问方式 1:内网, 2:外网。自建es必填 */
AccessMode?: number;
/** 实例id。云es实例必填 */
InstanceId?: string;
/** 用户名。 */
User?: string;
/** 访问地址。自建es必填 */
Address?: string;
/** 访问端口。自建es必填 */
Port?: number;
/** 所属网络。自建es且访问方式为内网访问时必填 */
VpcId?: string;
/** 网络服务类型。自建es且访问方式为内网访问时必填。负载均衡 CLB:1025 云服务器CVM:0 */
VirtualGatewayType?: number;
/** 密码。 */
Password?: string;
}
/** es导入配置信息 */
declare interface EsRechargeInfo {
/** 任务id。 */
TaskId?: string;
/** 主账号id。 */
Uin?: number;
/** 日志主题id。- 通过 [获取日志主题列表](https://cloud.tencent.com/document/product/614/56454) 获取日志主题Id。- 通过 [创建日志主题](https://cloud.tencent.com/document/product/614/56456) 获取日志主题Id。 */
TopicId?: string;
/** 配置名称。 */
Name?: string;
/** es索引。 */
Index?: string;
/** es查询语句。 */
Query?: string;
/** es集群信息。 */
EsInfo?: EsInfo;
/** es导入信息。 */
ImportInfo?: EsImportInfo;
/** es导入时间配置信息。 */
TimeInfo?: EsTimeInfo;
/** 任务状态。1. 运行中2. 暂停3. 完成4. 异常 */
Status?: number;
/** 任务进度 0~100 百分比。100:表示完成。 */
Progress?: number;
/** 子账号id。 */
SubUin?: number;
/** 创建时间。 */
CreateTime?: number;
/** 修改时间。 */
UpdateTime?: number;
/** 是否开启投递服务日志。1:关闭,2:开启。 */
HasServicesLog?: number;
}
/** Es导入时间字段信息 */
declare interface EsTimeInfo {
/** 时间类型 1: 日志采集时间 2: 指定日志字段 */
Type: number;
/** 日志时间字段。时间类型为 2: 指定日志字段时必填 */
TimeKey?: string;
/** 日志时间格式。时间类型为 2: 指定日志字段时必填 */
TimeFormat?: string;
/** 时间字段时区。时间类型为 2: 指定日志字段时必填 */
TimeZone?: string;
}
/** 升级通知 */
declare interface EscalateNoticeInfo {
/** 告警通知模板接收者信息。 */
NoticeReceivers: NoticeReceiver[];
/** 告警通知模板回调信息。 */
WebCallbacks: WebCallback[];
/** 告警升级开关。`true`:开启告警升级、`false`:关闭告警升级,默认:false */
Escalate?: boolean;
/** 告警升级间隔。单位:分钟,范围`[1,14400]` */
Interval?: number;
/** 升级条件。`1`:无人认领且未恢复、`2`:未恢复,默认为1- 无人认领且未恢复:告警没有恢复并且没有人认领则升级- 未恢复:当前告警持续未恢复则升级 */
Type?: number;
/** 告警升级后下一个环节的通知渠道配置,最多可配置5个环节。 */
EscalateNotice?: EscalateNoticeInfo;
}
/** Windows事件日志采集配置 */
declare interface EventLog {
/** 事件通道,支持- Application 应用日志- Security 安全日志- Setup 启动日志- System 系统日志- ALL 所有日志 */
EventChannel: string;
/** 时间字段(Timestamp)支持的类型- 1(用户自定义时间)- 2(当前时间) */
TimeType: number;
/** 时间,用户选择自定义时间类型时,需要指定时间,单位秒格式:时间戳,1754897446 */
Timestamp?: number;
/** 事件ID过滤列表 选填,为空表示不做过滤支持正向过滤单个值(例:20)或范围(例:0-20),也支持反向过滤单个值(例:-20)多个过滤项之间可由逗号隔开,例:1-200,-100表示采集1-200范围内除了100以外的事件日志 */
EventIDs?: string[];
}
/** 黑名单path信息 */
declare interface ExcludePathInfo {
/** 类型,选填File或Path */
Type: string;
/** Type对应的具体内容 */
Value: string;
}
/** 日志导出信息 */
declare interface ExportInfo {
/** 日志主题ID */
TopicId?: string;
/** 日志导出任务ID */
ExportId?: string;
/** 日志导出查询语句 */
Query?: string;
/** 日志导出文件名 */
FileName?: string;
/** 日志文件大小 */
FileSize?: number;
/** 日志导出时间排序 */
Order?: string;
/** 日志导出格式 */
Format?: string;
/** 日志导出数量 */
Count?: number;
/** 日志下载状态。Processing:导出正在进行中,Completed:导出完成,Failed:导出失败,Expired:日志导出已过期(三天有效期), Queuing 排队中 */
Status?: string;
/** 日志导出起始时间,毫秒时间戳 */
From?: number;
/** 日志导出结束时间,毫秒时间戳 */
To?: number;
/** 日志导出路径,有效期一个小时,请尽快使用该路径下载。 */
CosPath?: string;
/** 日志导出创建时间时间格式:yyyy-MM-dd HH:mm:ss */
CreateTime?: string;
/** 语法规则。 默认值为0。0:Lucene语法,1:CQL语法。 */
SyntaxRule?: number;
/** 导出字段 */
DerivedFields?: string[];
}
/** 日志提取规则 */
declare interface ExtractRuleInfo {
/** 时间字段的key名字,TimeKey和TimeFormat必须成对出现 */
TimeKey?: string;
/** 时间字段的格式,参考c语言的strftime函数对于时间的格式说明输出参数- 参考 [配置时间格式](https://cloud.tencent.com/document/product/614/38614) 文档 */
TimeFormat?: string;
/** 分隔符类型日志的分隔符,只有LogType为delimiter_log时有效 */
Delimiter?: string;
/** 整条日志匹配规则,只有LogType为fullregex_log时有效 */
LogRegex?: string;
/** 行首匹配规则,只有LogType为multiline_log或fullregex_log时有效 */
BeginRegex?: string;
/** 取的每个字段的key名字,为空的key代表丢弃这个字段,只有LogType为delimiter_log时有效,json_log的日志使用json本身的key。限制100个。 */
Keys?: string[] | null;
/** 日志过滤规则列表(旧版),需要过滤日志的key,及其对应的regex。 注意:2.9.3及以上版本LogListener ,建议使用AdvanceFilterRules配置日志过滤规则。 */
FilterKeyRegex?: KeyRegexInfo[];
/** 解析失败日志是否上传,true表示上传,false表示不上传 */
UnMatchUpLoadSwitch?: boolean | null;
/** 失败日志的key,当UnMatchUpLoadSwitch为true时必填 */
UnMatchLogKey?: string | null;
/** 增量采集模式下的回溯数据量,默认:-1(全量采集);其他非负数表示增量采集(从最新的位置,往前采集${Backtracking}字节(Byte)的日志)最大支持1073741824(1G)。注意:- COS导入不支持此字段。 */
Backtracking?: number | null;
/** 是否为Gbk编码。 0:否;1:是。注意- 目前取0值时,表示UTF-8编码- COS导入不支持此字段。 */
IsGBK?: number;
/** 是否为标准json。 0:否; 1:是。- 标准json指采集器使用业界标准开源解析器进行json解析,非标json指采集器使用CLS自研json解析器进行解析,两种解析器没有本质区别,建议客户使用标准json进行解析。 */
JsonStandard?: number | null;
/** syslog传输协议,取值为tcp或者udp,只有在LogType为service_syslog时生效,其余类型无需填写。注意:- 该字段适用于:创建采集规则配置、修改采集规则配置。- COS导入不支持此字段。 */
Protocol?: string;
/** syslog系统日志采集指定采集器监听的地址和端口 ,形式:[ip]:[port],只有在LogType为service_syslog时生效,其余类型无需填写。注意:- 该字段适用于:创建采集规则配置、修改采集规则配置。- COS导入不支持此字段。 */
Address?: string;
/** rfc3164:指定系统日志采集使用RFC3164协议解析日志。rfc5424:指定系统日志采集使用RFC5424协议解析日志。auto:自动匹配rfc3164或者rfc5424其中一种协议。只有在LogType为service_syslog时生效,其余类型无需填写。注意:- 该字段适用于:创建采集规则配置、修改采集规则配置- COS导入不支持此字段。 */
ParseProtocol?: string;
/** 元数据类型。0: 不使用元数据信息;1:使用机器组元数据;2:使用用户自定义元数据;3:使用采集配置路径。注意:- COS导入不支持此字段。 */
MetadataType?: number;
/** 采集配置路径正则表达式。```请用"()"标识路径中目标字段对应的正则表达式,解析时将"()"视为捕获组,并以__TAG__.{i}:{目标字段}的形式与日志一起上报,其中i为捕获组的序号。若不希望以序号为键名,可以通过命名捕获组"(?<{键名}>{正则})"自定义键名,并以__TAG__.{键名}:{目标字段}的形式与日志一起上报。最多支持5个捕获组```注意:- MetadataType为3时必填。- COS导入不支持此字段。 */
PathRegex?: string;
/** 用户自定义元数据信息。注意:- MetadataType为2时必填。- COS导入不支持此字段。 */
MetaTags?: MetaTagInfo[];
/** Windows事件日志采集规则,只有在LogType为windows_event_log时生效,其余类型无需填写。 */
EventLogRules?: EventLog[];
/** 日志过滤规则列表(新版)。注意:- 2.9.3以下版本LogListener不支持, 请使用FilterKeyRegex配置日志过滤规则。- 自建k8s采集配置(CreateConfigExtra、ModifyConfigExtra)不支持此字段。 */
AdvanceFilterRules?: AdvanceFilterRuleInfo[] | null;
}
/** 文件路径信息 */
declare interface FilePathInfo {
/** 文件路径 */
Path?: string;
/** 文件名称 */
File?: string;
}
/** 过滤器 */
declare interface Filter {
/** 需要过滤的字段。 */
Key: string;
/** 需要过滤的值。 */
Values: string[];
}
/** 投递日志的过滤规则 */
declare interface FilterRuleInfo {
/** 过滤规则Key */
Key: string;
/** 过滤规则 */
Regex: string;
/** 过滤规则Value */
Value: string;
}
/** 全文索引配置 */
declare interface FullTextInfo {
/** 是否大小写敏感 */
CaseSensitive: boolean;
/** 全文索引的分词符,其中的每个字符代表一个分词符;仅支持英文符号、\n\t\r及转义符\;注意:\n\t\r本身已被转义,直接使用双引号包裹即可作为入参,无需再次转义。使用API Explorer进行调试时请使用JSON参数输入方式,以避免\n\t\r被重复转义 */
Tokenizer: string;
/** 是否包含中文 */
ContainZH?: boolean;
}
/** kafka协议消费组区分信息 */
declare interface GroupPartitionInfo {
/** 分区id */
PartitionId?: number;
/** 分区最新数据时间戳,单位:s */
CommitTimestamp?: number;
/** 消费者 */
Consumer?: string;
}
/** 分组触发条件 */
declare interface GroupTriggerConditionInfo {
/** 分组触发字段名称 */
Key: string;
/** 分组触发字段值 */
Value: string;
}
/** 符合检索条件的关键词,一般用于高亮显示。仅支持键值检索,不支持全文检索 */
declare interface HighLightItem {
/** 高亮的日志字段名称 */
Key?: string;
/** 高亮的关键词 */
Values?: string[];
}
/** 直方图详细信息 */
declare interface HistogramInfo {
/** 统计周期内的日志条数 */
Count?: number;
/** 按 period 取整后的 unix timestamp: 单位毫秒 */
BTime?: number;
}
/** 自建k8s-节点文件配置信息 */
declare interface HostFileInfo {
/** 日志文件夹 */
LogPath: string;
/** 日志文件名 */
FilePattern: string;
/** metadata信息 */
CustomLabels?: string[] | null;
}
/** 主机指标采集配置 */
declare interface HostMetricConfig {
/** 采集配置 id */
ConfigId?: string;
/** 采集配置名称 */
Name?: string;
/** 采集频率,单位ms */
Interval?: number;
/** 采集项. */
HostMetricItems?: HostMetricItem[];
/** 机器组 id 列表 */
MachineGroupIds?: string[];
/** 创建时间 */
CreateTime?: number;
/** 修改时间 */
UpdateTime?: number;
}
/** 主机指标采集项 */
declare interface HostMetricItem {
/** 主机指标采集项类型。支持"cpu","mem","net","disk","system"。- cpu:CPU- mem:内存- net:网络- disk:磁盘- system:系统 */
Type: string;
}
/** 实例信息 */
declare interface Instance {
/** 实例信息 */
Values: string[];
}
/** 实例配置信息 */
declare interface InstanceConfig {
/** 实例维度 */
InstanceDimension: string[];
/** 实例值 */
Instances: Instance[];
}
/** 云产品指标订阅预览结果实例信息 */
declare interface InstanceData {
/** 云监控指标名称 */
MetricName?: string | null;
/** CLS指标名称 */
CLSMetricName?: string | null;
/** 云产品命名空间 */
Namespace?: string | null;
/** 实例信息 */
Dimensions?: Dimension[] | null;
/** 周期,单位:秒 */
Period?: number | null;
/** 指标统计值 */
Value?: number | null;
/** 错误信息 */
ErrMsg?: string | null;
}
/** JSON类型描述 */
declare interface JsonInfo {
/** 启用标志 */
EnableTag: boolean;
/** 元数据信息列表, 可选值为 __SOURCE__、__FILENAME__、__TIMESTAMP__、__HOSTNAME__。- __SOURCE__:日志采集的源 IP,示例:10.0.1.2- __FILENAME__:日志采集的文件名,示例:/data/log/nginx/access.log- __TIMESTAMP__:日志时间戳(毫秒级别 Unix 时间戳),按时间范围检索日志时,将自动使用该时间对日志进行检索,在控制台显示为“日志时间”,示例:1640005601188- __HOSTNAME__:日志来源机器名称,需使用2.7.4及以上版本的 Loglistener 才会采集该字段,示例:localhost */
MetaFields: string[] | null;
/** 投递Json格式,0:字符串方式投递;1:以结构化方式投递 */
JsonType?: number;
}
/** kafka协议消费内容 */
declare interface KafkaConsumerContent {
/** 消费数据格式。 0:原始内容;1:JSON。 */
Format: number;
/** 是否投递 TAG 信息Format为0时,此字段不需要赋值 */
EnableTag: boolean;
/** 元数据信息列表, 可选值为:\_\_SOURCE\_\_、\_\_FILENAME\_\_、\_\_TIMESTAMP\_\_、\_\_HOSTNAME\_\_、\_\_PKGID\_\_Format为0时,此字段不需要赋值 */
MetaFields: string[];
/** tag数据处理方式:1:不平铺(默认值);2:平铺。不平铺示例:TAG信息:`{"__TAG__":{"fieldA":200,"fieldB":"text"}}`不平铺:`{"__TAG__":{"fieldA":200,"fieldB":"text"}}`平铺示例:TAG信息:`{"__TAG__":{"fieldA":200,"fieldB":"text"}}`平铺:`{"__TAG__.fieldA":200,"__TAG__.fieldB":"text"}` */
TagTransaction?: number;
/** 消费数据Json格式:1:不转义(默认格式)2:转义投递Json格式。JsonType为1:和原始日志一致,不转义。示例:日志原文:`{"a":"aa", "b":{"b1":"b1b1", "c1":"c1c1"}}`投递到Ckafka:`{"a":"aa", "b":{"b1":"b1b1", "c1":"c1c1"}}`JsonType为2:转义。示例:日志原文:`{"a":"aa", "b":{"b1":"b1b1", "c1":"c1c1"}}`投递到Ckafka:`{"a":"aa","b":"{\"b1\":\"b1b1\", \"c1\":\"c1c1\"}"}` */
JsonType?: number;
}
/** Kafka访问协议 */
declare interface KafkaProtocolInfo {
/** 协议类型,支持的协议类型包括 plaintext、sasl_plaintext 或 sasl_ssl。建议使用 sasl_ssl,此协议会进行连接加密同时需要用户认证。- 当IsEncryptionAddr为true时,Protocol必填。- 支持的协议类型如下: - plaintext:纯文本无加密协议 - sasl_ssl:SASL 认证 + SSL 加密 - ssl:纯 SSL/TLS 加密协议 - sasl_plaintext:SASL 认证 + 非加密通道 */
Protocol?: string;
/** 加密类型,支持 PLAIN、SCRAM-SHA-256 或 SCRAM-SHA-512。- 当Protocol为 `sasl_plaintext` 或 `sasl_ssl` 时 Mechanism 必填。- 支持加密类型如下 - PLAIN:明文认证 - SCRAM-SHA-256:基于挑战-响应机制,使用PBKDF2-HMAC-SHA256算法 - SCRAM-SHA-512:增强版SCRAM,使用PBKDF2-HMAC-SHA512算法 */
Mechanism?: string;
/** 用户名。当Protocol为sasl_plaintext或sasl_ssl时必填 */
UserName?: string;
/** 用户密码。当Protocol为sasl_plaintext或sasl_ssl时必填 */
Password?: string;
}
/** Kafka导入配置信息 */
declare interface KafkaRechargeInfo {
/** Kafka数据订阅配置的ID。 */
Id?: string;
/** 日志主题ID */
TopicId?: string;
/** Kafka导入任务名称 */
Name?: string;
/** 导入Kafka类型,0: 腾讯云CKafka,1: 用户自建Kafka */
KafkaType?: number;
/** 腾讯云CKafka实例ID,KafkaType为0时必填 */
KafkaInstance?: string;
/** 服务地址 */
ServerAddr?: string;
/** ServerAddr是否为加密连接 */
IsEncryptionAddr?: boolean;
/** 加密访问协议,IsEncryptionAddr参数为true时必填 */
Protocol?: KafkaProtocolInfo;
/** 用户需要导入的Kafka相关topic列表,多个topic之间使用半角逗号隔开 */
UserKafkaTopics?: string;
/** 用户Kafka消费组名称 */
ConsumerGroupName?: string;
/** 状态 ,1:运行中;2:暂停。 */
Status?: number;
/** 导入数据位置,-2:最早(默认),-1:最晚 */
Offset?: number;
/** 创建时间。格式`YYYY-MM-DD HH:MM:SS` */
CreateTime?: string;
/** 更新时间。格式`YYYY-MM-DD HH:MM:SS` */
UpdateTime?: string;
/** 日志导入规则 */
LogRechargeRule?: LogRechargeRuleInfo;
/** 用户kafka拓展信息 */
UserKafkaMeta?: UserKafkaMeta;
}
/** 需要过滤日志的key,及其对应的regex */
declare interface KeyRegexInfo {
/** 需要过滤日志的key */
Key: string;
/** key对应的过滤规则regex */
Regex: string;
}
/** 键值或者元字段索引的字段信息 */
declare interface KeyValueInfo {
/** 需要配置键值或者元字段索引的字段名称,仅支持字母、数字、下划线和-./@,且不能以下划线开头注意:1,元字段(tag)的Key无需额外添加`__TAG__.`前缀,与上传日志时对应的字段Key一致即可,腾讯云控制台展示时将自动添加`__TAG__.`前缀2,键值索引(KeyValue)及元字段索引(Tag)中的Key总数不能超过3003,Key的层级不能超过10层,例如a.b.c.d.e.f.g.h.j.k4,不允许同时包含json父子级字段,例如a及a.b */
Key: string;
/** 字段的索引描述信息 */
Value: ValueInfo;
}
/** 标签结构体 */
declare interface Label {
/** 标签的键。有效标签键有两个部分:可选前缀和名称,以斜杠 (/) 分隔。名称部分是必需的,并且必须不超过 63 个字符,以字母数字字符 ([a-z0-9A-Z]) 开头和结尾,中间有破折号(-)、下划线(_)、点(.) 和字母数字。前缀是可选的。如果指定,前缀必须是 DNS 子域:一系列以点 (.) 分隔的 DNS 标签,总长度不超过 253 个字符,后跟斜杠 ( /)。- prefix 格式 `[a-z0-9]([-a-z0-9]*[a-z0-9])?(\.[a-z0-9]([-a-z0-9]*[a-z0-9])?)*`- name 格式 `([A-Za-z0-9][-A-Za-z0-9_.]*)?[A-Za-z0-9]`- key不能重复 */
Key: string | null;
/** 标签键值直接的比较关系。 不同业务场景支持的比较符不同,具体支持那些参考接口业务描述。例如:`in`、`notin` */
Operate: string | null;
/** 标签的值.- 最大支持63个字符。- 格式:`([A-Za-z0-9][-A-Za-z0-9_.]*)?[A-Za-z0-9]` */
Values?: string[] | null;
}
/** 日志上下文信息 */
declare interface LogContextInfo {
/** 日志来源设备 */
Source?: string;
/** 采集路径 */
Filename?: string;
/** 日志内容 */
Content?: string;
/** 日志包序号 */
PkgId?: string;
/** 日志包内一条日志的序号 */
PkgLogId?: number;
/** 日志时间戳 */
BTime?: number;
/** 日志来源主机名称 */
HostName?: string;
/** 原始日志(仅在日志创建索引异常时有值) */
RawLog?: string;
/** 日志创建索引异常原因(仅在日志创建索引异常时有值) */
IndexStatus?: string;
/** 日志内容的高亮描述信息 */
HighLights?: HighLightItem[];
}
/** 日志结果信息 */
declare interface LogInfo {
/** 日志时间,单位ms */
Time?: number;
/** 日志主题ID */
TopicId?: string;
/** 日志主题名称 */
TopicName?: string;
/** 日志来源IP */
Source?: string;
/** 日志文件名称 */
FileName?: string;
/** 日志上报请求包的ID */
PkgId?: string;
/** 请求包内日志的ID */
PkgLogId?: string;
/** 符合检索条件的关键词,一般用于高亮显示。仅支持键值检索,不支持全文检索 */
HighLights?: HighLightItem[];
/** 日志内容的Json序列化字符串 */
LogJson?: string;
/** 日志来源主机名称 */
HostName?: string;
/** 原始日志(仅在日志创建索引异常时有值) */
RawLog?: string;
/** 日志创建索引异常原因(仅在日志创建索引异常时有值) */
IndexStatus?: string;
}
/** 日志中的KV对 */
declare interface LogItem {
/** 日志Key */
Key?: string;
/** 日志Value */
Value?: string;
}
/** LogItem的数组 */
declare interface LogItems {
/** 分析结果返回的KV数据对 */
Data: LogItem[];
}
/** 日志导入规则 */
declare interface LogRechargeRuleInfo {
/** 导入类型,支持json_log:json格式日志,minimalist_log: 单行全文,fullregex_log: 单行完全正则 */
RechargeType: string;
/** 解析编码格式,0: UTF-8(默认值),1: GBK */
EncodingFormat: number;
/** 使用默认时间状态。true:开启后将使用系统当前时间或 Kafka 消息时间戳作为日志时间戳;false:关闭将使用日志中的时间字段作为日志时间戳。 默认:true */
DefaultTimeSwitch: boolean;
/** 整条日志匹配规则,只有RechargeType为fullregex_log时有效 */
LogRegex?: string;
/** 解析失败日志是否上传,true表示上传,false表示不上传 */
UnMatchLogSwitch?: boolean;
/** 解析失败日志的键名称 */
UnMatchLogKey?: string;
/** 解析失败日志时间来源,0: 系统当前时间,1: Kafka消息时间戳 */
UnMatchLogTimeSrc?: number;
/** 默认时间来源,0: 系统当前时间,1: Kafka消息时间戳 */
DefaultTimeSrc?: number;
/** 时间字段,日志中代表时间的字段名。- 当DefaultTimeSwitch为false,且RechargeType数据提取模式为 `json_log` JSON-文件日志 或 `fullregex_log` 单行完全正则-文件日志时, TimeKey不能为空。 */
TimeKey?: string;
/** 时间提取正则表达式。- 当DefaultTimeSwitch为false,且RechargeType数据提取模式为 `minimalist_log` 单行全文-文件日志时, TimeRegex不能为空。- 仅需输入日志中代表时间的字段的正则表达式即可;若匹配到多个字段,将使用第一个。 例:日志原文为:message with time 2022-08-08 14:20:20,则您可以设置提取时间正则为\d\d\d\d-\d\d-\d\d \d\d:\d\d:\d\d */
TimeRegex?: string;
/** 时间字段格式。- 当DefaultTimeSwitch为false时, TimeFormat不能为空。 */
TimeFormat?: string;
/** 时间字段时区。- 当DefaultTimeSwitch为false时, TimeZone不能为空。- 时区格式规则前缀:使用 GMT 或 UTC 作为时区基准偏移量: - `-` 表示西时区(比基准时间晚) - `+` 表示东时区(比基准时间早) - 格式为 ±HH:MM(小时:分钟)- 当前支持:```"GMT-12:00" "GMT-11:00" "GMT-10:00" "GMT-09:30" "GMT-09:00" "GMT-08:00" "GMT-07:00" "GMT-06:00" "GMT-05:00" "GMT-04:00" "GMT-03:30" "GMT-03:00" "GMT-02:00" "GMT-01:00" "GMT+00:00""GMT+01:00""GMT+02:00""GMT+03:30""GMT+04:00""GMT+04:30""GMT+05:00""GMT+05:30""GMT+05:45""GMT+06:00""GMT+06:30""GMT+07:00""GMT+08:00""GMT+09:00""GMT+09:30""GMT+10:00""GMT+10:30""GMT+11:00""GMT+11:30""GMT+12:00""GMT+12:45""GMT+13:00""GMT+14:00""UTC-11:00""UTC-10:00""UTC-09:00""UTC-08:00""UTC-12:00""UTC-07:00""UTC-06:00""UTC-05:00""UTC-04:30""UTC-04:00""UTC-03:30""UTC-03:00""UTC-02:00""UTC-01:00""UTC+00:00""UTC+01:00""UTC+02:00""UTC+03:00""UTC+03:30""UTC+04:00""UTC+04:30""UTC+05:00""UTC+05:45""UTC+06:00""UTC+06:30""UTC+07:00""UTC+08:00""UTC+09:00""UTC+09:30""UTC+10:00""UTC+11:00""UTC+12:00""UTC+13:00"``` */
TimeZone?: string;
/** 元数据信息,Kafka导入支持kafka_topic,kafka_partition,kafka_offset,kafka_timestamp */
Metadata?: string[];
/** 日志Key列表,RechargeType为full_regex_log、delimiter_log时必填 */
Keys?: string[];
/** json解析模式,开启首层数据解析 */
ParseArray?: boolean;
/** 分隔符解析模式-分隔符当解析格式为分隔符提取时,该字段必填 */
Delimiter?: string;
}
/** 日志集相关信息 */
declare interface LogsetInfo {
/** 日志集ID */
LogsetId?: string;
/** 日志集名称 */
LogsetName?: string;
/** 创建时间。格式 `YYYY-MM-DD HH:MM:SS` */
CreateTime?: string;
/** 若AssumerUin非空,则表示创建该日志集的服务方Uin */
AssumerUin?: number;
/** 云产品标识,日志集由其它云产品创建时,该字段会显示云产品名称,例如CDN、TKE */
AssumerName?: string;
/** 日志集绑定的标签 */
Tags?: Tag[];
/** 日志集下日志主题的数目 */
TopicCount?: number;
/** 若AssumerName非空,则表示创建该日志集的服务方角色 */
RoleName?: string;
/** 日志集下指标主题的数目 */
MetricTopicCount?: number;
}
/** 机器组信息 */
declare interface MachineGroupInfo {
/** 机器组ID */
GroupId?: string;
/** 机器组名称 */
G