UNPKG

tenyun

Version:

Promise based and chained Tencent Cloud OpenAPI client for NodeJS

2,068 lines (1,939 loc) 170 kB
/// <reference types="node" /> import { AxiosPromise, AxiosRequestConfig } from "axios"; /** ACL对象实体 */ declare interface Acl { /** Acl资源类型,(0:UNKNOWN,1:ANY,2:TOPIC,3:GROUP,4:CLUSTER,5:TRANSACTIONAL_ID)当前只有TOPIC, */ ResourceType?: number; /** 资源名称,和resourceType相关如当resourceType为TOPIC时,则该字段表示topic名称,当resourceType为GROUP时,该字段表示group名称 */ ResourceName?: string; /** 用户列表,默认为User:*,表示任何user都可以访问,当前用户只能是用户列表中包含的用户 */ Principal?: string; /** 默认\*,表示任何host都可以访问,当前ckafka不支持host为\*,但是后面开源kafka的产品化会直接支持 */ Host?: string; /** Acl操作方式(0:UNKNOWN,1:ANY,2:ALL,3:READ,4:WRITE,5:CREATE,6:DELETE,7:ALTER,8:DESCRIBE,9:CLUSTER_ACTION,10:DESCRIBE_CONFIGS,11:ALTER_CONFIGS,12:IDEMPOTEN_WRITE) */ Operation?: number; /** 权限类型(0:UNKNOWN,1:ANY,2:DENY,3:ALLOW) */ PermissionType?: number; } /** AclRule列表接口出参 */ declare interface AclRule { /** ACL规则名 */ RuleName?: string; /** ckafka集群实例Id */ InstanceId?: string; /** ACL规则匹配类型,目前只支持前缀匹配,枚举值列表:PREFIXED */ PatternType?: string; /** 表示前缀匹配的前缀的值 */ Pattern?: string; /** Acl资源类型,目前只支持Topic,枚举值列表:Topic */ ResourceType?: string; /** 该规则所包含的ACL信息 */ AclList?: string; /** 规则所创建的时间 */ CreateTimeStamp?: string; /** 预设ACL规则是否应用到新增的topic中 */ IsApplied?: number; /** 规则更新时间 */ UpdateTimeStamp?: string; /** 规则的备注 */ Comment?: string; /** 其中一个显示的对应的TopicName */ TopicName?: string; /** 应用该ACL规则的Topic数 */ TopicCount?: number; /** patternType的中文显示 */ PatternTypeTitle?: string; } /** 表示ACL 规则的四元组信息 */ declare interface AclRuleInfo { /** Acl操作方式,枚举值(所有操作: All, 读:Read,写:Write) */ Operation: string; /** 权限类型,Deny:拒绝,Allow:允许。 */ PermissionType: string; /** 表示任何host都可以访问 */ Host: string; /** 用户,User:*表示任何user都可以访问,当前用户只能是用户列表中包含的用户。传入格式需要带【User:】前缀。例如用户A,传入为User:A。 */ Principal: string; } /** AclRule列表接口返回结果 */ declare interface AclRuleResp { /** 总数据条数 */ TotalCount?: number; /** AclRule列表 */ AclRuleList?: AclRule[]; } /** 数据处理-解析参数 */ declare interface AnalyseParam { /** 解析格式,JSON,DELIMITER分隔符,REGULAR正则提取,SOURCE处理上层所有结果 */ Format: string; /** 分隔符、正则表达式 */ Regex?: string; /** 需再次处理的KEY——模式 */ InputValueType?: string; /** 需再次处理的KEY——KEY表达式 */ InputValue?: string; } /** 存储着分配给该消费者的 partition 信息 */ declare interface Assignment { /** assingment版本信息 */ Version?: number; /** topic信息列表 */ Topics?: GroupInfoTopics[]; } /** 批量解析 */ declare interface BatchAnalyseParam { /** ONE_BY_ONE单条输出,MERGE合并输出 */ Format: string; } /** 批量发送消息内容 */ declare interface BatchContent { /** 发送的消息体 */ Body: string; /** 发送消息的键名 */ Key?: string; } /** 批量修改topic参数 */ declare interface BatchModifyTopicInfo { /** 主题名 */ TopicName: string; /** 分区数 */ PartitionNum?: number; /** 备注 */ Note?: string; /** 副本数 */ ReplicaNum?: number; /** 消息删除策略,可以选择delete 或者compact */ CleanUpPolicy?: string; /** 当producer设置request.required.acks为-1时,min.insync.replicas指定replicas的最小数目 */ MinInsyncReplicas?: number; /** 是否允许非ISR的副本成为Leader */ UncleanLeaderElectionEnable?: boolean; /** topic维度的消息保留时间(毫秒)范围1 分钟到90 天 */ RetentionMs?: number; /** topic维度的消息保留大小,范围1 MB到1024 GB */ RetentionBytes?: number; /** Segment分片滚动的时长(毫秒),范围1 到90 天 */ SegmentMs?: number; /** 批次的消息大小,范围1 KB到12 MB */ MaxMessageBytes?: number; /** 消息保存的时间类型:CreateTime/LogAppendTime */ LogMsgTimestampType?: string; } /** 批量修改topic属性结果 */ declare interface BatchModifyTopicResultDTO { /** ckafka集群实例Id */ InstanceId?: string; /** 主题名 */ TopicName?: string; /** 操作返回码 */ ReturnCode?: string; /** 操作返回信息 */ Message?: string; } /** 主题占用Broker磁盘大小 */ declare interface BrokerTopicData { /** 主题名称 */ TopicName?: string; /** 主题Id */ TopicId?: string; /** 主题占用Broker 容量大小,单位为Bytes。 */ DataSize?: number; } /** broker维度topic 流量排行指标 */ declare interface BrokerTopicFlowData { /** 主题名 */ TopicName?: string; /** 主题Id */ TopicId?: string; /** Topic 流量(MB) */ TopicTraffic?: string; } /** ClickHouse连接源参数 */ declare interface ClickHouseConnectParam { /** ClickHouse的连接port */ Port: number; /** ClickHouse连接源的用户名 */ UserName: string; /** ClickHouse连接源的密码 */ Password: string; /** ClickHouse连接源的实例资源 */ Resource: string; /** ClickHouse连接源是否为自建集群 */ SelfBuilt: boolean; /** ClickHouse连接源的实例vip,当为腾讯云实例时,必填 */ ServiceVip?: string; /** ClickHouse连接源的vpcId,当为腾讯云实例时,必填 */ UniqVpcId?: string; /** 是否更新到关联的Datahub任务 */ IsUpdate?: boolean | null; } /** ClickHouse修改连接源参数 */ declare interface ClickHouseModifyConnectParam { /** ClickHouse连接源的实例资源【不支持修改】 */ Resource: string; /** ClickHouse的连接port【不支持修改】 */ Port?: number; /** ClickHouse连接源的实例vip【不支持修改】 */ ServiceVip?: string; /** ClickHouse连接源的vpcId【不支持修改】 */ UniqVpcId?: string; /** ClickHouse连接源的用户名 */ UserName?: string; /** ClickHouse连接源的密码 */ Password?: string; /** ClickHouse连接源是否为自建集群【不支持修改】 */ SelfBuilt?: boolean; /** 是否更新到关联的Datahub任务,默认为true */ IsUpdate?: boolean; } /** ClickHouse类型入参 */ declare interface ClickHouseParam { /** ClickHouse的集群 */ Cluster: string; /** ClickHouse的数据库名 */ Database: string; /** ClickHouse的数据表名 */ Table: string; /** ClickHouse的schema */ Schema: ClickHouseSchema[]; /** 实例资源 */ Resource: string; /** ClickHouse的连接ip */ Ip?: string; /** ClickHouse的连接port */ Port?: number; /** ClickHouse的用户名 */ UserName?: string; /** ClickHouse的密码 */ Password?: string; /** 实例vip */ ServiceVip?: string; /** 实例的vpcId */ UniqVpcId?: string; /** 是否为自建集群 */ SelfBuilt?: boolean; /** ClickHouse是否抛弃解析失败的消息,默认为true */ DropInvalidMessage?: boolean; /** ClickHouse 类型,emr-clickhouse : "emr";cdw-clickhouse : "cdwch";自建 : "" */ Type?: string; /** 当设置成员参数DropInvalidMessageToCls设置为true时,DropInvalidMessage参数失效 */ DropCls?: DropCls; /** 每批次投递到 ClickHouse 表消息数量,默认为 1000 条。提高该参数值,有利于减少往 ClickHouse 投递的次数,但在错误消息过多及网络不稳定等极端情况下时,可能导致频繁重试影响效率。 */ BatchSize?: number; /** 每次从 topic 中拉取消息大小,默认为 1MB,即至少要从 topic 中批量拉取 1MB 消息,才进行数据投递到 ClickHouse 操作。提高该参数值,有利于减少往 ClickHouse 投递的次数,但在错误消息过多及网络不稳定等极端情况下时,可能导致频繁重试影响效率。 */ ConsumerFetchMinBytes?: number; /** 每次从 topic 拉取消息最大等待时间,当超过当前最大等待时间时,即使没有拉取到 ConsumerFetchMinBytes 大小,也将进行 ClickHouse 投递操作。提高该参数值,有利于减少往 ClickHouse 投递的次数,但在错误消息过多及网络不稳定等极端情况下时,可能导致频繁重试影响效率。 */ ConsumerFetchMaxWaitMs?: number; } /** ClickHouse的Schema */ declare interface ClickHouseSchema { /** 表的列名 */ ColumnName: string; /** 该列对应的jsonKey名 */ JsonKey: string; /** 表列项的类型 */ Type: string; /** 列项是否允许为空 */ AllowNull: boolean; } /** Cls类型入参 */ declare interface ClsParam { /** 生产的信息是否为json格式 */ DecodeJson: boolean; /** cls日志主题id */ Resource: string; /** cls日志集id */ LogSet?: string; /** 当DecodeJson为false时必填 */ ContentKey?: string; /** 指定消息中的某字段内容作为cls日志的时间。字段内容格式需要是秒级时间戳 */ TimeField?: string; } /** 集群信息实体 */ declare interface ClusterInfo { /** 集群Id */ ClusterId?: number; /** 集群名称 */ ClusterName?: string; /** 集群最大磁盘 单位GB */ MaxDiskSize?: number; /** 集群最大带宽 单位MB/s */ MaxBandWidth?: number; /** 集群当前可用磁盘 单位GB */ AvailableDiskSize?: number; /** 集群当前可用带宽 单位MB/s */ AvailableBandWidth?: number; /** 集群所属可用区,表明集群归属的可用区 */ ZoneId?: number; /** 集群节点所在的可用区,若该集群为跨可用区集群,则包含该集群节点所在的多个可用区。 */ ZoneIds?: number[]; } /** 高级配置对象 */ declare interface Config { /** 消息保留时间 */ Retention?: number; /** 最小同步复制数 */ MinInsyncReplicas?: number | null; /** 日志清理模式,默认 delete。delete:日志按保存时间删除;compact:日志按 key 压缩;compact, delete:日志按 key 压缩且会保存时间删除。 */ CleanUpPolicy?: string | null; /** Segment 分片滚动的时长 */ SegmentMs?: number | null; /** 0表示 false。 1表示 true。 */ UncleanLeaderElectionEnable?: number | null; /** Segment 分片滚动的字节数 */ SegmentBytes?: number | null; /** 最大消息字节数 */ MaxMessageBytes?: number | null; /** 消息保留文件大小 */ RetentionBytes?: number | null; /** 消息保存的时间类型 */ LogMsgTimestampType?: string | null; } /** 返回连接源的Id */ declare interface ConnectResourceResourceIdResp { /** 连接源的Id */ ResourceId?: string; } /** Connection信息 */ declare interface Connection { /** 主题名 */ TopicName?: string; /** 消费组ID */ GroupId?: string; /** 主题Id */ TopicId?: string; } /** 用户组实体 */ declare interface ConsumerGroup { /** 用户组名称 */ ConsumerGroupName?: string; /** 订阅信息实体 */ SubscribedInfo?: SubscribedInfo[]; } /** 消费者组消费速度排行 */ declare interface ConsumerGroupSpeed { /** 消费者组名称 */ ConsumerGroupName?: string; /** 消费速度 Count/Minute */ Speed?: number; } /** 消费组主题对象 */ declare interface ConsumerGroupTopic { /** 主题ID */ TopicId?: string; /** 主题名称 */ TopicName?: string; } /** 消息记录 */ declare interface ConsumerRecord { /** 主题名 */ Topic?: string; /** 分区id */ Partition?: number; /** 位点 */ Offset?: number; /** 消息key */ Key?: string | null; /** 消息value */ Value?: string | null; /** 消息时间戳 */ Timestamp?: number; /** 消息headers */ Headers?: string | null; } /** Cos Datahub 任务接入参数 */ declare interface CosParam { /** cos 存储桶名称 */ BucketName: string; /** 地域代码 */ Region: string; /** 对象名称 */ ObjectKey?: string; /** 汇聚消息量的大小(单位:MB) */ AggregateBatchSize?: number; /** 汇聚的时间间隔(单位:小时) */ AggregateInterval?: number; /** 消息汇聚后的文件格式(支持csv, json) */ FormatOutputType?: string; /** 转储的对象目录前缀 */ ObjectKeyPrefix?: string; /** 根据strptime 时间格式化的分区格式 */ DirectoryTimeFormat?: string; } /** 创建数据转储返回值 */ declare interface CreateDatahubTaskRes { /** 转储任务id */ TaskId?: string; /** 数据转储Id */ DatahubId?: string; } /** 创建后付费接口返回的 Data 数据结构 */ declare interface CreateInstancePostData { /** CreateInstancePre返回固定为0,不能作为CheckTaskStatus的查询条件。只是为了保证和后台数据结构对齐。 */ FlowId?: number; /** 订单号列表 */ DealNames?: string[]; /** ckafka集群实例Id,当购买多个实例时,默认返回购买的第一个实例 id */ InstanceId?: string; /** 订单和购买实例对应映射列表 */ DealNameInstanceIdMapping?: DealInstanceDTO[]; } /** 后付费实例相关接口返回结构 */ declare interface CreateInstancePostResp { /** 返回的code,0为正常,非0为错误 */ ReturnCode?: string; /** 接口返回消息,当接口报错时提示错误信息 */ ReturnMessage?: string; /** 返回的Data数据 */ Data?: CreateInstancePostData; } /** 创建预付费接口返回的Data */ declare interface CreateInstancePreData { /** CreateInstancePre返回固定为0,不能作为CheckTaskStatus的查询条件。只是为了保证和后台数据结构对齐。 */ FlowId?: number; /** 订单号列表 */ DealNames?: string[]; /** ckafka集群实例Id,当购买多个实例时,默认返回购买的第一个实例 id */ InstanceId?: string; /** 订单和购买实例对应映射列表 */ DealNameInstanceIdMapping?: DealInstanceDTO[]; } /** 预付费实例相关接口返回结构 */ declare interface CreateInstancePreResp { /** 返回的code,0为正常,非0为错误 */ ReturnCode?: string; /** 成功消息 */ ReturnMessage?: string; /** 操作型返回的Data数据 */ Data?: CreateInstancePreData; /** 删除时间。目前该参数字段已废弃,将会在未来被删除 */ DeleteRouteTimestamp?: string | null; } /** 创建主题返回 */ declare interface CreateTopicResp { /** 主题Id */ TopicId?: string; } /** Ctsdb连接源参数 */ declare interface CtsdbConnectParam { /** Ctsdb的连接port */ Port?: number; /** Ctsdb连接源的实例vip */ ServiceVip?: string; /** Ctsdb连接源的vpcId */ UniqVpcId?: string; /** Ctsdb连接源的用户名 */ UserName?: string; /** Ctsdb连接源的密码 */ Password?: string; /** Ctsdb连接源的实例资源 */ Resource?: string; } /** Ctsdb连接源参数(更新) */ declare interface CtsdbModifyConnectParam { /** Ctsdb的连接port */ Port?: number; /** Ctsdb连接源的实例vip */ ServiceVip?: string; /** Ctsdb连接源的vpcId */ UniqVpcId?: string; /** Ctsdb连接源的用户名 */ UserName?: string; /** Ctsdb连接源的密码 */ Password?: string; /** Ctsdb连接源的实例资源 */ Resource?: string; } /** Ctsdb类型入参 */ declare interface CtsdbParam { /** 连接管理实例资源 */ Resource?: string; /** Ctsdb的metric */ CtsdbMetric?: string; } /** CVM和IP信息 */ declare interface CvmAndIpInfo { /** ckafka集群实例Id */ CkafkaInstanceId?: string; /** CVM实例ID(ins-test )或POD IP(10.0.0.30) */ InstanceId?: string; /** IP地址 */ Ip?: string; } /** Datahub资源配置 */ declare interface DatahubResource { /** 资源类型 type类型如下: KAFKA,EB_ES,EB_COS,EB_CLS,EB_,MONGODB,HTTP,TDW,ES,CLICKHOUSE,DTS,CLS,COS,TOPIC,MYSQL,MQTT,MYSQL_DATA,DORIS,POSTGRESQL,TDSQL_C_POSTGRESQL,TDSQL_POSTGRESQL,WAREHOUSE_POSTGRESQL,TDSQL_C_MYSQL,MARIADB,SQLSERVER,CTSDB,SCF */ Type: string; /** ckafka配置,Type为KAFKA时必填 */ KafkaParam?: KafkaParam | null; /** EB配置,Type为EB时必填 */ EventBusParam?: EventBusParam | null; /** MongoDB配置,Type为MONGODB时必填 */ MongoDBParam?: MongoDBParam | null; /** Es配置,Type为ES时必填 */ EsParam?: EsParam | null; /** Tdw配置,Type为TDW时必填 */ TdwParam?: TdwParam | null; /** Dts配置,Type为DTS时必填 */ DtsParam?: DtsParam | null; /** ClickHouse配置,Type为CLICKHOUSE时必填 */ ClickHouseParam?: ClickHouseParam | null; /** Cls配置,Type为CLS时必填 */ ClsParam?: ClsParam | null; /** Cos配置,Type为COS时必填 */ CosParam?: CosParam | null; /** MySQL配置,Type为MYSQL时必填 */ MySQLParam?: MySQLParam | null; /** PostgreSQL配置,Type为POSTGRESQL或TDSQL_C_POSTGRESQL时必填 */ PostgreSQLParam?: PostgreSQLParam | null; /** Topic配置,Type为Topic时必填 */ TopicParam?: TopicParam | null; /** MariaDB配置,Type为MARIADB时必填 */ MariaDBParam?: MariaDBParam | null; /** SQLServer配置,Type为SQLSERVER时必填 */ SQLServerParam?: SQLServerParam | null; /** Ctsdb配置,Type为CTSDB时必填 */ CtsdbParam?: CtsdbParam | null; /** Scf配置,Type为SCF时必填 */ ScfParam?: ScfParam | null; /** MQTT配置,Type为 MQTT 时必填 */ MqttParam?: MqttParam | null; } /** Datahub请求的taskid */ declare interface DatahubTaskIdRes { /** 任务id */ TaskId?: string; } /** Datahub任务信息 */ declare interface DatahubTaskInfo { /** 任务Id */ TaskId?: string; /** 任务名称 */ TaskName?: string; /** 任务类型,SOURCE数据接入,SINK数据流出 */ TaskType?: string; /** 状态,-1创建失败,0创建中,1运行中,2删除中,3已删除,4删除失败,5暂停中,6已暂停,7暂停失败,8恢复中,9恢复失败 */ Status?: number; /** 数据源 */ SourceResource?: DatahubResource; /** 数据目标 */ TargetResource?: DatahubResource; /** 任务创建时间 */ CreateTime?: string; /** 异常信息 */ ErrorMessage?: string; /** 创建进度百分比 */ TaskProgress?: number; /** 任务当前处于的步骤 */ TaskCurrentStep?: string; /** Datahub转储Id */ DatahubId?: string; /** 步骤列表 */ StepList?: string[]; /** 任务描述信息 */ Description?: string; } /** Datahub主题 */ declare interface DatahubTopicDTO { /** 名称 */ Name?: string; /** Topic名称 */ TopicName?: string; /** Topic Id */ TopicId?: string; /** 分区数 */ PartitionNum?: number; /** 过期时间 */ RetentionMs?: number; /** 备注 */ Note?: string; /** 状态,1使用中,2删除中 */ Status?: number; } /** Datahub Topic 响应 */ declare interface DatahubTopicResp { /** 主题名称 */ TopicName?: string; /** 主题Id */ TopicId?: string; } /** 数据处理——Value处理参数——转换时间格式参数 */ declare interface DateParam { /** 时间格式 */ Format?: string; /** 输入类型,string,unix时间戳,默认string */ TargetType?: string; /** 时区,默认GMT+8 */ TimeZone?: string; } /** 预付费/后付费接口中,订单和 CKafka 实例映射数据结构 */ declare interface DealInstanceDTO { /** 订单流水 */ DealName?: string; /** 订单流水对应购买的 CKafka 实例 id 列表 */ InstanceIdList?: string[]; } /** topic链接信息 */ declare interface DescribeConnectInfoResultDTO { /** ip地址 */ IpAddr?: string | null; /** 连结时间 */ Time?: string | null; /** 是否支持的版本 */ IsUnSupportVersion?: boolean; } /** 查询连接源具体数据的返参 */ declare interface DescribeConnectResource { /** 连接源的Id */ ResourceId?: string; /** 连接源名称 */ ResourceName?: string; /** 连接源描述 */ Description?: string; /** 连接源类型 */ Type?: string; /** 连接源的状态 */ Status?: number; /** 连接源的创建时间 */ CreateTime?: string; /** 连接源的异常信息 */ ErrorMessage?: string; /** 该连接源关联的Datahub任务数 */ DatahubTaskCount?: number; /** 连接源的当前所处步骤 */ CurrentStep?: string; /** 创建进度百分比 */ TaskProgress?: number; /** 步骤列表 */ StepList?: string[]; /** Dts配置,Type为DTS时返回 */ DtsConnectParam?: DtsConnectParam | null; /** MongoDB配置,Type为MONGODB时返回 */ MongoDBConnectParam?: MongoDBConnectParam | null; /** Es配置,Type为ES时返回 */ EsConnectParam?: EsConnectParam | null; /** ClickHouse配置,Type为CLICKHOUSE时返回 */ ClickHouseConnectParam?: ClickHouseConnectParam | null; /** MySQL配置,Type为MYSQL或TDSQL_C_MYSQL时返回 */ MySQLConnectParam?: MySQLConnectParam | null; /** PostgreSQL配置,Type为POSTGRESQL或TDSQL_C_POSTGRESQL时返回 */ PostgreSQLConnectParam?: PostgreSQLConnectParam | null; /** MariaDB配置,Type为MARIADB时返回 */ MariaDBConnectParam?: MariaDBConnectParam | null; /** SQLServer配置,Type为SQLSERVER时返回 */ SQLServerConnectParam?: SQLServerConnectParam | null; /** Ctsdb配置,Type为CTSDB时返回 */ CtsdbConnectParam?: CtsdbConnectParam | null; /** Doris 配置,Type 为 DORIS 时返回 */ DorisConnectParam?: DorisConnectParam | null; /** Kafka配置,Type 为 KAFKA 时返回 */ KafkaConnectParam?: KafkaConnectParam | null; /** MQTT配置,Type 为 MQTT 时返回 */ MqttConnectParam?: MqttConnectParam | null; } /** 查询连接源具体数据的返参 */ declare interface DescribeConnectResourceResp { /** 连接源的Id */ ResourceId?: string; /** 连接源名称 */ ResourceName?: string; /** 连接源描述 */ Description?: string; /** 连接源类型 */ Type?: string; /** 连接源的状态 枚举值: -1 (创建失败) 、0 (创建中) 、 1 (运行中)、 2 (删除中) 、 4 (删除失败) 、 5 (配置更改中) 、 6 (配置更改失败) 、 7 (异常) */ Status?: number; /** 连接源的创建时间 */ CreateTime?: string; /** 连接源的异常信息 */ ErrorMessage?: string; /** 连接源的当前所处步骤 */ CurrentStep?: string; /** 步骤列表 */ StepList?: string[] | null; /** MySQL配置,Type为MYSQL或TDSQL_C_MYSQL时返回 */ MySQLConnectParam?: MySQLConnectParam | null; /** PostgreSQL配置,Type为POSTGRESQL或TDSQL_C_POSTGRESQL时返回 */ PostgreSQLConnectParam?: PostgreSQLConnectParam | null; /** Dts配置,Type为DTS时返回 */ DtsConnectParam?: DtsConnectParam | null; /** MongoDB配置,Type为MONGODB时返回 */ MongoDBConnectParam?: MongoDBConnectParam | null; /** Es配置,Type为ES时返回 */ EsConnectParam?: EsConnectParam | null; /** ClickHouse配置,Type为CLICKHOUSE时返回 */ ClickHouseConnectParam?: ClickHouseConnectParam | null; /** MariaDB配置,Type为MARIADB时返回 */ MariaDBConnectParam?: MariaDBConnectParam | null; /** SQLServer配置,Type为SQLSERVER时返回 */ SQLServerConnectParam?: SQLServerConnectParam | null; /** Ctsdb配置,Type为CTSDB时返回 */ CtsdbConnectParam?: CtsdbConnectParam | null; /** Doris 配置,Type 为 DORIS 时返回 */ DorisConnectParam?: DorisConnectParam | null; /** Kafka配置,Type 为 KAFKA 时返回 */ KafkaConnectParam?: KafkaConnectParam | null; /** MQTT配置,Type 为 MQTT 时返回 */ MqttConnectParam?: MqttConnectParam | null; } /** 查询连接源列表的返参 */ declare interface DescribeConnectResourcesResp { /** 连接源个数 */ TotalCount?: number; /** 连接源数据 */ ConnectResourceList?: DescribeConnectResource[]; } /** 查询Datahub任务信息 */ declare interface DescribeDatahubTaskRes { /** 任务ID */ TaskId?: string; /** 任务名称 */ TaskName?: string; /** 任务类型,SOURCE数据接入,SINK数据流出 */ TaskType?: string; /** 状态,-1创建失败,0创建中,1运行中,2删除中,3已删除,4删除失败,5暂停中,6已暂停,7暂停失败,8恢复中,9恢复失败 */ Status?: number; /** 数据源 */ SourceResource?: DatahubResource; /** 数据目标 */ TargetResource?: DatahubResource; /** Connection列表 */ Connections?: Connection[]; /** 任务创建时间 */ CreateTime?: string; /** 消息处理规则 */ TransformParam?: TransformParam | null; /** 数据接入ID */ DatahubId?: string; /** 绑定的SchemaId */ SchemaId?: string; /** 绑定的Schema名称 */ SchemaName?: string; /** 数据处理规则 */ TransformsParam?: TransformsParam | null; /** 异常信息 */ ErrorMessage?: string; /** 任务标签列表 */ Tags?: Tag[]; /** 任务描述信息 */ Description?: string; /** 1:正常 2:隔离中 */ IsolateStatus?: number; } /** 查询Datahub任务列表 */ declare interface DescribeDatahubTasksRes { /** 任务总数 */ TotalCount?: number; /** Datahub任务信息列表 */ TaskList?: DatahubTaskInfo[]; } /** Datahub Topic详情 */ declare interface DescribeDatahubTopicResp { /** 名称 */ Name?: string; /** Topic名称 */ TopicName?: string; /** Topic Id */ TopicId?: string; /** 分区数 */ PartitionNum?: number; /** 过期时间 */ RetentionMs?: number; /** 备注 */ Note?: string; /** 用户名 */ UserName?: string; /** 密码 */ Password?: string; /** 状态,1使用中,2删除中 */ Status?: number; /** 服务路由地址 */ Address?: string; } /** Datahub主题列表 */ declare interface DescribeDatahubTopicsResp { /** 总数 */ TotalCount?: number; /** Topic列表 */ TopicList?: DatahubTopicDTO[]; } /** DescribeGroup返回实体 */ declare interface DescribeGroup { /** 消费分组名称 */ Group?: string; /** 该 group 使用的协议。 */ Protocol?: string; } /** Doris 连接源参数 */ declare interface DorisConnectParam { /** Doris jdbc 负载均衡连接 port,通常映射到 fe 的 9030 端口 */ Port: number; /** Doris 连接源的用户名 */ UserName: string; /** Doris 连接源的密码 */ Password: string; /** Doris 连接源的实例资源 */ Resource: string; /** Doris 连接源的实例vip,当为腾讯云实例时,必填 */ ServiceVip?: string; /** Doris 连接源的vpcId,当为腾讯云实例时,必填 */ UniqVpcId?: string; /** 是否更新到关联的Datahub任务 */ IsUpdate?: boolean; /** Doris 连接源是否为自建集群 */ SelfBuilt?: boolean; /** Doris 的 http 负载均衡连接 port,通常映射到 be 的 8040 端口 */ BePort?: number; } /** Doris 连接源修改参数 */ declare interface DorisModifyConnectParam { /** Doris 连接源的实例资源 */ Resource: string; /** Doris jdbc 负载均衡连接 port,通常映射到 fe 的 9030 端口 */ Port?: number; /** Doris 连接源的实例vip,当为腾讯云实例时,必填 */ ServiceVip?: string; /** Doris 连接源的vpcId,当为腾讯云实例时,必填 */ UniqVpcId?: string; /** Doris 连接源的用户名 */ UserName?: string; /** Doris 连接源的密码 */ Password?: string; /** 是否更新到关联的Datahub任务 */ IsUpdate?: boolean; /** Doris 连接源是否为自建集群 */ SelfBuilt?: boolean; /** Doris 的 http 负载均衡连接 port,通常映射到 be 的 8040 端口 */ BePort?: number; } /** dip失败消息写入cls的配置 */ declare interface DropCls { /** 是否投递到cls */ DropInvalidMessageToCls?: boolean; /** 投递cls的地域 */ DropClsRegion?: string; /** 投递cls的账号 */ DropClsOwneruin?: string; /** 投递cls的主题 */ DropClsTopicId?: string; /** 投递cls的日志集id */ DropClsLogSet?: string; } /** Dts连接源参数 */ declare interface DtsConnectParam { /** Dts的连接port */ Port: number; /** Dts消费分组的Id */ GroupId: string; /** Dts消费分组的账号 */ UserName: string; /** Dts消费分组的密码 */ Password: string; /** Dts实例Id */ Resource: string; /** Dts订阅的topic */ Topic: string; /** 是否更新到关联的Datahub任务 */ IsUpdate?: boolean; } /** Dts修改连接源参数 */ declare interface DtsModifyConnectParam { /** Dts实例Id【不支持修改】 */ Resource: string; /** Dts的连接port【不支持修改】 */ Port?: number; /** Dts消费分组的Id */ GroupId?: string; /** Dts消费分组的账号 */ UserName?: string; /** Dts消费分组的密码 */ Password?: string; /** 是否更新到关联的Datahub任务,默认为true */ IsUpdate?: boolean; /** Dts订阅的topic【不支持修改】 */ Topic?: string; } /** Dts类型入参 */ declare interface DtsParam { /** Dts实例Id */ Resource: string; /** Dts的连接ip */ Ip?: string; /** Dts的连接port */ Port?: number; /** Dts订阅的topic */ Topic?: string; /** Dts消费分组的Id */ GroupId?: string; /** Dts消费分组的账号 */ GroupUser?: string; /** Dts消费分组的密码 */ GroupPassword?: string; /** false同步原始数据,true同步解析后的json格式数据,默认true */ TranSql?: boolean; } /** 动态硬盘扩容配置 */ declare interface DynamicDiskConfig { /** 动态硬盘扩容配置开关(0: 关闭,1: 开启) */ Enable?: number | null; /** 每次磁盘动态扩容大小百分比 */ StepForwardPercentage?: number | null; /** 磁盘配额百分比触发条件,即消息达到此值触发硬盘自动扩容事件 */ DiskQuotaPercentage?: number | null; /** 最大扩容硬盘大小,以 GB 为单位 */ MaxDiskSpace?: number | null; } /** 动态消息保留时间配置 */ declare interface DynamicRetentionTime { /** 动态消息保留时间配置开关(0: 关闭,1: 开启) */ Enable?: number | null; /** 磁盘配额百分比触发条件,即消息达到此值触发消息保留时间变更事件 */ DiskQuotaPercentage?: number | null; /** 每次向前调整消息保留时间百分比 */ StepForwardPercentage?: number | null; /** 保底时长,单位分钟 */ BottomRetention?: number | null; } /** Es连接源参数 */ declare interface EsConnectParam { /** Es的连接port */ Port: number; /** Es连接源的用户名 */ UserName: string; /** Es连接源的密码 */ Password: string; /** Es连接源的实例资源 */ Resource: string; /** Es连接源是否为自建集群 */ SelfBuilt: boolean; /** Es连接源的实例vip,当为腾讯云实例时,必填 */ ServiceVip?: string; /** Es连接源的vpcId,当为腾讯云实例时,必填 */ UniqVpcId?: string; /** 是否更新到关联的Datahub任务 */ IsUpdate?: boolean | null; } /** Es修改连接源参数 */ declare interface EsModifyConnectParam { /** Es连接源的实例资源【不支持修改】 */ Resource: string; /** Es的连接port【不支持修改】 */ Port?: number; /** Es连接源的实例vip【不支持修改】 */ ServiceVip?: string; /** Es连接源的vpcId【不支持修改】 */ UniqVpcId?: string; /** Es连接源的用户名 */ UserName?: string; /** Es连接源的密码 */ Password?: string; /** Es连接源是否为自建集群【不支持修改】 */ SelfBuilt?: boolean; /** 是否更新到关联的Datahub任务 */ IsUpdate?: boolean; } /** Es类型入参 */ declare interface EsParam { /** Es实例资源Id */ Resource: string; /** Es的连接port */ Port?: number; /** Es用户名 */ UserName?: string; /** Es密码 */ Password?: string; /** 是否为自建集群 */ SelfBuilt?: boolean; /** 实例vip */ ServiceVip?: string; /** 实例的vpcId */ UniqVpcId?: string; /** Es是否抛弃解析失败的消息 */ DropInvalidMessage?: boolean; /** Es自定义index名称 */ Index?: string; /** Es自定义日期后缀 */ DateFormat?: string; /** 非json格式数据的自定义key */ ContentKey?: string; /** Es是否抛弃非json格式的消息 */ DropInvalidJsonMessage?: boolean; /** 转储到Es中的文档ID取值字段名 */ DocumentIdField?: string; /** Es自定义index名称的类型,STRING,JSONPATH,默认为STRING */ IndexType?: string; /** 当设置成员参数DropInvalidMessageToCls设置为true时,DropInvalidMessage参数失效 */ DropCls?: DropCls; /** 转储到ES的消息为Database的binlog时,如果需要同步数据库操作,即增删改的操作到ES时填写数据库表主键 */ DatabasePrimaryKey?: string; /** 死信队列 */ DropDlq?: FailureParam; /** 使用数据订阅格式导入 es 时,消息与 es 索引字段映射关系。不填默认为默认字段匹配 */ RecordMappingList?: EsRecordMapping[]; /** 消息要映射为 es 索引中 @timestamp 的字段,如果当前配置为空,则使用消息的时间戳进行映射 */ DateField?: string; /** 用来区分当前索引映射,属于新建索引还是存量索引。"EXIST_MAPPING":从存量索引中选择;"NEW_MAPPING":新建索引 */ RecordMappingMode?: string; } /** 消息字段与 es 索引的映射关系 */ declare interface EsRecordMapping { /** es 索引成员名称 */ ColumnName?: string; /** 消息字段名称 */ JsonKey?: string; } /** EventBus配置 */ declare interface EventBusParam { /** 资源类型。COS/ES/CLS */ Type: string; /** 是否为自建集群 */ SelfBuilt: boolean; /** 实例资源 */ Resource: string; /** SCF云函数命名空间 */ Namespace?: string; /** SCF云函数函数名 */ FunctionName?: string; /** SCF云函数版本及别名 */ Qualifier?: string; } /** 数据处理规则失败处理 */ declare interface FailureParam { /** 类型,DLQ死信队列,IGNORE_ERROR保留,DROP丢弃 */ Type: string; /** Ckafka类型死信队列 */ KafkaParam?: KafkaParam; /** 重试间隔 */ RetryInterval?: number; /** 重试次数 */ MaxRetryAttempts?: number; /** DIP Topic类型死信队列 */ TopicParam?: TopicParam; /** 死信队列类型,CKAFKA,TOPIC */ DlqType?: string; } /** 数据处理——处理链 */ declare interface FieldParam { /** 解析 */ Analyse: AnalyseParam; /** 二次解析 */ SecondaryAnalyse?: SecondaryAnalyseParam; /** 数据处理 */ SMT?: SMTParam[]; /** 测试结果 */ Result?: string; /** 解析结果 */ AnalyseResult?: SMTParam[]; /** 二次解析结果 */ SecondaryAnalyseResult?: SMTParam[]; /** JSON格式解析结果 */ AnalyseJsonResult?: string; /** JSON格式二次解析结果 */ SecondaryAnalyseJsonResult?: string; } /** 查询过滤器>描述键值对过滤器,用于条件过滤查询。例如过滤ID、名称、状态等> * 若存在多个`Filter`时,`Filter`间的关系为逻辑与(`AND`)关系。> * 若同一个`Filter`存在多个`Values`,同一`Filter`下`Values`间的关系为逻辑或(`OR`)关系。> */ declare interface Filter { /** 需要过滤的字段。 */ Name: string; /** 字段的过滤值。 */ Values: string[]; } /** 过滤器参数 */ declare interface FilterMapParam { /** Key值 */ Key: string; /** 匹配模式,前缀匹配PREFIX,后缀匹配SUFFIX,包含匹配CONTAINS,EXCEPT除外匹配,数值匹配NUMBER,IP匹配IP */ MatchMode: string; /** Value值 */ Value: string; /** 固定REGULAR */ Type?: string; } /** 组实体 */ declare interface Group { /** 消费分组名称 */ GroupName?: string; } /** consumer信息 */ declare interface GroupInfoMember { /** coordinator 为消费分组中的消费者生成的唯一 ID */ MemberId?: string; /** 客户消费者 SDK 自己设置的 client.id 信息 */ ClientId?: string; /** 一般存储客户的 IP 地址 */ ClientHost?: string; /** 存储着分配给该消费者的 partition 信息 */ Assignment?: Assignment; } /** GroupInfo内部topic对象 */ declare interface GroupInfoTopics { /** 分配的 topic 名称 */ Topic?: string; /** 分配的 partition 信息 */ Partitions?: number[]; } /** 组偏移量分区对象 */ declare interface GroupOffsetPartition { /** topic 的 partitionId */ Partition?: number; /** consumer 提交的 offset 位置 */ Offset?: number; /** 支持消费者提交消息时,传入 metadata 作为它用,当前一般为空字符串 */ Metadata?: string; /** 错误码 */ ErrorCode?: number; /** 当前 partition 最新的 offset */ LogEndOffset?: number; /** 未消费的消息个数 */ Lag?: number; } /** 消费分组主题对象 */ declare interface GroupOffsetTopic { /** 主题名称 */ Topic?: string; /** 该主题分区数组,其中每个元素为一个 json object */ Partitions?: GroupOffsetPartition[]; } /** InquireCkafkaPrice接口询价返回值 */ declare interface InquireCkafkaPriceResp { /** 实例价格 */ InstancePrice?: InquiryPrice; /** 公网带宽价格 */ PublicNetworkBandwidthPrice?: InquiryPrice | null; } /** 询价返回参数 */ declare interface InquiryBasePrice { /** 单位原价 */ UnitPrice?: number; /** 折扣单位价格 */ UnitPriceDiscount?: number; /** 合计原价 */ OriginalPrice?: number; /** 折扣合计价格 */ DiscountPrice?: number; /** 折扣(单位是%) */ Discount?: number; /** 商品数量 */ GoodsNum?: number | null; /** 付费货币 */ Currency?: string | null; /** 硬盘专用返回参数 */ DiskType?: string | null; /** 购买时长 */ TimeSpan?: number | null; /** 购买时长单位("m"按月, "h"按小时) */ TimeUnit?: string | null; /** 购买数量 */ Value?: number; } /** 详细类别的价格 */ declare interface InquiryDetailPrice { /** 额外内网带宽价格 */ BandwidthPrice?: InquiryBasePrice | null; /** 硬盘价格 */ DiskPrice?: InquiryBasePrice | null; /** 额外分区价格 */ PartitionPrice?: InquiryBasePrice | null; /** 额外Topic价格 */ TopicPrice?: InquiryBasePrice | null; /** 实例套餐价格 */ InstanceTypePrice?: InquiryBasePrice; } /** 购买硬盘参数 */ declare interface InquiryDiskParam { /** 购买硬盘类型: SSD(SSD), CLOUD_SSD(SSD云硬盘), CLOUD_PREMIUM(高性能云硬盘), CLOUD_BASIC(云盘) */ DiskType?: string; /** 购买硬盘大小: 单位GB */ DiskSize?: number; } /** 询价返回参数 */ declare interface InquiryPrice { /** 单位原价 */ UnitPrice?: number; /** 折扣单位价格 */ UnitPriceDiscount?: number; /** 合计原价 */ OriginalPrice?: number; /** 折扣合计价格 */ DiscountPrice?: number; /** 折扣(单位是%) */ Discount?: number; /** 商品数量 */ GoodsNum?: number; /** 付费货币 */ Currency?: string; /** 硬盘专用返回参数 */ DiskType?: string | null; /** 购买时长 */ TimeSpan?: number; /** 购买时长单位("m"按月, "h"按小时) */ TimeUnit?: string; /** 购买数量 */ Value?: number | null; /** 详细类别的价格 */ DetailPrices?: InquiryDetailPrice | null; } /** 公网带宽参数 */ declare interface InquiryPublicNetworkParam { /** 公网计费模式: BANDWIDTH_PREPAID(包年包月), BANDWIDTH_POSTPAID_BY_HOUR(带宽按小时计费) */ PublicNetworkChargeType?: string; /** 公网带宽, 单位MB */ PublicNetworkMonthly?: number; } /** 实例对象 */ declare interface Instance { /** ckafka集群实例Id */ InstanceId?: string; /** ckafka集群实例Name */ InstanceName?: string; /** 实例的状态。0: 创建中,1: 运行中,2: 删除中, 3: 已删除, 5: 隔离中, 7: 升级中, -1: 创建失败 */ Status?: number; /** 是否开源实例。开源:true,不开源:false */ IfCommunity?: boolean; } /** 实例购买付费参数 */ declare interface InstanceChargeParam { /** 实例付费类型: PREPAID(包年包月), POSTPAID_BY_HOUR(按量付费) */ InstanceChargeType?: string; /** 购买时长: 包年包月时需要填写, 按量计费无需填写 */ InstanceChargePeriod?: number; } /** 实例配置实体 */ declare interface InstanceConfigDO { /** 是否自动创建主题 */ AutoCreateTopicsEnable?: boolean; /** 分区数 */ DefaultNumPartitions?: number; /** 默认的复制Factor */ DefaultReplicationFactor?: number; } /** 实例详情 */ declare interface InstanceDetail { /** ckafka集群实例Id */ InstanceId?: string; /** ckafka集群实例名称 */ InstanceName?: string; /** 访问实例的vip 信息 */ Vip?: string; /** 访问实例的端口信息 */ Vport?: string; /** 虚拟IP列表 */ VipList?: VipEntity[]; /** 实例的状态。0: 创建中,1: 运行中,2: 删除中, 3: 已删除, 5: 隔离中, 7: 升级中, -1: 创建失败 */ Status?: number; /** 实例带宽,单位Mbps */ Bandwidth?: number; /** ckafka集群实例磁盘大小,单位G */ DiskSize?: number; /** 可用区域ID */ ZoneId?: number; /** vpcId,如果为空,说明是基础网络 */ VpcId?: string; /** 子网id */ SubnetId?: string; /** 实例是否续费,int 枚举值:1表示自动续费,2表示明确不自动续费 */ RenewFlag?: number; /** 实例状态 int:1表示健康,2表示告警,3 表示实例状态异常 */ Healthy?: number; /** 实例状态信息 */ HealthyMessage?: string; /** 实例创建时间 */ CreateTime?: number; /** 实例过期时间 */ ExpireTime?: number; /** 是否为内部客户。值为1 表示内部客户 */ IsInternal?: number; /** Topic个数 */ TopicNum?: number; /** 标识tag */ Tags?: Tag[]; /** kafka版本信息 */ Version?: string; /** 跨可用区 */ ZoneIds?: number[]; /** ckafka售卖类型 */ Cvm?: number; /** ckafka集群实例类型 */ InstanceType?: string; /** ckafka集群实例磁盘类型 */ DiskType?: string; /** 当前规格最大Topic数 */ MaxTopicNumber?: number; /** 当前规格最大Partition数 */ MaxPartitionNumber?: number; /** 计划升级配置时间 */ RebalanceTime?: string; /** 实例当前partition数量 */ PartitionNumber?: number; /** ckafka集群实例公网带宽类型 */ PublicNetworkChargeType?: string; /** 公网带宽 最小3Mbps 最大999Mbps 仅专业版支持填写 */ PublicNetwork?: number; /** ckafka集群实例底层集群类型 */ ClusterType?: string; /** 实例功能列表 */ Features?: string[]; } /** 实例 / topic 维度限流策略 */ declare interface InstanceQuotaConfigResp { /** 生产限流大小,单位 MB/s */ QuotaProducerByteRate: number | null; /** 消费限流大小,单位 MB/s */ QuotaConsumerByteRate: number | null; } /** 实例路由 */ declare interface InstanceRoute { /** ckafka集群实例Id */ InstanceId: string; /** 路由Id */ RouteId: number; } /** 数据处理——Value处理参数——Jsonpath替换参数 */ declare interface JsonPathReplaceParam { /** 被替换值,Jsonpath表达式 */ OldValue: string; /** 替换值,Jsonpath表达式或字符串 */ NewValue: string; } /** key-value二次解析 */ declare interface KVParam { /** 分隔符 */ Delimiter: string; /** key-value二次解析分隔符 */ Regex: string; /** 保留源Key,默认为false不保留 */ KeepOriginalKey?: string; } /** Kafka连接源参数 */ declare interface KafkaConnectParam { /** Kafka连接源的实例资源, 非自建时必填,NetworkType=VPC时传clb实例id */ Resource?: string; /** 是否为自建集群 */ SelfBuilt?: boolean; /** 是否更新到关联的Dip任务 */ IsUpdate?: boolean | null; /** Kafka连接的broker地址, NetworkType=PUBLIC公网时必填 */ BrokerAddress?: string; /** CKafka连接源的实例资源地域, 跨地域时必填 */ Region?: string; } /** Ckafka配置 */ declare interface KafkaParam { /** 是否为自建集群 */ SelfBuilt: boolean; /** ckafka集群实例Id */ Resource: string; /** 主题名,多个以“,”分隔 */ Topic?: string; /** Offset类型,最开始位置earliest,最新位置latest,时间点位置timestamp */ OffsetType?: string | null; /** Offset类型为timestamp时必传,传时间戳,精确到秒 */ StartTime?: number | null; /** 实例资源名称 */ ResourceName?: string | null; /** 可用区 */ ZoneId?: number | null; /** 主题Id */ TopicId?: string | null; /** Topic的分区数 */ PartitionNum?: number | null; /** 启用容错实例/开启死信队列 */ EnableToleration?: boolean | null; /** Qps 限制 */ QpsLimit?: number; /** Table到Topic的路由,「分发到多个topic」开关打开时必传 */ TableMappings?: TableMapping[] | null; /** 「分发到多个topic」开关,默认为false */ UseTableMapping?: boolean; /** 使用的Topic是否需要自动创建(目前只支持SOURCE流入任务,如果不使用分发到多个topic,需要在Topic字段填写需要自动创建的topic名) */ UseAutoCreateTopic?: boolean; /** 写入Topic时是否进行压缩,不开启填"none",开启的话,填写"open"。 */ CompressionType?: string; /** 源topic消息1条扩增成msgMultiple条写入目标topic(该参数目前只有ckafka流入ckafka适用) */ MsgMultiple?: number; /** 数据同步专用参数, 正常数据处理可为空, 实例级别同步: 仅同步元数据填写"META_SYNC_INSTANCE_TYPE", 同步元数据及全部topic内消息的填写"META_AND_DATA_SYNC_INSTANCE_TYPE"; topic级别同步: 选中的源和目标topic中的消息(需要目标实例也包含该topic)填写"DATA_SYNC_TYPE" */ ConnectorSyncType?: string; /** 数据同步专用参数, 当通过时,希望下游的消息写入分区与上游的一致,则填true,但下游分区小于上游时,会报错; 不需要一致则为false, 默认为false */ KeepPartition?: boolean; /** 正则匹配Topic列表 */ TopicRegularExpression?: string; } /** CVM和IP 信息列表 */ declare interface ListCvmAndIpInfoRsp { /** cvm和IP 列表 */ CvmList?: CvmAndIpInfo[]; /** 实例数据量 */ TotalCount?: number; } /** 小写字符解析 */ declare interface LowercaseParam { } /** Map参数 */ declare interface MapParam { /** key值 */ Key: string; /** 类型,DEFAULT默认,DATE系统预设-时间戳,CUSTOMIZE自定义,MAPPING映射 */ Type?: string; /** 值 */ Value?: string; } /** MariaDB连接源参数 */ declare interface MariaDBConnectParam { /** MariaDB的连接port */ Port: number; /** MariaDB连接源的用户名 */ UserName: string; /** MariaDB连接源的密码 */ Password: string; /** MariaDB连接源的实例资源 */ Resource: string; /** MariaDB连接源的实例vip,当为腾讯云实例时,必填 */ ServiceVip?: string; /** MariaDB连接源的vpcId,当为腾讯云实例时,必填 */ UniqVpcId?: string; /** 是否更新到关联的Datahub任务 */ IsUpdate?: boolean; } /** MariaDB连接源参数 */ declare interface MariaDBModifyConnectParam { /** MariaDB连接源的实例资源【不支持修改】 */ Resource: string; /** MariaDB的连接port【不支持修改】 */ Port?: number; /** MariaDB连接源的实例vip【不支持修改】 */ ServiceVip?: string; /** MariaDB连接源的vpcId【不支持修改】 */ UniqVpcId?: string; /** MariaDB连接源的用户名 */ UserName?: string; /** MariaDB连接源的密码 */ Password?: string; /** 是否更新到关联的Datahub任务 */ IsUpdate?: boolean; } /** MariaDB类型入参 */ declare interface MariaDBParam { /** MariaDB的数据库名称,"*"为全数据库 */ Database: string; /** MariaDB的数据表名称,"*"为所监听的所有数据库中的非系统表,可以","间隔,监听多个数据表,但数据表需要以"数据库名.数据表名"的格式进行填写 */ Table: string; /** 该MariaDB在连接管理内的Id */ Resource: string; /** 复制存量信息(schema_only不复制, initial全量),默认值initial */ SnapshotMode?: string; /** 格式:库1.表1:字段1,字段2;库2.表2:字段2,表之间;(分号)隔开,字段之间,(逗号)隔开。不指定的表默认取表的主键 */ KeyColumns?: string; /** 当Table输入的是前缀时,该项值为true,否则为false */ IsTablePrefix?: boolean; /** 输出格式,DEFAULT、CANAL_1、CANAL_2 */ OutputFormat?: string; /** 如果该值为all,则DDL数据以及DML数据也会写入到选中的topic;若该值为dml,则只有DML数据写入到选中的topic */ IncludeContentChanges?: string; /** 如果该值为true,且MySQL中"binlog_rows_query_log_events"配置项的值为"ON",则流入到topic的数据包含原SQL语句;若该值为false,流入到topic的数据不包含原SQL语句 */ IncludeQuery?: boolean; /** 如果该值为 true,则消息中会携带消息结构体对应的schema,如果该值为false则不会携带 */ RecordWithSchema?: boolean; } /** 修改实例属性的配置对象 */ declare interface ModifyInstanceAttributesConfig { /** 自动创建 true 表示开启,false 表示不开启 */ AutoCreateTopicEnable?: boolean; /** 新创建主题的默认分区数,如果AutoCreateTopicEnable设置为true没有设置该值时,默认设置为3 */ DefaultNumPartitions?: number; /** 新创建主题的默认副本数,如果AutoCreateTopicEnable设置为true没有指定该值时默认设置为2 */ DefaultReplicationFactor?: number; } /** MongoDB连接源参数 */ declare interface MongoDBConnectParam { /** MongoDB的连接port */ Port: number; /** MongoDB连接源的用户名 */ UserName: string; /** MongoDB连接源的密码 */ Password: string; /** MongoDB连接源的实例资源 */ Resource: string; /** MongoDB连接源是否为自建集群 */ SelfBuilt: boolean; /** MongoDB连接源的实例vip,当为腾讯云实例时,必填 */ ServiceVip?: string; /** MongoDB连接源的vpcId,当为腾讯云实例时,必填 */ UniqVpcId?: string; /** 是否更新到关联的Datahub任务 */ IsUpdate?: boolean; } /** MongoDB修改连接源参数 */ declare interface MongoDBModifyConnectParam { /** MongoDB连接源的实例资源【不支持修改】 */ Resource: string; /** MongoDB的连接port【不支持修改】 */ Port?: number; /** MongoDB连接源的实例vip【不支持修改】 */ ServiceVip?: string; /** MongoDB连接源的vpcId【不支持修改】 */ UniqVpcId?: string; /** MongoDB连接源的用户名 */ UserName?: string; /** MongoDB连接源的密码 */ Password?: string; /** MongoDB连接源是否为自建集群【不支持修改】 */ SelfBuilt?: boolean; /** 是否更新到关联的Datahub任务 */ IsUpdate?: boolean; } /** MongoDB类型入参 */ declare interface MongoDBParam { /** MongoDB的数据库名称 */ Database: string; /** MongoDB的集群 */ Collection: string; /** 是否复制存量数据,默认传参true */ CopyExisting: boolean; /** 实例资源 */ Resource: string; /** MongoDB的连接ip */ Ip?: string; /** MongoDB的连接port */ Port?: number; /** MongoDB数据库用户名 */ UserName?: string; /** MongoDB数据库密码 */ Password?: string; /** 监听事件类型,为空时表示全选。取值包括insert,update,replace,delete,invalidate,drop,dropdatabase,rename,多个类型间使用,逗号分隔 */ ListeningEvent?: string; /** 主从优先级,默认主节点 */ ReadPreference?: string; /** 聚合管道 */ Pipeline?: string; /** 是否为自建集群 */ SelfBuilt?: boolean; } /** MQTT连接源参数 */ declare interface MqttConnectParam { /** MQTT连接源的用户名 */ UserName: string; /** MQTT连接源的密码 */ Password: string; /** MQTT连接源的实例资源 */ Resource: string; /** MQTT Instance vpc-id */ UniqVpcId: string; /** 是否为自建集群 */ SelfBuilt?: boolean; /** 是否更新到关联的Dip任务 */ IsUpdate?: boolean; /** MQTT连接源的实例资源地域, 跨地域时必填 */ Region?: string; } /** 创建MQTT 为Source的Data Hub Task参数 */ declare interface MqttParam { /** 需要同步的MQTT Topic列表, CSV格式 */ Topics: string; /** MQTT clean-session */ CleanSession: boolean; /** MQTT instance-id */ Resource?: string; /** MQTT实例VIP */ Ip?: string; /** MQTT VIP 端口 */ Port?: number; /** MQTT实例用户名 */ UserName?: string; /** MQTT实例内账户密码 */ Password?: string; /** QoS */ Qos?: number; /** tasks.max 订阅Topic的并发Task个数, 默认为1; 当设置大于1时, 使用Shared Subscription */ MaxTasks?: number; /** MQTT 实例的Service VIP */ ServiceVip?: string; /** MQTT实例的VPC ID */ UniqVpcId?: string; /** 是否为自建集群, MQTT只支持非自建集群 */ SelfBuilt?: boolean; } /** MySQL连接源参数 */ declare interface MySQLConnectParam { /** MySQL的连接port */ Port: number; /** MySQL连接源的用户名 */ UserName: string; /** MySQL连接源的密码 */ Password: string; /** MySQL连接源的实例资源 */ Resource: string; /** MySQL连接源的实例vip,当为腾讯云实例时,必填 */ ServiceVip?: string; /** MySQL连接源的vpcId,当为腾讯云实例时,必填 */ UniqVpcId?: string; /** 是否更新到关联的Datahub任务 */ IsUpdate?: boolean | null; /** 当type为TDSQL_C_MYSQL时,必填 */ ClusterId?: string; /** Mysql 连接源是否为自建集群 */ SelfBuilt?: boolean; } /** MySQL修改连接源参数 */ declare interface MySQLModifyConnectParam { /** MySQL连接源的实例资源【不支持修改】 */ Resource: string; /** MySQL的连接port【不支持修改】 */ Port?: number; /** MySQL连接源的实例vip【不支持修改】 */ ServiceVip?: string; /** MySQL连接源的vpcId【不支持修改】 */ UniqVpcId?: string; /** MySQL连接源的用户名 */ UserName?: string; /** MySQL连接源的密码 */ Password?: string; /** 是否更新到关联的Datahub任务 */ IsUpdate?: boolean; /** 当type为TDSQL_C_MYSQL时 */ ClusterId?: string; /** 是否是自建的集群 */ SelfBuilt?: boolean; } /** MySQL类型入参 */ declare interface MySQLParam { /** MySQL的数据库名称,"*"为全数据库 */ Database: string; /** MySQL的数据表名称,"*"为所监听的所有数据库中的非系统表,可以","间隔,监听多个数据表,但数据表需要以"数据库名.数据表名"的格式进行填写,需要填入正则表达式时,格式为"数据库名\\.数据表名" */ Table: string; /** 该MySQL在连接管理内的Id */ Resource: string; /** 复制存量信息(schema_only不复制, initial全量),默认值initial */ SnapshotMode?: string; /** 存放MySQL的Ddl信息的Topic,为空则默认不存放 */ DdlTopic?: string; /** "TABLE" 表示读取项为 table,"QUERY" 表示读取项为 query */ DataSourceMonitorMode?: string; /** 当 "DataMonitorMode"="TABLE" 时,传入需要读取的 Table;当 "DataMonitorMode"="QUERY" 时,传入需要读取的查询 sql 语句 */ DataSourceMonitorResource?: string; /** "TIMESTAMP" 表示增量列为时间戳类型,"INCREMENT" 表示增量列为自增 id 类型 */ DataSourceIncrementMode?: string; /** 传入需要监听的列名称 */ DataSourceIncrementColumn?: string; /** "HEAD" 表示复制存量 + 增量数据,"TAIL" 表示只复制增量数据 */ DataSourceStartFrom?: string; /** "INSERT" 表示使用 Insert 模式插入,"UPSERT" 表示使用 Upsert 模式插入 */ DataTargetInsertMode?: string; /** 当 "DataInsertMode"="UPSERT" 时,传入当前 upsert 时依赖的主键 */ DataTargetPrimaryKeyField?: string; /** 表与消息间的映射关系 */ DataTargetRecordMapping?: RecordMapping[]; /** 事件路由到特定主题的正则表达式,默认为(.*) */ TopicRegex?: string; /** TopicRegex的引用组,指定$1、$2等 */ TopicReplacement?: string; /** 格式:库1.表1:字段1,字段2;库2.表2:字段2,表之间;(分号)隔开,字段之间,(逗号)隔开。不指定的表默认取表的主键 */ KeyColumns?: string; /** Mysql 是否抛弃解析失败的消息,默认为true */ DropInvalidMessage?: boolean; /** 当设置成员参数DropInvalidMessageToCls设置为true时,DropInvalidMessage参数失效 */ DropCls?: DropCls; /** 输出格式,DEFAULT、CANAL_1、CANAL_2 */ OutputFormat?: string; /** 当Table输入的是前缀时,该项值为true,否则为false */ IsTablePrefix?: boolean; /** 如果该值为all,则DDL数据以及DML数据也会写入到选中的topic;若该值为dml,则只有DML数据写入到选中的topic */ IncludeContentChanges?: string; /** 如果该值为true,且MySQL中"binlog_rows_query_log_events"配置项的值为"ON",则流入到topic的数据包含原SQL语句;若该值为false,流入到topic的数据不包含原SQL语句 */ IncludeQuery?: boolean; /** 如果该值为 true,则消息中会携带消息结构体对应的schema,如果该值为false则不会携带 */ RecordWithSchema?: boolean; /** 存放信令表的数据库名称 */ SignalDatabase?: string; /** 输入的table是否为正则表达式,如果该选项以及IsTablePrefix同时为true,该选项的判断优先级高于IsTablePrefix */ IsTableRegular?: boolean; /** 信号表 */ SignalTable?: string | null; /** datetime 类型字段转换为时间戳的时区 */ DateTimeZone?: string; /** 自建 */ SelfBuilt?: boolean; } /** 操作类型返回的Data结构 */ declare interface OperateResponseData { /** 流程Id */ FlowId?: number; /** RouteIdDto */ RouteDTO?: RouteDTO; } /** 分区实体 */ declare interface Partition { /** 分区ID */ PartitionId?: number; } /** 分区和位移 */ declare interface PartitionOffset { /** 分区 */ Partition?: string; /** 位点偏移量 */ Offset?: number; } /** partition信息 */ declare interface Partitions { /** 分区 */ Partition: number; /** partition 消费位移 */ Offset: number; } /** PostgreSQL连接源参数 */ declare interface PostgreSQLConnectParam { /** PostgreSQL的连接port */ Port: number; /** PostgreSQL连接源的用户名 */ UserName: string; /** PostgreSQL连接源的密码 */ Password: string; /** PostgreSQL连接源的实例资源 */ Resource: string; /** PostgreSQL连接源的实例vip,当为腾讯云实例时,必填 */ ServiceVip?: string; /** PostgreSQL连接源的vpcId,当为腾讯云实例时,必填 */ UniqVpcId?: string; /** 当type为TDSQL_C_POSTGRESQL时,必填 */ ClusterId?: string; /** 是否更新到关联的Datahub任务 */ IsUpdate?: boolean; /** PostgreSQL连接源是否为自建集群 */ SelfBuilt?: boolean; } /** PostgreSQL修改连接源参数 */ declare interface PostgreSQLModifyConnectParam { /** PostgreSQL连接源的实例资源【不支持修改】 */ Resource: string; /** PostgreSQL的连接port【不支持修改】 */ Port?: number; /** PostgreSQL连接源的实例vip【不支持修改】 */ ServiceVip?: string; /** PostgreSQL连接源的vpcId【不支持修改】 */ UniqVpcId?: string; /** PostgreSQL连接源的用户名 */ UserName?: string; /** PostgreSQL连接源的密码 */ Password?: string; /** 当type为TDSQL_C_POSTGRESQL时,该参数才有值【不支持修改】 */ ClusterId?: string; /** 是否更新到关联的Datahub任务 */ IsUpdate?: boolean; /** 是否为自建集群 */ SelfBuilt?: boolean; } /** PostgreSQL类型入参 */ declare interface PostgreSQLParam { /** PostgreSQL的数据库名称 */ Database: string; /** PostgreSQL的数据表名称,"*"为所监听的所有数据库中的非系统表,可以","间隔,监听多个数据表,但数据表需要以"Schema名.数据表名"的格式进行填写,需要填入正则表达式时,格式为"Schema名\\.数据表名" */ Table: string; /** 该PostgreSQL在连接管理内的Id */ Resource: string; /** 插件名(decoderbufs/pgoutput),默认为decoderbufs */ PluginName: string; /** 复制存量信息(never增量, initial全量),默认为initial */ SnapshotMode?: string; /** 上游数据格式(JSON/Debezium), 当数据库同步模式为默认字段匹配时,必填 */ DataFormat?: string; /** "INSERT" 表示使用 Insert 模式插入,"UPSERT" 表示使用 Upsert 模式插入 */ DataTargetInsertMode?: string; /** 当 "DataInsertMode"="UPSERT" 时,传入当前 upsert 时依赖的主键 */ DataTargetPrimaryKeyField?: string; /** 表与消息间的映射关系 */ DataTargetRecordMapping?: RecordMapping[]; /** 是否抛弃解析失败的消息,默认为true */ DropInvalidMessage?: boolean; /** 输入的table是否为正则表达式 */ IsTableRegular?: boolean; /** 格式:库1.表1:字段1,字段2;库2.表2:字段2,表之间;(分号)隔开,字段之间,(逗号)隔开。不指定的表默认取表的主键 */ KeyColumns?: string; /** 如果该值为 true,则消息中会携带消息结构体对应的schema,如果该值为false则不会携带 */ RecordWithSchema?: boolean; } /** 消息价格实体 */ declare interface Price { /** 折扣价 */ RealTotalCost?: number; /** 原价 */ TotalCost?: number; } /** 建立私有连接的参数 */ declare interface PrivateLinkParam { /** 客户实例的vip */ ServiceVip: string; /** 客户实例的vpcId */ UniqVpcId: string; } /** 普罗米修斯打通的vipVport */ declare interface PrometheusDTO { /** export类型(jmx_export\node_export) */ Type?: string; /** vip */ SourceIp?: string; /** vport */ SourcePort?: number; /** broker地址 */ BrokerIp?: string; /** VPC ID信息 */ VpcId?: string; /** 子网ID信息 */ SubnetId?: string; } /** Prometheus 监控返回 */ declare interface PrometheusResult { /** 返回的code,0为正常,非0为错误 */ ReturnCode?: string; /** 成功消息 */ ReturnMessage?: string; /** 操作型返回的Data数据,可能有flowId等 */ Data?: OperateResponseData; } /** record 与数据库表的映射关系 */ declare interface RecordMapping { /** 消息的 key 名称 */ JsonKey?: string | null; /** 消息类型 */ Type?: string; /** 消息是否允许为空 */ AllowNull?: boolean | null; /** 对应映射列名称 */ ColumnName?: string | null; /** 数据库表额外字段 */ ExtraInfo?: string | null; /** 当前列大小 */ ColumnSize?: string | null; /** 当前列精度 */ DecimalDigits?: string | null; /** 是否为自增列 */ AutoIncrement?: boolean | null; /** 数据库表默认参数 */ DefaultValue?: string | null; } /** 数据处理——Value处理参数——正则替换参数 */ declare interface RegexReplaceParam { /** 正则表达式 */ Regex: string; /** 替换新值 */ NewValue: string; } /** 地域实体对象 */ declare interface Region { /** 地域ID */ RegionId?: number; /** 地域名称 */ RegionName?: string; /** 区域名称 */ AreaName?: string; /** 地域代码 */ RegionCode?: string; /** 地域代码(V3版本) */ RegionCodeV3?: string; /** NONE:默认值不支持任何特殊类型 实例类型 */ Support?: string; /** 是否支持ipv6, 0:表示不支持,1:表示支持 */ Ipv6?: number; /** 是否支持跨可用区, 0:表示不支持,1:表示支持 */ MultiZone?: number; } /** RenewCkafkaInstance接口出参bigDealIds */ declare interface RenewCkafkaInstanceResp { /** 订单号 */ BigDealId?: string; /** 子订单号 */ DealName?: string; } /** 数据处理——Value处理参数——替换参数 */ declare interface ReplaceParam { /** 被替换值 */ OldValue: string; /** 替换值 */ NewValue: string; } /** 路由实体对象 */ declare interface Route { /** 实例接入方式0:PLAINTEXT (明文方式,没有带用户信息老版本及社区版本都支持)1:SASL_PLAINTEXT(明文方式,不过在数据开始时,会通过SASL方式登录鉴权,仅社区版本支持)2:SSL(SSL加密通信,没有带用户信息,老版本及社区版本都支持)3:SASL_SSL(SSL加密通信,在数据开始时,会通过SASL方式登录鉴权,仅社区版本支持) */ AccessType?: number; /** 路由Id */ RouteId?: number; /** vip网络类型(1:外网TGW 2:基础网络 3:VPC网络 4:支撑网络(idc 环境) 5:SSL外网访问方式访问 6:黑石环境vpc 7:支撑网络(cvm 环境) */ VipType?: number; /** 虚拟IP列表 */ VipList?: VipEntity[]; /** 域名 */ Domain?: string | null; /** 域名port */ DomainPort?: number | null; /** 时间戳 */ DeleteTimestamp?: string; /** 子网Id */ Subnet?: string | null; /** 虚拟IP列表(1对1 broker节点) */ BrokerVipList?: VipEntity[]; /** 私有网络Id */ VpcId?: string | null; } /** RouteDTO */ declare interface RouteDTO { /** 路由Id */ RouteId?: number; } /** 路由列表过滤器 */ declare interface RouteFilter { /** 过滤名称,目前支持security-group-id,按安全组关联过滤 */ Name?: string; /** 过滤值,当过滤名称为security-group-id时仅支持传单个value */ Values?: string[]; /** 过滤关系,支持IN和NOT_IN,默认为IN */ Relation?: string; } /** 数据处理ROW输出格式配置 */ declare interface RowParam { /** 行内容,KEY_VALUE,VALUE */ RowContent: string; /** key和value间的分隔符 */ KeyValueDelimiter?: string; /** 元素建的分隔符 */ EntryDelimiter?: string; } /** 数据处理——数据处理参数 */ declare interface SMTParam { /** 数据处理KEY */ Key: string; /** 操作,DATE系统预设-时间戳,CUSTOMIZE自定义,MAPPING映射,JSONPATH */ Operate: string; /** 数据类型,ORIGINAL原始,STRING,INT64,FLOAT64,BOOLEAN,MAP,ARRAY */ SchemeType: string; /** 数据处理VALUE */ Value?: string; /** VALUE处理 */ ValueOperate?: ValueParam; /** 原始VALUE */ OriginalValue?: string; /** VALUE处理链 */ ValueOperates?: ValueParam[]; } /** SQLServer连接源参数 */ declare interface SQLServerConnectParam { /** SQLServer的连接port */ Port: number; /** SQLServer连接源的用户名 */ UserName: string; /** SQLServer连接源的密码 */ Password: string; /** SQLServer连接源的实例资源 */ Resource: string; /** SQLServer连接源的实例vip,当为腾讯云实例时,必填 */ ServiceVip?: string; /** SQLServer连接源的vpcId,当为腾讯云实例时,必填 */ UniqVpcId?: string; /** 是否更新到关联的Dip任务 */ IsUpdate?: boolean; } /** SQLServer修改连接源参数 */ declare interface SQLServerModifyConnectParam { /** SQLServer连接源的实例资源【不支持修改】 */ Resource: string; /** SQLServer的连接port【不支持修改】 */ Port?: number; /** SQLServer连接源的实例vip【不支持修改】 */ Service