UNPKG

tenyun

Version:

Promise based and chained Tencent Cloud OpenAPI client for NodeJS

132 lines (119 loc) 6.19 kB
/// <reference types="node" /> import { AxiosPromise, AxiosRequestConfig } from "axios"; declare interface ChatRequest { /** 聊天输入文本 */ Text: string; /** 腾讯云项目 ID,可填 0,总长度不超过 1024 字节。 */ ProjectId: number; /** json格式,比如 {"id":"test","gender":"male"}。记录当前与机器人交互的用户id,非必须但强烈建议传入,否则多轮聊天功能会受影响 */ User?: string; } declare interface ChatResponse { /** 聊天输出文本 */ Answer?: string; /** 唯一请求 ID,每次请求都会返回。 */ RequestId?: string; } declare interface SentenceRecognitionRequest { /** 腾讯云项目 ID,可填 0,总长度不超过 1024 字节。 */ ProjectId: number; /** 子服务类型。2,一句话识别。 */ SubServiceType: number; /** 引擎类型。8k:电话 8k 通用模型;16k:16k 通用模型。只支持单声道音频识别。 */ EngSerViceType: string; /** 语音数据来源。0:语音 URL;1:语音数据(post body)。 */ SourceType: number; /** 识别音频的音频格式(支持mp3,wav)。 */ VoiceFormat: string; /** 用户端对此任务的唯一标识,用户自助生成,用于用户查找识别结果。 */ UsrAudioKey: string; /** 语音 URL,公网可下载。当 SourceType 值为 0 时须填写该字段,为 1 时不填;URL 的长度大于 0,小于 2048,需进行urlencode编码。音频时间长度要小于60s。 */ Url?: string; /** 语音数据,当SourceType 值为1时必须填写,为0可不写。要base64编码(采用python语言时注意读取文件应该为string而不是byte,以byte格式读取后要decode()。编码后的数据不可带有回车换行符)。音频数据要小于600kB。 */ Data?: string; /** 数据长度,当 SourceType 值为1时必须填写,为0可不写(此数据长度为数据未进行base64编码时的数据长度)。 */ DataLen?: number; } declare interface SentenceRecognitionResponse { /** 识别结果。 */ Result?: string; /** 唯一请求 ID,每次请求都会返回。 */ RequestId?: string; } declare interface SimultaneousInterpretingRequest { /** 腾讯云项目 ID,可填 0,总长度不超过 1024 字节。 */ ProjectId: number; /** 子服务类型。0:离线语音识别。1:实时流式识别,2,一句话识别。3:同传。 */ SubServiceType: number; /** 识别引擎类型。8k_zh: 8k 中文会场模型;16k_zh:16k 中文会场模型,8k_en: 8k 英文会场模型;16k_en:16k 英文会场模型。当前仅支持16K。 */ RecEngineModelType: string; /** 语音数据,要base64编码。 */ Data: string; /** 数据长度。 */ DataLen: number; /** 声音id,标识一句话。 */ VoiceId: string; /** 是否是一句话的结束。 */ IsEnd: number; /** 声音编码的格式1:pcm,4:speex,6:silk,默认为1。 */ VoiceFormat: number; /** 是否需要翻译结果,1表示需要翻译,0是不需要。 */ OpenTranslate: number; /** 如果需要翻译,表示源语言类型,可取值:zh,en。 */ SourceLanguage: string; /** 如果需要翻译,表示目标语言类型,可取值:zh,en。 */ TargetLanguage: string; /** 表明当前语音分片的索引,从0开始 */ Seq: number; } declare interface SimultaneousInterpretingResponse { /** 语音识别的结果 */ AsrText?: string; /** 机器翻译的结果 */ NmtText?: string; /** 唯一请求 ID,每次请求都会返回。 */ RequestId?: string; } declare interface TextToVoiceRequest { /** 合成语音的源文本,按UTF-8编码统一计算。中文最大支持100个汉字(全角标点符号算一个汉字);英文最大支持400个字母(半角标点符号算一个字母)。包含空格等字符时需要url encode再传输。 */ Text: string; /** 一次请求对应一个SessionId,会原样返回,建议传入类似于uuid的字符串防止重复。 */ SessionId: string; /** 模型类型,1-默认模型。 */ ModelType: number; /** 音量大小,范围:[0,10],分别对应11个等级的音量,默认为0,代表正常音量。没有静音选项。输入除以上整数之外的其他参数不生效,按默认值处理。 */ Volume?: number; /** 语速,范围:[-2,2],分别对应不同语速:-2代表0.6倍-1代表0.8倍0代表1.0倍(默认)1代表1.2倍2代表1.5倍输入除以上整数之外的其他参数不生效,按默认值处理。 */ Speed?: number; /** 项目id,用户自定义,默认为0。 */ ProjectId?: number; /** 音色0-亲和女声(默认)1-亲和男声2-成熟男声3-活力男声4-温暖女声5-情感女声6-情感男声 */ VoiceType?: number; /** 主语言类型:1-中文(默认)2-英文 */ PrimaryLanguage?: number; /** 音频采样率:16000:16k(默认)8000:8k */ SampleRate?: number; /** 返回音频格式,可取值:wav(默认),mp3 */ Codec?: string; } declare interface TextToVoiceResponse { /** base64编码的wav/mp3音频数据 */ Audio?: string; /** 一次请求对应一个SessionId */ SessionId?: string; /** 唯一请求 ID,每次请求都会返回。 */ RequestId?: string; } declare interface Aai { (): Versions; /** 智能闲聊 {@link ChatRequest} {@link ChatResponse} */ Chat(data: ChatRequest, config?: AxiosRequestConfig): AxiosPromise<ChatResponse>; /** 一句话识别 {@link SentenceRecognitionRequest} {@link SentenceRecognitionResponse} */ SentenceRecognition(data: SentenceRecognitionRequest, config?: AxiosRequestConfig): AxiosPromise<SentenceRecognitionResponse>; /** 同传 {@link SimultaneousInterpretingRequest} {@link SimultaneousInterpretingResponse} */ SimultaneousInterpreting(data: SimultaneousInterpretingRequest, config?: AxiosRequestConfig): AxiosPromise<SimultaneousInterpretingResponse>; /** 语音合成 {@link TextToVoiceRequest} {@link TextToVoiceResponse} */ TextToVoice(data: TextToVoiceRequest, config?: AxiosRequestConfig): AxiosPromise<TextToVoiceResponse>; } export declare type Versions = ["2018-05-22"]; export default Aai;