UNPKG

aivmlib-web

Version:

Aivis Voice Model File (.aivm/.aivmx) Utility Library for Web

85 lines (84 loc) 3.39 kB
import { z as n } from "zod"; const e = n.object({ model_name: n.string(), version: n.string(), train: n.object({ log_interval: n.number().int().optional(), eval_interval: n.number().int().optional(), seed: n.number().int().optional(), epochs: n.number().int().optional(), learning_rate: n.number().optional(), betas: n.tuple([n.number(), n.number()]).optional(), eps: n.number().optional(), batch_size: n.number().int().optional(), bf16_run: n.boolean().optional(), fp16_run: n.boolean().optional(), lr_decay: n.number().optional(), segment_size: n.number().int().optional(), init_lr_ratio: n.number().int().optional(), warmup_epochs: n.number().int().optional(), c_mel: n.number().int().optional(), c_kl: n.number().optional(), c_commit: n.number().int().optional(), skip_optimizer: n.boolean().optional(), freeze_ZH_bert: n.boolean().optional(), freeze_JP_bert: n.boolean().optional(), freeze_EN_bert: n.boolean().optional(), freeze_emo: n.boolean().optional(), freeze_style: n.boolean().optional(), freeze_decoder: n.boolean().optional() }), data: n.object({ use_jp_extra: n.boolean().optional(), training_files: n.string().optional(), validation_files: n.string().optional(), max_wav_value: n.number().optional(), sampling_rate: n.number().int().optional(), filter_length: n.number().int().optional(), hop_length: n.number().int().optional(), win_length: n.number().int().optional(), n_mel_channels: n.number().int().optional(), mel_fmin: n.number().optional(), mel_fmax: n.number().nullable().optional(), add_blank: n.boolean().optional(), n_speakers: n.number().int(), cleaned_text: n.boolean().optional(), spk2id: n.record(n.string(), n.number().int()), num_styles: n.number().int(), style2id: n.record(n.string(), n.number().int()) }), model: n.object({ use_spk_conditioned_encoder: n.boolean().optional(), use_noise_scaled_mas: n.boolean().optional(), use_mel_posterior_encoder: n.boolean().optional(), use_duration_discriminator: n.boolean().optional(), use_wavlm_discriminator: n.boolean().optional(), inter_channels: n.number().int().optional(), hidden_channels: n.number().int().optional(), filter_channels: n.number().int().optional(), n_heads: n.number().int().optional(), n_layers: n.number().int().optional(), kernel_size: n.number().int().optional(), p_dropout: n.number().optional(), resblock: n.string().optional(), resblock_kernel_sizes: n.array(n.number().int()).optional(), resblock_dilation_sizes: n.array(n.array(n.number().int())).optional(), upsample_rates: n.array(n.number().int()).optional(), upsample_initial_channel: n.number().int().optional(), upsample_kernel_sizes: n.array(n.number().int()).optional(), n_layers_q: n.number().int().optional(), use_spectral_norm: n.boolean().optional(), gin_channels: n.number().int().optional(), slm: n.object({ model: n.string().optional(), sr: n.number().int().optional(), hidden: n.number().int().optional(), nlayers: n.number().int().optional(), initial_channel: n.number().int().optional() }).optional() }) }); export { e as StyleBertVITS2HyperParametersSchema }; //# sourceMappingURL=style-bert-vits2.mjs.map