aivmlib-web
Version:
Aivis Voice Model File (.aivm/.aivmx) Utility Library for Web
85 lines (84 loc) • 3.39 kB
JavaScript
import { z as n } from "zod";
const e = n.object({
model_name: n.string(),
version: n.string(),
train: n.object({
log_interval: n.number().int().optional(),
eval_interval: n.number().int().optional(),
seed: n.number().int().optional(),
epochs: n.number().int().optional(),
learning_rate: n.number().optional(),
betas: n.tuple([n.number(), n.number()]).optional(),
eps: n.number().optional(),
batch_size: n.number().int().optional(),
bf16_run: n.boolean().optional(),
fp16_run: n.boolean().optional(),
lr_decay: n.number().optional(),
segment_size: n.number().int().optional(),
init_lr_ratio: n.number().int().optional(),
warmup_epochs: n.number().int().optional(),
c_mel: n.number().int().optional(),
c_kl: n.number().optional(),
c_commit: n.number().int().optional(),
skip_optimizer: n.boolean().optional(),
freeze_ZH_bert: n.boolean().optional(),
freeze_JP_bert: n.boolean().optional(),
freeze_EN_bert: n.boolean().optional(),
freeze_emo: n.boolean().optional(),
freeze_style: n.boolean().optional(),
freeze_decoder: n.boolean().optional()
}),
data: n.object({
use_jp_extra: n.boolean().optional(),
training_files: n.string().optional(),
validation_files: n.string().optional(),
max_wav_value: n.number().optional(),
sampling_rate: n.number().int().optional(),
filter_length: n.number().int().optional(),
hop_length: n.number().int().optional(),
win_length: n.number().int().optional(),
n_mel_channels: n.number().int().optional(),
mel_fmin: n.number().optional(),
mel_fmax: n.number().nullable().optional(),
add_blank: n.boolean().optional(),
n_speakers: n.number().int(),
cleaned_text: n.boolean().optional(),
spk2id: n.record(n.string(), n.number().int()),
num_styles: n.number().int(),
style2id: n.record(n.string(), n.number().int())
}),
model: n.object({
use_spk_conditioned_encoder: n.boolean().optional(),
use_noise_scaled_mas: n.boolean().optional(),
use_mel_posterior_encoder: n.boolean().optional(),
use_duration_discriminator: n.boolean().optional(),
use_wavlm_discriminator: n.boolean().optional(),
inter_channels: n.number().int().optional(),
hidden_channels: n.number().int().optional(),
filter_channels: n.number().int().optional(),
n_heads: n.number().int().optional(),
n_layers: n.number().int().optional(),
kernel_size: n.number().int().optional(),
p_dropout: n.number().optional(),
resblock: n.string().optional(),
resblock_kernel_sizes: n.array(n.number().int()).optional(),
resblock_dilation_sizes: n.array(n.array(n.number().int())).optional(),
upsample_rates: n.array(n.number().int()).optional(),
upsample_initial_channel: n.number().int().optional(),
upsample_kernel_sizes: n.array(n.number().int()).optional(),
n_layers_q: n.number().int().optional(),
use_spectral_norm: n.boolean().optional(),
gin_channels: n.number().int().optional(),
slm: n.object({
model: n.string().optional(),
sr: n.number().int().optional(),
hidden: n.number().int().optional(),
nlayers: n.number().int().optional(),
initial_channel: n.number().int().optional()
}).optional()
})
});
export {
e as StyleBertVITS2HyperParametersSchema
};
//# sourceMappingURL=style-bert-vits2.mjs.map