added some more zh to en_US translation (#194)

* Add files via upload

* updated i18n() translation for en_US

expanded the dict for other languages

* added more i18n()

---------

Co-authored-by: 源文雨 <41315874+fumiama@users.noreply.github.com>
This commit is contained in:
bycloud 2023-04-28 08:44:46 -04:00 committed by GitHub
parent f391ac1763
commit bbe333552f
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23
8 changed files with 852 additions and 768 deletions

View File

@ -1,104 +1,116 @@
{ {
"本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "This software is open source under the MIT license, the author does not have any control over the software, and those who use the software and spread the sounds exported by the software are solely responsible. <br>If you do not agree with this clause, you cannot use or quote any codes and files in the software package . See root directory <b>Agreement-LICENSE.txt</b> for details.", "很遗憾您这没有能用的显卡来支持您训练": "Unfortunately, you don't have a GPU to help you train",
"模型推理": "Model inference", "是": "yes",
"推理音色": "Inferencing timbre", "step1:正在处理数据": "step 1: processing data",
"刷新音色列表": "Refresh timbre list", "step2a:正在提取音高": "step 2a: extracting pitch",
"卸载音色省显存": "Unload timbre to save GPU memory", "step2a:无需提取音高": "step 2a: skipped extracting pitch",
"请选择说话人id": "Please select a speaker id", "step2b:正在提取特征": "step 2b: extracting features",
"男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "It is recommended +12key for male to female conversion, and -12key for female to male conversion. If the sound range explodes and the timbre is distorted, you can also adjust it to the appropriate range by yourself. ", "step3a:正在训练模型": "step 3a: training the model",
"变调(整数, 半音数量, 升八度12降八度-12)": "transpose(integer, number of semitones, octave sharp 12 octave flat -12)", "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log": "Training completed, you can view the training logs in the console or the train.log within the experiement folder",
"输入待处理音频文件路径(默认是正确格式示例)": "Enter the path of the audio file to be processed (the default is the correct format example)", "全流程结束!": "all processes have been completed!",
"选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比": "Select the algorithm for pitch extraction. Use 'pm' to speed up for singing voices, or use 'harvest' for better low-pitched voices, but it is extremely slow.", "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "This software is open source under the MIT license, the author does not have any control over the software, and those who use the software and spread the sounds exported by the software are solely responsible. <br>If you do not agree with this clause, you cannot use or quote any codes and files in the software package. See root directory <b>Agreement-LICENSE.txt</b> for details.",
"特征检索库文件路径": "Feature search database file path", "模型推理": "Model inference",
"特征文件路径": "Feature file path", "推理音色": "Inferencing timbre",
"F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "F0 curve file, optional, one pitch per line, instead of the default F0 and ups and downs", "刷新音色列表": "Refresh timbre list",
"转换": "Conversion", "卸载音色省显存": "Unload timbre to save GPU memory",
"输出信息": "Output information", "请选择说话人id": "Please select a speaker id",
"输出音频(右下角三个点,点了可以下载)": "Output audio (three dots in the lower right corner, click to download)", "男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "It is recommended +12key for male to female conversion, and -12key for female to male conversion. If the sound range explodes and the timbre is distorted, you can also adjust it to the appropriate range by yourself. ",
"批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "For batch conversion, input the audio folder to be converted, or upload multiple audio files, and output the converted audio in the specified folder (opt by default). ", "变调(整数, 半音数量, 升八度12降八度-12)": "transpose(integer, number of semitones, octave sharp 12 octave flat -12)",
"指定输出文件夹": "Specify output folder", "输入待处理音频文件路径(默认是正确格式示例)": "Enter the path of the audio file to be processed (the default is the correct format example)",
"检索特征占比": "Search feature ratio", "选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比": "Select the algorithm for pitch extraction. Use 'pm' to speed up for singing voices, or use 'harvest' for better low-pitched voices, but it is extremely slow.",
"输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "Enter the path of the audio folder to be processed (just go to the address bar of the file manager and copy it)", "特征检索库文件路径": "Feature search database file path",
"也可批量输入音频文件, 二选一, 优先读文件夹": "You can also input audio files in batches, choose one of the two, and read the folder first", "特征文件路径": "Feature file path",
"伴奏人声分离": "Accompaniment and vocal separation", "检索特征占比": "Search feature ratio",
"人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)": "Batch processing of vocal accompaniment separation, using UVR5 model. <br>Without harmony, use HP2, with harmony and extracted vocals do not need harmony, use HP5<br>Example of qualified folder path format: E:\\ codes\\py39\\vits_vc_gpu\\Egret Shuanghua test sample (just go to the address bar of the file manager and copy it)", "F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "F0 curve file, optional, one pitch per line, instead of the default F0 and ups and downs",
"输入待处理音频文件夹路径": "Input audio folder path", "转换": "Convert",
"模型": "Model", "输出信息": "Export message",
"指定输出人声文件夹": "Specify vocals output folder", "输出音频(右下角三个点,点了可以下载)": "Export audio (three dots in the lower right corner, click to download)",
"指定输出乐器文件夹": "Specify instrumentals output folder", "批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "For batch conversion, input the audio folder to be converted, or upload multiple audio files, and output the converted audio in the specified folder (opt by default). ",
"训练": "Train", "指定输出文件夹": "Specify output folder",
"step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "step1: Fill in the experimental configuration. The experimental data is placed under logs, and each experiment has a folder. You need to manually enter the experimental name path, which contains the experimental configuration, logs, and model files obtained from training. ", "输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "Enter the path of the audio folder to be processed (just go to the address bar of the file manager and copy it)",
"输入实验名": "Input experiment name", "也可批量输入音频文件, 二选一, 优先读文件夹": "You can also input audio files in batches, choose one of the two, and read the folder first",
"目标采样率": "Target sample rate", "伴奏人声分离": "Accompaniment and vocal separation",
"模型是否带音高指导(唱歌一定要, 语音可以不要)": "Does the model have pitch guidance (singing must, voice can not.)", "人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)": "Batch processing of vocal accompaniment separation, using UVR5 model. <br>Without harmony, use HP2, with harmony and extracted vocals do not need harmony, use HP5<br>Example of qualified folder path format: E:\\ codes\\py39\\vits_vc_gpu\\Egret Shuanghua test sample (just go to the address bar of the file manager and copy it)",
"step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "step2a: Automatically traverse all files that can be decoded into audio in the training folder and perform slice normalization, and generate 2 wav folders in the experiment directory; only single-person training is supported for the time being. ", "输入待处理音频文件夹路径": "Input audio folder path",
"输入训练文件夹路径": "Input training folder path", "模型": "Model",
"请指定说话人id": "Please specify speaker ID", "人声提取激进程度": "vocal extraction aggressiveness",
"处理数据": "Process data", "指定输出人声文件夹": "Specify vocals output folder",
"step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "step2b: Use CPU to extract pitch (if the model has pitch), use GPU to extract features (select card number)", "指定输出乐器文件夹": "Specify instrumentals output folder",
"以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "Enter the card numbers used separated by -, for example 0-1-2 use card 0 and card 1 and card 2", "训练": "Train",
"显卡信息": "GPU information", "step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "step1: Fill in the experimental configuration. The experimental data is placed under logs, and each experiment has a folder. You need to manually enter the experimental name path, which contains the experimental configuration, logs, and model files obtained from training. ",
"提取音高使用的CPU进程数": "Number of CPU threads to use for pitch extraction", "输入实验名": "Input experiment name",
"选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "Select pitch extraction algorithm: Use 'pm' for faster processing of singing voice, 'dio' for high-quality speech but slower processing, and 'harvest' for the best quality but slowest processing.", "目标采样率": "Target sample rate",
"特征提取": "Feature extraction", "模型是否带音高指导(唱歌一定要, 语音可以不要)": "Does the model have pitch guidance (singing must, voice can not.)",
"step3: 填写训练设置, 开始训练模型和索引": "step3: Fill in the training settings, start training the model and index", "否": "no",
"保存频率save_every_epoch": "Save frequency (save_every_epoch)", "step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "step2a: Automatically traverse all files that can be decoded into audio in the training folder and perform slice normalization, and generate 2 wav folders in the experiment directory; only single-person training is supported for the time being. ",
"总训练轮数total_epoch": "Total training epochs (total_epoch)", "输入训练文件夹路径": "Input training folder path",
"是否仅保存最新的ckpt文件以节省硬盘空间": "Whether to save only the latest ckpt file to save disk space", "请指定说话人id": "Please specify speaker ID",
"是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "Whether to cache all training sets to video memory. Small data under 10 minutes can be cached to speed up training, and large data cache will blow up video memory and not increase the speed much", "处理数据": "Process data",
"加载预训练底模G路径": "Load pre-trained base model G path.", "step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "step2b: Use CPU to extract pitch (if the model has pitch), use GPU to extract features (select card number)",
"加载预训练底模D路径": "Load pre-trained base model D path.", "以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "Enter the card numbers used separated by -, for example 0-1-2 use card 0 and card 1 and card 2",
"训练模型": "Train model.", "显卡信息": "GPU information",
"训练特征索引": "Train feature index.", "提取音高使用的CPU进程数": "Number of CPU threads to use for pitch extraction",
"一键训练": "One-click training.", "选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "Select pitch extraction algorithm: Use 'pm' for faster processing of singing voice, 'dio' for high-quality speech but slower processing, and 'harvest' for the best quality but slowest processing.",
"ckpt处理": "ckpt processing.", "特征提取": "Feature extraction",
"模型融合, 可用于测试音色融合": "Model Fusion, which can be used to test sound fusion", "step3: 填写训练设置, 开始训练模型和索引": "step3: Fill in the training settings, start training the model and index",
"A模型路径": "A model path.", "保存频率save_every_epoch": "Save frequency (save_every_epoch)",
"B模型路径": "B model path.", "总训练轮数total_epoch": "Total training epochs (total_epoch)",
"A模型权重": "A model weight for model A.", "每张显卡的batch_size": "batch_size for every GPU",
"模型是否带音高指导": "Whether the model has pitch guidance.", "是否仅保存最新的ckpt文件以节省硬盘空间": "Whether to save only the latest ckpt file to save disk space",
"要置入的模型信息": "Model information to be placed.", "是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "Whether to cache all training sets to video memory. Small data under 10 minutes can be cached to speed up training, and large data cache will blow up video memory and not increase the speed much",
"保存的模型名不带后缀": "Saved model name without extension.", "加载预训练底模G路径": "Load pre-trained base model G path.",
"融合": "Fusion.", "加载预训练底模D路径": "Load pre-trained base model D path.",
"修改模型信息(仅支持weights文件夹下提取的小模型文件)": "Modify model information (only small model files extracted from the weights folder are supported)", "训练模型": "Train model.",
"模型路径": "Model path", "训练特征索引": "Train feature index.",
"要改的模型信息": "Model information to be modified", "一键训练": "One-click training.",
"保存的文件名, 默认空为和源文件同名": "The saved file name, the default is empty and the same name as the source file", "ckpt处理": "ckpt processing.",
"修改": "Modify", "模型融合, 可用于测试音色融合": "Model Fusion, which can be used to test sound fusion",
"查看模型信息(仅支持weights文件夹下提取的小模型文件)": "View model information (only small model files extracted from the weights folder are supported)", "A模型路径": "A model path.",
"查看": "View", "B模型路径": "B model path.",
"模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "Model extraction (enter the path of the large file model under the logs folder), which is suitable for half of the training and does not want to train the model without automatically extracting and saving the small file model, or if you want to test the intermediate model", "A模型权重": "A model weight for model A.",
"保存名": "Save Name", "模型是否带音高指导": "Whether the model has pitch guidance.",
"模型是否带音高指导,1是0否": "Whether the model has pitch guidance, 1 for yes, 0 for no", "要置入的模型信息": "Model information to be placed.",
"提取": "Extract", "保存的模型名不带后缀": "Saved model name without extension.",
"Onnx导出": "Onnx", "融合": "Fusion.",
"RVC模型路径": "RVC Path", "修改模型信息(仅支持weights文件夹下提取的小模型文件)": "Modify model information (only small model files extracted from the weights folder are supported)",
"Onnx输出路径": "Onnx Export Path", "模型路径": "Model path",
"MoeVS模型": "MoeSS?", "要改的模型信息": "Model information to be modified",
"导出Onnx模型": "Export Onnx Model", "保存的文件名, 默认空为和源文件同名": "The saved file name, the default is empty and the same name as the source file",
"招募音高曲线前端编辑器": "Recruit front-end editors for pitch curves", "修改": "Modify",
"加开发群联系我xxxxx": "Add development group to contact me xxxxx", "查看模型信息(仅支持weights文件夹下提取的小模型文件)": "View model information (only small model files extracted from the weights folder are supported)",
"点击查看交流、问题反馈群号": "Click to view the communication and problem feedback group number", "查看": "View",
"xxxxx": "xxxxx", "模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "Model extraction (enter the path of the large file model under the logs folder), which is suitable for half of the training and does not want to train the model without automatically extracting and saving the small file model, or if you want to test the intermediate model",
"加载模型": "load model", "保存名": "Save Name",
"Hubert模型": "Hubert File", "模型是否带音高指导,1是0否": "Whether the model has pitch guidance, 1 for yes, 0 for no",
"选择.pth文件": "Select the .pth file", "提取": "Extract",
"选择.index文件": "Select the .index file", "Onnx导出": "Export Onnx",
"选择.npy文件": "Select the .npy file", "RVC模型路径": "RVC Model Path",
"输入设备": "input device", "Onnx输出路径": "Onnx Export Path",
"输出设备": "output device", "MoeVS模型": "MoeVS Model",
"音频设备(请使用同种类驱动)": "Audio device (please use the same type of driver)", "导出Onnx模型": "Export Onnx Model",
"响应阈值": "response threshold", "招募音高曲线前端编辑器": "Recruit front-end editors for pitch curves",
"音调设置": "tone setting", "加开发群联系我xxxxx": "Add development group to contact me xxxxx",
"Index Rate": "Index Rate", "点击查看交流、问题反馈群号": "Click to view the communication and problem feedback group number",
"常规设置": "general settings", "xxxxx": "xxxxx",
"采样长度": "Sample length", "加载模型": "load model",
"淡入淡出长度": "fade length", "Hubert模型": "Hubert File",
"额外推理时长": "extra inference time", "选择.pth文件": "Select the .pth file",
"输入降噪": "Input Noisereduce", "选择.index文件": "Select the .index file",
"输出降噪": "Output Noisereduce", "选择.npy文件": "Select the .npy file",
"性能设置": "performance settings", "输入设备": "input device",
"开始音频转换": "start audio conversion", "输出设备": "output device",
"停止音频转换": "stop audio conversion", "音频设备(请使用同种类驱动)": "Audio device (please use the same type of driver)",
"推理时间(ms):": "Infer Time(ms):" "响应阈值": "response threshold",
} "音调设置": "tone setting",
"Index Rate": "Index Rate",
"常规设置": "general settings",
"采样长度": "Sample length",
"淡入淡出长度": "fade length",
"额外推理时长": "extra inference time",
"输入降噪": "Input Noise Reduction",
"输出降噪": "Output Noise Reduction",
"性能设置": "performance settings",
"开始音频转换": "start audio conversion",
"停止音频转换": "stop audio conversion",
"推理时间(ms):": "Infer Time(ms):"
}

View File

@ -1,104 +1,116 @@
{ {
"本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "Este software es de código abierto bajo la licencia MIT, el autor no tiene ningún control sobre el software, y aquellos que usan el software y difunden los sonidos exportados por el software son los únicos responsables.<br>Si no está de acuerdo con esta cláusula , no puede utilizar ni citar ningún código ni archivo del paquete de software Consulte el directorio raíz <b>Agreement-LICENSE.txt</b> para obtener más información.", "很遗憾您这没有能用的显卡来支持您训练": "很遗憾您这没有能用的显卡来支持您训练",
"模型推理": "inferencia del modelo", "是": "是",
"推理音色": "inferencia de voz", "step1:正在处理数据": "step1:正在处理数据",
"刷新音色列表": "Actualizar lista de voces", "step2a:正在提取音高": "step2a:正在提取音高",
"卸载音色省显存": "Descargue la voz para ahorrar memoria GPU", "step2a:无需提取音高": "step2a:无需提取音高",
"请选择说话人id": "seleccione una identificación de altavoz", "step2b:正在提取特征": "step2b:正在提取特征",
"男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "Tecla +12 recomendada para conversión de voz de hombre a mujer, tecla -12 para conversión de voz de mujer a hombre. Si el rango de tono es demasiado amplio y causa distorsión, ajústelo usted mismo a un rango adecuado.", "step3a:正在训练模型": "step3a:正在训练模型",
"变调(整数, 半音数量, 升八度12降八度-12)": "Cambio de tono (entero, número de semitonos, subir una octava +12 o bajar una octava -12)", "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log": "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log",
"输入待处理音频文件路径(默认是正确格式示例)": "Ingrese la ruta del archivo del audio que se procesará (el formato predeterminado es el ejemplo correcto)", "全流程结束!": "全流程结束!",
"选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比": "Seleccione el algoritmo para la extracción de tono. Use 'pm' para acelerar las voces cantadas, o use 'harvest' para mejorar las voces bajas, pero es extremadamente lento.", "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "Este software es de código abierto bajo la licencia MIT, el autor no tiene ningún control sobre el software, y aquellos que usan el software y difunden los sonidos exportados por el software son los únicos responsables.<br>Si no está de acuerdo con esta cláusula , no puede utilizar ni citar ningún código ni archivo del paquete de software Consulte el directorio raíz <b>Agreement-LICENSE.txt</b> para obtener más información.",
"特征检索库文件路径": "Ruta del archivo de la base de datos de búsqueda de características", "模型推理": "inferencia del modelo",
"特征文件路径": "Ruta del archivo de características", "推理音色": "inferencia de voz",
"F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "Archivo de curva F0, opcional, un tono por línea, en lugar de F0 predeterminado y cambio de tono", "刷新音色列表": "Actualizar lista de voces",
"转换": "Conversión", "卸载音色省显存": "Descargue la voz para ahorrar memoria GPU",
"输出信息": "Información de salida", "请选择说话人id": "seleccione una identificación de altavoz",
"输出音频(右下角三个点,点了可以下载)": "Salida de audio (haga clic en los tres puntos en la esquina inferior derecha para descargar)", "男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "Tecla +12 recomendada para conversión de voz de hombre a mujer, tecla -12 para conversión de voz de mujer a hombre. Si el rango de tono es demasiado amplio y causa distorsión, ajústelo usted mismo a un rango adecuado.",
"批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "Conversión por lotes, ingrese la carpeta que contiene los archivos de audio para convertir o cargue varios archivos de audio. El audio convertido se emitirá en la carpeta especificada (opción predeterminada).", "变调(整数, 半音数量, 升八度12降八度-12)": "Cambio de tono (entero, número de semitonos, subir una octava +12 o bajar una octava -12)",
"指定输出文件夹": "Especificar carpeta de salida", "输入待处理音频文件路径(默认是正确格式示例)": "Ingrese la ruta del archivo del audio que se procesará (el formato predeterminado es el ejemplo correcto)",
"检索特征占比": "Proporción de función de búsqueda", "选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比": "Seleccione el algoritmo para la extracción de tono. Use 'pm' para acelerar las voces cantadas, o use 'harvest' para mejorar las voces bajas, pero es extremadamente lento.",
"输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "Ingrese la ruta a la carpeta de audio que se procesará (simplemente cópiela desde la barra de direcciones del administrador de archivos)", "特征检索库文件路径": "Ruta del archivo de la base de datos de búsqueda de características",
"也可批量输入音频文件, 二选一, 优先读文件夹": "También se pueden ingresar múltiples archivos de audio, cualquiera de las dos opciones, con prioridad dada a la carpeta", "特征文件路径": "Ruta del archivo de características",
"伴奏人声分离": "Instrumental and vocal separation", "检索特征占比": "Proporción de función de búsqueda",
"人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)": "Procesamiento por lotes de separación instrumental y vocal utilizando el modelo UVR5. <br>Utilice HP2 para la separación vocal sin armónicos, y utilice HP5 para la separación vocal con armónicos y las voces extraídas no necesitan tener armónicos. <br>Ejemplo de una ruta de carpeta calificada: E:\\codes\\py39\\vits_vc_gpu\\test_sample (simplemente cópielo desde la barra de direcciones del administrador de archivos)", "F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "Archivo de curva F0, opcional, un tono por línea, en lugar de F0 predeterminado y cambio de tono",
"输入待处理音频文件夹路径": "Ingrese la ruta a la carpeta de audio que se procesará", "转换": "Conversión",
"模型": "Modelo", "输出信息": "Información de salida",
"指定输出人声文件夹": "Especificar la carpeta de salida de voces", "输出音频(右下角三个点,点了可以下载)": "Salida de audio (haga clic en los tres puntos en la esquina inferior derecha para descargar)",
"指定输出乐器文件夹": "Especificar la carpeta de salida de instrumentales", "批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "Conversión por lotes, ingrese la carpeta que contiene los archivos de audio para convertir o cargue varios archivos de audio. El audio convertido se emitirá en la carpeta especificada (opción predeterminada).",
"训练": "Entrenamiento", "指定输出文件夹": "Especificar carpeta de salida",
"step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "paso 1: Complete la configuración del experimento. Los datos del experimento se almacenan en el directorio 'logs', con cada experimento en una carpeta separada. La ruta del nombre del experimento debe ingresarse manualmente y debe contener la configuración del experimento, los registros y los archivos del modelo entrenado.", "输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "Ingrese la ruta a la carpeta de audio que se procesará (simplemente cópiela desde la barra de direcciones del administrador de archivos)",
"输入实验名": "Ingrese el nombre del modelo", "也可批量输入音频文件, 二选一, 优先读文件夹": "También se pueden ingresar múltiples archivos de audio, cualquiera de las dos opciones, con prioridad dada a la carpeta",
"目标采样率": "Tasa de muestreo objetivo", "伴奏人声分离": "Instrumental and vocal separation",
"模型是否带音高指导(唱歌一定要, 语音可以不要)": "Si el modelo tiene guía de tono (necesaria para cantar, pero no para hablar)", "人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)": "Procesamiento por lotes de separación instrumental y vocal utilizando el modelo UVR5. <br>Utilice HP2 para la separación vocal sin armónicos, y utilice HP5 para la separación vocal con armónicos y las voces extraídas no necesitan tener armónicos. <br>Ejemplo de una ruta de carpeta calificada: E:\\codes\\py39\\vits_vc_gpu\\test_sample (simplemente cópielo desde la barra de direcciones del administrador de archivos)",
"step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "paso 2a: recorra automáticamente la carpeta de capacitación y corte y normalice todos los archivos de audio que se pueden decodificar en audio. Se generarán dos carpetas 'wav' en el directorio del experimento. Actualmente, solo se admite la capacitación de una sola persona.", "输入待处理音频文件夹路径": "Ingrese la ruta a la carpeta de audio que se procesará",
"输入训练文件夹路径": "Introduzca la ruta de la carpeta de entrenamiento", "模型": "Modelo",
"请指定说话人id": "Especifique el ID del hablante", "人声提取激进程度": "人声提取激进程度",
"处理数据": "Procesar datos", "指定输出人声文件夹": "Especificar la carpeta de salida de voces",
"step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "paso 2b: use la CPU para extraer el tono (si el modelo tiene guía de tono) y la GPU para extraer características (seleccione el número de tarjeta).", "指定输出乐器文件夹": "Especificar la carpeta de salida de instrumentales",
"以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "Separe los números de identificación de la GPU con '-' al ingresarlos. Por ejemplo, '0-1-2' significa usar GPU 0, GPU 1 y GPU 2.", "训练": "Entrenamiento",
"显卡信息": "información de la GPU", "step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "paso 1: Complete la configuración del experimento. Los datos del experimento se almacenan en el directorio 'logs', con cada experimento en una carpeta separada. La ruta del nombre del experimento debe ingresarse manualmente y debe contener la configuración del experimento, los registros y los archivos del modelo entrenado.",
"提取音高使用的CPU进程数": "Número de subprocesos de CPU que se utilizarán para la extracción de tono", "输入实验名": "Ingrese el nombre del modelo",
"选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "Seleccione el algoritmo de extracción de tono: utilice 'pm' para un procesamiento más rápido de la voz cantada, 'dio' para un discurso de alta calidad pero un procesamiento más lento y 'cosecha' para obtener la mejor calidad pero un procesamiento más lento.", "目标采样率": "Tasa de muestreo objetivo",
"特征提取": "Extracción de características", "模型是否带音高指导(唱歌一定要, 语音可以不要)": "Si el modelo tiene guía de tono (necesaria para cantar, pero no para hablar)",
"step3: 填写训练设置, 开始训练模型和索引": "Paso 3: complete la configuración de entrenamiento y comience a entrenar el modelo y el índice.", "否": "否",
"保存频率save_every_epoch": "Frecuencia de guardado (save_every_epoch)", "step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "paso 2a: recorra automáticamente la carpeta de capacitación y corte y normalice todos los archivos de audio que se pueden decodificar en audio. Se generarán dos carpetas 'wav' en el directorio del experimento. Actualmente, solo se admite la capacitación de una sola persona.",
"总训练轮数total_epoch": "Total de épocas de entrenamiento (total_epoch)", "输入训练文件夹路径": "Introduzca la ruta de la carpeta de entrenamiento",
"是否仅保存最新的ckpt文件以节省硬盘空间": "Si guardar solo el archivo ckpt más reciente para ahorrar espacio en disco", "请指定说话人id": "Especifique el ID del hablante",
"是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "Si almacenar en caché todos los conjuntos de entrenamiento en la memoria de la GPU. Los conjuntos de datos pequeños (menos de 10 minutos) se pueden almacenar en caché para acelerar el entrenamiento, pero el almacenamiento en caché de conjuntos de datos grandes puede causar errores de memoria en la GPU y no aumenta la velocidad de manera significativa.", "处理数据": "Procesar datos",
"加载预训练底模G路径": "Cargue la ruta G del modelo base preentrenada.", "step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "paso 2b: use la CPU para extraer el tono (si el modelo tiene guía de tono) y la GPU para extraer características (seleccione el número de tarjeta).",
"加载预训练底模D路径": "Cargue la ruta del modelo D base preentrenada.", "以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "Separe los números de identificación de la GPU con '-' al ingresarlos. Por ejemplo, '0-1-2' significa usar GPU 0, GPU 1 y GPU 2.",
"训练模型": "Entrenar Modelo", "显卡信息": "información de la GPU",
"训练特征索引": "Índice de características del Entrenamiento", "提取音高使用的CPU进程数": "Número de subprocesos de CPU que se utilizarán para la extracción de tono",
"一键训练": "Entrenamiento con un clic.", "选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "Seleccione el algoritmo de extracción de tono: utilice 'pm' para un procesamiento más rápido de la voz cantada, 'dio' para un discurso de alta calidad pero un procesamiento más lento y 'cosecha' para obtener la mejor calidad pero un procesamiento más lento.",
"ckpt处理": "Procesamiento de recibos", "特征提取": "Extracción de características",
"模型融合, 可用于测试音色融合": "Fusión de modelos, se puede utilizar para fusionar diferentes voces", "step3: 填写训练设置, 开始训练模型和索引": "Paso 3: complete la configuración de entrenamiento y comience a entrenar el modelo y el índice.",
"A模型路径": "Modelo A ruta.", "保存频率save_every_epoch": "Frecuencia de guardado (save_every_epoch)",
"B模型路径": "Modelo B ruta.", "总训练轮数total_epoch": "Total de épocas de entrenamiento (total_epoch)",
"A模型权重": "Un peso modelo para el modelo A.", "每张显卡的batch_size": "每张显卡的batch_size",
"模型是否带音高指导": "Si el modelo tiene guía de tono.", "是否仅保存最新的ckpt文件以节省硬盘空间": "Si guardar solo el archivo ckpt más reciente para ahorrar espacio en disco",
"要置入的模型信息": "Información del modelo a colocar.", "是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "Si almacenar en caché todos los conjuntos de entrenamiento en la memoria de la GPU. Los conjuntos de datos pequeños (menos de 10 minutos) se pueden almacenar en caché para acelerar el entrenamiento, pero el almacenamiento en caché de conjuntos de datos grandes puede causar errores de memoria en la GPU y no aumenta la velocidad de manera significativa.",
"保存的模型名不带后缀": "Nombre del modelo guardado sin extensión.", "加载预训练底模G路径": "Cargue la ruta G del modelo base preentrenada.",
"融合": "Fusión.", "加载预训练底模D路径": "Cargue la ruta del modelo D base preentrenada.",
"修改模型信息(仅支持weights文件夹下提取的小模型文件)": "Modificar la información del modelo (solo admite archivos de modelos pequeños extraídos en la carpeta de pesos).", "训练模型": "Entrenar Modelo",
"模型路径": "Ruta del modelo", "训练特征索引": "Índice de características del Entrenamiento",
"要改的模型信息": "Información del modelo a modificar", "一键训练": "Entrenamiento con un clic.",
"保存的文件名, 默认空为和源文件同名": "Nombre del archivo que se guardará, el valor predeterminado es el mismo que el nombre del archivo de origen", "ckpt处理": "Procesamiento de recibos",
"修改": "Modificar", "模型融合, 可用于测试音色融合": "Fusión de modelos, se puede utilizar para fusionar diferentes voces",
"查看模型信息(仅支持weights文件夹下提取的小模型文件)": "Ver información del modelo (solo aplicable a archivos de modelos pequeños extraídos de la carpeta 'pesos')", "A模型路径": "Modelo A ruta.",
"查看": "Ver", "B模型路径": "Modelo B ruta.",
"模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "Extracción de modelo (ingrese la ruta de un archivo de modelo grande en la carpeta 'logs'), aplicable cuando desea extraer un archivo de modelo pequeño después de entrenar a mitad de camino y no se guardó automáticamente, o cuando desea probar un modelo intermedio", "A模型权重": "Un peso modelo para el modelo A.",
"保存名": "Guardar nombre", "模型是否带音高指导": "Si el modelo tiene guía de tono.",
"模型是否带音高指导,1是0否": "Si el modelo tiene guía de tono, 1 para sí, 0 para no", "要置入的模型信息": "Información del modelo a colocar.",
"提取": "Extracter", "保存的模型名不带后缀": "Nombre del modelo guardado sin extensión.",
"Onnx导出": "Onnx导出", "融合": "Fusión.",
"RVC模型路径": "RVC模型路径", "修改模型信息(仅支持weights文件夹下提取的小模型文件)": "Modificar la información del modelo (solo admite archivos de modelos pequeños extraídos en la carpeta de pesos).",
"Onnx输出路径": "Onnx输出路径", "模型路径": "Ruta del modelo",
"MoeVS模型": "MoeVS模型", "要改的模型信息": "Información del modelo a modificar",
"导出Onnx模型": "导出Onnx模型", "保存的文件名, 默认空为和源文件同名": "Nombre del archivo que se guardará, el valor predeterminado es el mismo que el nombre del archivo de origen",
"招募音高曲线前端编辑器": "Reclutar editores front-end para curvas de tono", "修改": "Modificar",
"加开发群联系我xxxxx": "Únase al grupo de desarrollo para contactarme en xxxxx", "查看模型信息(仅支持weights文件夹下提取的小模型文件)": "Ver información del modelo (solo aplicable a archivos de modelos pequeños extraídos de la carpeta 'pesos')",
"点击查看交流、问题反馈群号": "Haga clic para ver el número de grupo de comunicación y comentarios sobre problemas", "查看": "Ver",
"xxxxx": "xxxxx", "模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "Extracción de modelo (ingrese la ruta de un archivo de modelo grande en la carpeta 'logs'), aplicable cuando desea extraer un archivo de modelo pequeño después de entrenar a mitad de camino y no se guardó automáticamente, o cuando desea probar un modelo intermedio",
"加载模型": "Cargar modelo", "保存名": "Guardar nombre",
"Hubert模型": "Modelo de Hubert ", "模型是否带音高指导,1是0否": "Si el modelo tiene guía de tono, 1 para sí, 0 para no",
"选择.pth文件": "Seleccionar archivo .pth", "提取": "Extracter",
"选择.index文件": "Select .index file", "Onnx导出": "Onnx导出",
"选择.npy文件": "Seleccionar archivo .npy", "RVC模型路径": "RVC模型路径",
"输入设备": "Dispositivo de entrada", "Onnx输出路径": "Onnx输出路径",
"输出设备": "Dispositivo de salida", "MoeVS模型": "MoeVS模型",
"音频设备(请使用同种类驱动)": "Dispositivo de audio (utilice el mismo tipo de controlador)", "导出Onnx模型": "导出Onnx模型",
"响应阈值": "Umbral de respuesta", "招募音高曲线前端编辑器": "Reclutar editores front-end para curvas de tono",
"音调设置": "Ajuste de tono", "加开发群联系我xxxxx": "Únase al grupo de desarrollo para contactarme en xxxxx",
"Index Rate": "Tasa de índice", "点击查看交流、问题反馈群号": "Haga clic para ver el número de grupo de comunicación y comentarios sobre problemas",
"常规设置": "Configuración general", "xxxxx": "xxxxx",
"采样长度": "Longitud de muestreo", "加载模型": "Cargar modelo",
"淡入淡出长度": "Duración del fundido de entrada/salida", "Hubert模型": "Modelo de Hubert ",
"额外推理时长": "Tiempo de inferencia adicional", "选择.pth文件": "Seleccionar archivo .pth",
"输入降噪": "Reducción de ruido de entrada", "选择.index文件": "Select .index file",
"输出降噪": "Reducción de ruido de salida", "选择.npy文件": "Seleccionar archivo .npy",
"性能设置": "Configuración de rendimiento", "输入设备": "Dispositivo de entrada",
"开始音频转换": "Iniciar conversión de audio", "输出设备": "Dispositivo de salida",
"停止音频转换": "Detener la conversión de audio", "音频设备(请使用同种类驱动)": "Dispositivo de audio (utilice el mismo tipo de controlador)",
"推理时间(ms):": "Inferir tiempo (ms):" "响应阈值": "Umbral de respuesta",
} "音调设置": "Ajuste de tono",
"Index Rate": "Tasa de índice",
"常规设置": "Configuración general",
"采样长度": "Longitud de muestreo",
"淡入淡出长度": "Duración del fundido de entrada/salida",
"额外推理时长": "Tiempo de inferencia adicional",
"输入降噪": "Reducción de ruido de entrada",
"输出降噪": "Reducción de ruido de salida",
"性能设置": "Configuración de rendimiento",
"开始音频转换": "Iniciar conversión de audio",
"停止音频转换": "Detener la conversión de audio",
"推理时间(ms):": "Inferir tiempo (ms):"
}

View File

@ -1,104 +1,116 @@
{ {
"本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.", "很遗憾您这没有能用的显卡来支持您训练": "很遗憾您这没有能用的显卡来支持您训练",
"模型推理": "モデル推論", "是": "是",
"推理音色": "音源推論", "step1:正在处理数据": "step1:正在处理数据",
"刷新音色列表": "音源リストを更新", "step2a:正在提取音高": "step2a:正在提取音高",
"卸载音色省显存": "音源を削除してメモリを節約", "step2a:无需提取音高": "step2a:无需提取音高",
"请选择说话人id": "話者IDを選択してください", "step2b:正在提取特征": "step2b:正在提取特征",
"男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "男性から女性へは+12キーをお勧めします。女性から男性へは-12キーをお勧めします。音域が広すぎて音質が劣化した場合は、適切な音域に自分で調整することもできます。", "step3a:正在训练模型": "step3a:正在训练模型",
"变调(整数, 半音数量, 升八度12降八度-12)": "ピッチ変更(整数、半音数、上下オクターブ12-12)", "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log": "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log",
"输入待处理音频文件路径(默认是正确格式示例)": "処理対象音声ファイルのパスを入力してください(デフォルトは正しいフォーマットの例です)", "全流程结束!": "全流程结束!",
"选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比": "ピッチ抽出アルゴリズムを選択してください。歌声の場合は、pmを使用して速度を上げることができます。低音が重要な場合は、harvestを使用できますが、非常に遅くなります。", "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.",
"特征检索库文件路径": "特徴量検索データベースのファイルパス", "模型推理": "モデル推論",
"特征文件路径": "特徴量ファイルのパス", "推理音色": "音源推論",
"F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "F0(最低共振周波数)カーブファイル(オプション、1行に1ピッチ、デフォルトのF0(最低共振周波数)とエレベーションを置き換えます。)", "刷新音色列表": "音源リストを更新",
"转换": "変換", "卸载音色省显存": "音源を削除してメモリを節約",
"输出信息": "出力情報", "请选择说话人id": "話者IDを選択してください",
"输出音频(右下角三个点,点了可以下载)": "出力音声(右下の三点をクリックしてダウンロードできます)", "男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "男性から女性へは+12キーをお勧めします。女性から男性へは-12キーをお勧めします。音域が広すぎて音質が劣化した場合は、適切な音域に自分で調整することもできます。",
"批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "一括変換、変換する音声フォルダを入力、または複数の音声ファイルをアップロードし、指定したフォルダ(デフォルトのopt)に変換した音声を出力します。", "变调(整数, 半音数量, 升八度12降八度-12)": "ピッチ変更(整数、半音数、上下オクターブ12-12)",
"指定输出文件夹": "出力フォルダを指定してください", "输入待处理音频文件路径(默认是正确格式示例)": "処理対象音声ファイルのパスを入力してください(デフォルトは正しいフォーマットの例です)",
"检索特征占比": "検索特徴率", "选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比": "ピッチ抽出アルゴリズムを選択してください。歌声の場合は、pmを使用して速度を上げることができます。低音が重要な場合は、harvestを使用できますが、非常に遅くなります。",
"输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "処理対象音声フォルダーのパスを入力してください(ファイルマネージャのアドレスバーからコピーしてください)", "特征检索库文件路径": "特徴量検索データベースのファイルパス",
"也可批量输入音频文件, 二选一, 优先读文件夹": "複数の音声ファイルを一括で入力することもできますが、フォルダーを優先して読み込みます", "特征文件路径": "特徴量ファイルのパス",
"伴奏人声分离": "伴奏とボーカルの分離", "检索特征占比": "検索特徴率",
"人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)": "UVR5モデルを使用した、声帯分離バッチ処理です。<br>HP2はハーモニー、ハーモニーのあるボーカルとハーモニーのないボーカルを抽出したものはHP5を使ってください <br>フォルダーパスの形式例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(エクスプローラーのアドレスバーからコピーするだけです)", "F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "F0(最低共振周波数)カーブファイル(オプション、1行に1ピッチ、デフォルトのF0(最低共振周波数)とエレベーションを置き換えます。)",
"输入待处理音频文件夹路径": "処理するオーディオファイルのフォルダパスを入力してください", "转换": "変換",
"模型": "モデル", "输出信息": "出力情報",
"指定输出人声文件夹": "人の声を出力するフォルダを指定してください", "输出音频(右下角三个点,点了可以下载)": "出力音声(右下の三点をクリックしてダウンロードできます)",
"指定输出乐器文件夹": "楽器の出力フォルダを指定してください", "批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "一括変換、変換する音声フォルダを入力、または複数の音声ファイルをアップロードし、指定したフォルダ(デフォルトのopt)に変換した音声を出力します。",
"训练": "トレーニング", "指定输出文件夹": "出力フォルダを指定してください",
"step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "ステップ1:実験設定を入力します。実験データはlogsに保存され、各実験にはフォルダーがあります。実験名のパスを手動で入力する必要があり、実験設定、ログ、トレーニングされたモデルファイルが含まれます。", "输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "処理対象音声フォルダーのパスを入力してください(ファイルマネージャのアドレスバーからコピーしてください)",
"输入实验名": "実験名を入力してください", "也可批量输入音频文件, 二选一, 优先读文件夹": "複数の音声ファイルを一括で入力することもできますが、フォルダーを優先して読み込みます",
"目标采样率": "目標サンプリングレート", "伴奏人声分离": "伴奏とボーカルの分離",
"模型是否带音高指导(唱歌一定要, 语音可以不要)": "モデルに音高ガイドがあるかどうか(歌唱には必要ですが、音声には必要ありません)", "人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)": "UVR5モデルを使用した、声帯分離バッチ処理です。<br>HP2はハーモニー、ハーモニーのあるボーカルとハーモニーのないボーカルを抽出したものはHP5を使ってください <br>フォルダーパスの形式例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(エクスプローラーのアドレスバーからコピーするだけです)",
"step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "ステップ2a: 訓練フォルダー内のすべての音声ファイルを自動的に探索し、スライスと正規化を行い、2つのwavフォルダーを実験ディレクトリに生成します。現在は一人でのトレーニングのみをサポートしています。", "输入待处理音频文件夹路径": "処理するオーディオファイルのフォルダパスを入力してください",
"输入训练文件夹路径": "トレーニング用フォルダのパスを入力してください", "模型": "モデル",
"请指定说话人id": "話者IDを指定してください", "人声提取激进程度": "人声提取激进程度",
"处理数据": "データ処理", "指定输出人声文件夹": "人の声を出力するフォルダを指定してください",
"step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "ステップ2b: CPUを使用して音高を抽出する(モデルに音高がある場合)、GPUを使用して特徴を抽出する(カード番号を選択する)", "指定输出乐器文件夹": "楽器の出力フォルダを指定してください",
"以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "ハイフンで区切って使用するカード番号を入力します。例えば0-1-2はカード0、カード1、カード2を使用します", "训练": "トレーニング",
"显卡信息": "カード情報", "step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "ステップ1:実験設定を入力します。実験データはlogsに保存され、各実験にはフォルダーがあります。実験名のパスを手動で入力する必要があり、実験設定、ログ、トレーニングされたモデルファイルが含まれます。",
"提取音高使用的CPU进程数": "抽出に使用するCPUプロセス数", "输入实验名": "実験名を入力してください",
"选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "音高抽出アルゴリズムの選択:歌声を入力する場合は、pmを使用して速度を上げることができます。CPUが低い場合はdioを使用して速度を上げることができます。harvestは品質が高く、精度が高いですが、遅いです。", "目标采样率": "目標サンプリングレート",
"特征提取": "特徴抽出", "模型是否带音高指导(唱歌一定要, 语音可以不要)": "モデルに音高ガイドがあるかどうか(歌唱には必要ですが、音声には必要ありません)",
"step3: 填写训练设置, 开始训练模型和索引": "ステップ3: トレーニング設定を入力して、モデルとインデックスのトレーニングを開始します", "否": "否",
"保存频率save_every_epoch": "エポックごとの保存頻度", "step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "ステップ2a: 訓練フォルダー内のすべての音声ファイルを自動的に探索し、スライスと正規化を行い、2つのwavフォルダーを実験ディレクトリに生成します。現在は一人でのトレーニングのみをサポートしています。",
"总训练轮数total_epoch": "総トレーニング回数", "输入训练文件夹路径": "トレーニング用フォルダのパスを入力してください",
"是否仅保存最新的ckpt文件以节省硬盘空间": "ハードディスク容量を節約するため、最新のckptファイルのみを保存するかどうか", "请指定说话人id": "話者IDを指定してください",
"是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "すべてのトレーニングデータをメモリにキャッシュするかどうか。10分以下の小さなデータはキャッシュしてトレーニングを高速化できますが、大きなデータをキャッシュするとメモリが破裂し、あまり速度が上がりません。", "处理数据": "データ処理",
"加载预训练底模G路径": "事前学習済みのGモデルのパスをロードしてください", "step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "ステップ2b: CPUを使用して音高を抽出する(モデルに音高がある場合)、GPUを使用して特徴を抽出する(カード番号を選択する)",
"加载预训练底模D路径": "事前学習済みのDモデルのパスをロードしてください", "以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "ハイフンで区切って使用するカード番号を入力します。例えば0-1-2はカード0、カード1、カード2を使用します",
"训练模型": "モデルのトレーニング", "显卡信息": "カード情報",
"训练特征索引": "特徴インデックスのトレーニング", "提取音高使用的CPU进程数": "抽出に使用するCPUプロセス数",
"一键训练": "ワンクリックトレーニング", "选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "音高抽出アルゴリズムの選択:歌声を入力する場合は、pmを使用して速度を上げることができます。CPUが低い場合はdioを使用して速度を上げることができます。harvestは品質が高く、精度が高いですが、遅いです。",
"ckpt处理": "ckptファイルの処理", "特征提取": "特徴抽出",
"模型融合, 可用于测试音色融合": "モデルのマージ、音源のマージテストに使用できます", "step3: 填写训练设置, 开始训练模型和索引": "ステップ3: トレーニング設定を入力して、モデルとインデックスのトレーニングを開始します",
"A模型路径": "Aモデルのパス", "保存频率save_every_epoch": "エポックごとの保存頻度",
"B模型路径": "Bモデルのパス", "总训练轮数total_epoch": "総トレーニング回数",
"A模型权重": "Aモデルの重み", "每张显卡的batch_size": "每张显卡的batch_size",
"模型是否带音高指导": "モデルに音高ガイドを付けるかどうか", "是否仅保存最新的ckpt文件以节省硬盘空间": "ハードディスク容量を節約するため、最新のckptファイルのみを保存するかどうか",
"要置入的模型信息": "挿入するモデル情報", "是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "すべてのトレーニングデータをメモリにキャッシュするかどうか。10分以下の小さなデータはキャッシュしてトレーニングを高速化できますが、大きなデータをキャッシュするとメモリが破裂し、あまり速度が上がりません。",
"保存的模型名不带后缀": "拡張子のない保存するモデル名", "加载预训练底模G路径": "事前学習済みのGモデルのパスをロードしてください",
"融合": "フュージョン", "加载预训练底模D路径": "事前学習済みのDモデルのパスをロードしてください",
"修改模型信息(仅支持weights文件夹下提取的小模型文件)": "モデル情報の修正(weightsフォルダから抽出された小さなモデルファイルのみ対応)", "训练模型": "モデルのトレーニング",
"模型路径": "モデルパス", "训练特征索引": "特徴インデックスのトレーニング",
"要改的模型信息": "変更するモデル情報", "一键训练": "ワンクリックトレーニング",
"保存的文件名, 默认空为和源文件同名": "保存するファイル名、デフォルトでは空欄で元のファイル名と同じ名前になります", "ckpt处理": "ckptファイルの処理",
"修改": "変更", "模型融合, 可用于测试音色融合": "モデルのマージ、音源のマージテストに使用できます",
"查看模型信息(仅支持weights文件夹下提取的小模型文件)": "モデル情報を表示する(小さいモデルファイルはweightsフォルダーからのみサポートされています)", "A模型路径": "Aモデルのパス",
"查看": "表示", "B模型路径": "Bモデルのパス",
"模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "モデル抽出(ログフォルダー内の大きなファイルのモデルパスを入力)、モデルを半分までトレーニングし、自動的に小さいファイルモデルを保存しなかったり、中間モデルをテストしたい場合に適用されます。", "A模型权重": "Aモデルの重み",
"保存名": "保存ファイル名", "模型是否带音高指导": "モデルに音高ガイドを付けるかどうか",
"模型是否带音高指导,1是0否": "モデルに音高ガイドを付けるかどうか、1は付ける、0は付けない", "要置入的模型信息": "挿入するモデル情報",
"提取": "抽出", "保存的模型名不带后缀": "拡張子のない保存するモデル名",
"Onnx导出": "Onnx", "融合": "フュージョン",
"RVC模型路径": "RVCルパス", "修改模型信息(仅支持weights文件夹下提取的小模型文件)": "モデル情報の修正(weightsフォルダから抽出された小さなモデルファイルのみ対応)",
"Onnx输出路径": "Onnx出力パス", "模型路径": "モデルパス",
"MoeVS模型": "MoeSS", "要改的模型信息": "変更するモデル情報",
"导出Onnx模型": "Onnxに変換", "保存的文件名, 默认空为和源文件同名": "保存するファイル名、デフォルトでは空欄で元のファイル名と同じ名前になります",
"招募音高曲线前端编辑器": "音高曲線フロントエンドエディターを募集", "修改": "変更",
"加开发群联系我xxxxx": "開発グループに参加して私に連絡してくださいxxxxx", "查看模型信息(仅支持weights文件夹下提取的小模型文件)": "モデル情報を表示する(小さいモデルファイルはweightsフォルダーからのみサポートされています)",
"点击查看交流、问题反馈群号": "クリックして交流、問題フィードバックグループ番号を表示", "查看": "表示",
"xxxxx": "xxxxx", "模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "モデル抽出(ログフォルダー内の大きなファイルのモデルパスを入力)、モデルを半分までトレーニングし、自動的に小さいファイルモデルを保存しなかったり、中間モデルをテストしたい場合に適用されます。",
"加载模型": "モデルをロード", "保存名": "保存ファイル名",
"Hubert模型": "Hubert模型", "模型是否带音高指导,1是0否": "モデルに音高ガイドを付けるかどうか、1は付ける、0は付けない",
"选择.pth文件": ".pthファイルを選択", "提取": "抽出",
"选择.index文件": ".indexファイルを選択", "Onnx导出": "Onnx",
"选择.npy文件": ".npyファイルを選択", "RVC模型路径": "RVCルパス",
"输入设备": "入力デバイス", "Onnx输出路径": "Onnx出力パス",
"输出设备": "出力デバイス", "MoeVS模型": "MoeSS",
"音频设备(请使用同种类驱动)": "オーディオデバイス(同じ種類のドライバーを使用してください)", "导出Onnx模型": "Onnxに変換",
"响应阈值": "反応閾値", "招募音高曲线前端编辑器": "音高曲線フロントエンドエディターを募集",
"音调设置": "音程設定", "加开发群联系我xxxxx": "開発グループに参加して私に連絡してくださいxxxxx",
"Index Rate": "Index Rate", "点击查看交流、问题反馈群号": "クリックして交流、問題フィードバックグループ番号を表示",
"常规设置": "一般設定", "xxxxx": "xxxxx",
"采样长度": "サンプル長", "加载模型": "モデルをロード",
"淡入淡出长度": "フェードイン/フェードアウト長", "Hubert模型": "Hubert模型",
"额外推理时长": "追加推論時間", "选择.pth文件": ".pthファイルを選択",
"输入降噪": "入力ノイズの低減", "选择.index文件": ".indexファイルを選択",
"输出降噪": "出力ノイズの低減", "选择.npy文件": ".npyファイルを選択",
"性能设置": "パフォーマンス設定", "输入设备": "入力デバイス",
"开始音频转换": "音声変換を開始", "输出设备": "出力デバイス",
"停止音频转换": "音声変換を停止", "音频设备(请使用同种类驱动)": "オーディオデバイス(同じ種類のドライバーを使用してください)",
"推理时间(ms):": "推論時間(ms):" "响应阈值": "反応閾値",
} "音调设置": "音程設定",
"Index Rate": "Index Rate",
"常规设置": "一般設定",
"采样长度": "サンプル長",
"淡入淡出长度": "フェードイン/フェードアウト長",
"额外推理时长": "追加推論時間",
"输入降噪": "入力ノイズの低減",
"输出降噪": "出力ノイズの低減",
"性能设置": "パフォーマンス設定",
"开始音频转换": "音声変換を開始",
"停止音频转换": "音声変換を停止",
"推理时间(ms):": "推論時間(ms):"
}

View File

@ -1,104 +1,116 @@
{ {
"本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.", "很遗憾您这没有能用的显卡来支持您训练": "很遗憾您这没有能用的显卡来支持您训练",
"模型推理": "模型推理", "是": "是",
"推理音色": "推理音色", "step1:正在处理数据": "step1:正在处理数据",
"刷新音色列表": "刷新音色列表", "step2a:正在提取音高": "step2a:正在提取音高",
"卸载音色省显存": "卸载音色省显存", "step2a:无需提取音高": "step2a:无需提取音高",
"请选择说话人id": "请选择说话人id", "step2b:正在提取特征": "step2b:正在提取特征",
"男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ", "step3a:正在训练模型": "step3a:正在训练模型",
"变调(整数, 半音数量, 升八度12降八度-12)": "变调(整数, 半音数量, 升八度12降八度-12)", "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log": "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log",
"输入待处理音频文件路径(默认是正确格式示例)": "输入待处理音频文件路径(默认是正确格式示例)", "全流程结束!": "全流程结束!",
"选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比": "选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比", "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.",
"特征检索库文件路径": "特征检索库文件路径", "模型推理": "模型推理",
"特征文件路径": "特征文件路径", "推理音色": "推理音色",
"F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调", "刷新音色列表": "刷新音色列表",
"转换": "转换", "卸载音色省显存": "卸载音色省显存",
"输出信息": "输出信息", "请选择说话人id": "请选择说话人id",
"输出音频(右下角三个点,点了可以下载)": "输出音频(右下角三个点,点了可以下载)", "男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ",
"批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ", "变调(整数, 半音数量, 升八度12降八度-12)": "变调(整数, 半音数量, 升八度12降八度-12)",
"指定输出文件夹": "指定输出文件夹", "输入待处理音频文件路径(默认是正确格式示例)": "输入待处理音频文件路径(默认是正确格式示例)",
"检索特征占比": "检索特征占比", "选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比": "选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比",
"输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)", "特征检索库文件路径": "特征检索库文件路径",
"也可批量输入音频文件, 二选一, 优先读文件夹": "也可批量输入音频文件, 二选一, 优先读文件夹", "特征文件路径": "特征文件路径",
"伴奏人声分离": "伴奏人声分离", "检索特征占比": "检索特征占比",
"人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)": "人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)", "F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调",
"输入待处理音频文件夹路径": "输入待处理音频文件夹路径", "转换": "转换",
"模型": "模型", "输出信息": "输出信息",
"指定输出人声文件夹": "指定输出人声文件夹", "输出音频(右下角三个点,点了可以下载)": "输出音频(右下角三个点,点了可以下载)",
"指定输出乐器文件夹": "指定输出乐器文件夹", "批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ",
"训练": "训练", "指定输出文件夹": "指定输出文件夹",
"step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ", "输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)",
"输入实验名": "输入实验名", "也可批量输入音频文件, 二选一, 优先读文件夹": "也可批量输入音频文件, 二选一, 优先读文件夹",
"目标采样率": "目标采样率", "伴奏人声分离": "伴奏人声分离",
"模型是否带音高指导(唱歌一定要, 语音可以不要)": "模型是否带音高指导(唱歌一定要, 语音可以不要)", "人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)": "人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)",
"step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ", "输入待处理音频文件夹路径": "输入待处理音频文件夹路径",
"输入训练文件夹路径": "输入训练文件夹路径", "模型": "模型",
"请指定说话人id": "请指定说话人id", "人声提取激进程度": "人声提取激进程度",
"处理数据": "处理数据", "指定输出人声文件夹": "指定输出人声文件夹",
"step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)", "指定输出乐器文件夹": "指定输出乐器文件夹",
"以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2", "训练": "训练",
"显卡信息": "显卡信息", "step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ",
"提取音高使用的CPU进程数": "提取音高使用的CPU进程数", "输入实验名": "输入实验名",
"选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢", "目标采样率": "目标采样率",
"特征提取": "特征提取", "模型是否带音高指导(唱歌一定要, 语音可以不要)": "模型是否带音高指导(唱歌一定要, 语音可以不要)",
"step3: 填写训练设置, 开始训练模型和索引": "step3: 填写训练设置, 开始训练模型和索引", "否": "否",
"保存频率save_every_epoch": "保存频率save_every_epoch", "step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ",
"总训练轮数total_epoch": "总训练轮数total_epoch", "输入训练文件夹路径": "输入训练文件夹路径",
"是否仅保存最新的ckpt文件以节省硬盘空间": "是否仅保存最新的ckpt文件以节省硬盘空间", "请指定说话人id": "请指定说话人id",
"是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速", "处理数据": "处理数据",
"加载预训练底模G路径": "加载预训练底模G路径", "step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)",
"加载预训练底模D路径": "加载预训练底模D路径", "以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2",
"训练模型": "训练模型", "显卡信息": "显卡信息",
"训练特征索引": "训练特征索引", "提取音高使用的CPU进程数": "提取音高使用的CPU进程数",
"一键训练": "一键训练", "选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢",
"ckpt处理": "ckpt处理", "特征提取": "特征提取",
"模型融合, 可用于测试音色融合": "模型融合, 可用于测试音色融合", "step3: 填写训练设置, 开始训练模型和索引": "step3: 填写训练设置, 开始训练模型和索引",
"A模型路径": "A模型路径", "保存频率save_every_epoch": "保存频率save_every_epoch",
"B模型路径": "B模型路径", "总训练轮数total_epoch": "总训练轮数total_epoch",
"A模型权重": "A模型权重", "每张显卡的batch_size": "每张显卡的batch_size",
"模型是否带音高指导": "模型是否带音高指导", "是否仅保存最新的ckpt文件以节省硬盘空间": "是否仅保存最新的ckpt文件以节省硬盘空间",
"要置入的模型信息": "要置入的模型信息", "是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速",
"保存的模型名不带后缀": "保存的模型名不带后缀", "加载预训练底模G路径": "加载预训练底模G路径",
"融合": "融合", "加载预训练底模D路径": "加载预训练底模D路径",
"修改模型信息(仅支持weights文件夹下提取的小模型文件)": "修改模型信息(仅支持weights文件夹下提取的小模型文件)", "训练模型": "训练模型",
"模型路径": "模型路径", "训练特征索引": "训练特征索引",
"要改的模型信息": "要改的模型信息", "一键训练": "一键训练",
"保存的文件名, 默认空为和源文件同名": "保存的文件名, 默认空为和源文件同名", "ckpt处理": "ckpt处理",
"修改": "修改", "模型融合, 可用于测试音色融合": "模型融合, 可用于测试音色融合",
"查看模型信息(仅支持weights文件夹下提取的小模型文件)": "查看模型信息(仅支持weights文件夹下提取的小模型文件)", "A模型路径": "A模型路径",
"查看": "查看", "B模型路径": "B模型路径",
"模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况", "A模型权重": "A模型权重",
"保存名": "保存名", "模型是否带音高指导": "模型是否带音高指导",
"模型是否带音高指导,1是0否": "模型是否带音高指导,1是0否", "要置入的模型信息": "要置入的模型信息",
"提取": "提取", "保存的模型名不带后缀": "保存的模型名不带后缀",
"Onnx导出": "Onnx导出", "融合": "融合",
"RVC模型路径": "RVC模型路径", "修改模型信息(仅支持weights文件夹下提取的小模型文件)": "修改模型信息(仅支持weights文件夹下提取的小模型文件)",
"Onnx输出路径": "Onnx输出路径", "模型路径": "模型路径",
"MoeVS模型": "MoeVS模型", "要改的模型信息": "要改的模型信息",
"导出Onnx模型": "导出Onnx模型", "保存的文件名, 默认空为和源文件同名": "保存的文件名, 默认空为和源文件同名",
"招募音高曲线前端编辑器": "招募音高曲线前端编辑器", "修改": "修改",
"加开发群联系我xxxxx": "加开发群联系我xxxxx", "查看模型信息(仅支持weights文件夹下提取的小模型文件)": "查看模型信息(仅支持weights文件夹下提取的小模型文件)",
"点击查看交流、问题反馈群号": "点击查看交流、问题反馈群号", "查看": "查看",
"xxxxx": "xxxxx", "模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况",
"加载模型": "加载模型", "保存名": "保存名",
"Hubert模型": "Hubert模型", "模型是否带音高指导,1是0否": "模型是否带音高指导,1是0否",
"选择.pth文件": "选择.pth文件", "提取": "提取",
"选择.index文件": "选择.index文件", "Onnx导出": "Onnx导出",
"选择.npy文件": "选择.npy文件", "RVC模型路径": "RVC模型路径",
"输入设备": "输入设备", "Onnx输出路径": "Onnx输出路径",
"输出设备": "输出设备", "MoeVS模型": "MoeVS模型",
"音频设备(请使用同种类驱动)": "音频设备(请使用同种类驱动)", "导出Onnx模型": "导出Onnx模型",
"响应阈值": "响应阈值", "招募音高曲线前端编辑器": "招募音高曲线前端编辑器",
"音调设置": "音调设置", "加开发群联系我xxxxx": "加开发群联系我xxxxx",
"Index Rate": "Index Rate", "点击查看交流、问题反馈群号": "点击查看交流、问题反馈群号",
"常规设置": "常规设置", "xxxxx": "xxxxx",
"采样长度": "采样长度", "加载模型": "加载模型",
"淡入淡出长度": "淡入淡出长度", "Hubert模型": "Hubert模型",
"额外推理时长": "额外推理时长", "选择.pth文件": "选择.pth文件",
"输入降噪": "输入降噪", "选择.index文件": "选择.index文件",
"输出降噪": "输出降噪", "选择.npy文件": "选择.npy文件",
"性能设置": "性能设置", "输入设备": "输入设备",
"开始音频转换": "开始音频转换", "输出设备": "输出设备",
"停止音频转换": "停止音频转换", "音频设备(请使用同种类驱动)": "音频设备(请使用同种类驱动)",
"推理时间(ms):": "推理时间(ms):" "响应阈值": "响应阈值",
} "音调设置": "音调设置",
"Index Rate": "Index Rate",
"常规设置": "常规设置",
"采样长度": "采样长度",
"淡入淡出长度": "淡入淡出长度",
"额外推理时长": "额外推理时长",
"输入降噪": "输入降噪",
"输出降噪": "输出降噪",
"性能设置": "性能设置",
"开始音频转换": "开始音频转换",
"停止音频转换": "停止音频转换",
"推理时间(ms):": "推理时间(ms):"
}

View File

@ -1,104 +1,116 @@
{ {
"本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "本軟體以MIT協議開源作者不對軟體具備任何控制力使用軟體者、傳播軟體導出的聲音者自負全責。<br>如不認可該條款,則不能使用或引用軟體包內任何程式碼和檔案。詳見根目錄<b>使用需遵守的協議-LICENSE.txt</b>。", "很遗憾您这没有能用的显卡来支持您训练": "很遗憾您这没有能用的显卡来支持您训练",
"模型推理": "模型推理", "是": "是",
"推理音色": "推理音色", "step1:正在处理数据": "step1:正在处理数据",
"刷新音色列表": "重新整理音色列表", "step2a:正在提取音高": "step2a:正在提取音高",
"卸载音色省显存": "卸載音色節省 VRAM", "step2a:无需提取音高": "step2a:无需提取音高",
"请选择说话人id": "請選擇說話人ID", "step2b:正在提取特征": "step2b:正在提取特征",
"男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "男性轉女性推薦+12key女性轉男性推薦-12key如果音域爆炸導致音色失真也可以自己調整到合適音域。", "step3a:正在训练模型": "step3a:正在训练模型",
"变调(整数, 半音数量, 升八度12降八度-12)": "變調(整數、半音數量、升八度12降八度-12)", "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log": "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log",
"输入待处理音频文件路径(默认是正确格式示例)": "輸入待處理音頻檔案路徑(預設是正確格式示例)", "全流程结束!": "全流程结束!",
"选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比": "選擇音高提取演算法,輸入歌聲可用 pm 提速harvest 低音好但巨慢無比", "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "本軟體以MIT協議開源作者不對軟體具備任何控制力使用軟體者、傳播軟體導出的聲音者自負全責。<br>如不認可該條款,則不能使用或引用軟體包內任何程式碼和檔案。詳見根目錄<b>使用需遵守的協議-LICENSE.txt</b>。",
"特征检索库文件路径": "特徵檢索庫檔案路徑", "模型推理": "模型推理",
"特征文件路径": "特徵檔案路徑", "推理音色": "推理音色",
"F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "F0曲線檔案可選一行一個音高代替預設的F0及升降調", "刷新音色列表": "重新整理音色列表",
"转换": "轉換", "卸载音色省显存": "卸載音色節省 VRAM",
"输出信息": "輸出訊息", "请选择说话人id": "請選擇說話人ID",
"输出音频(右下角三个点,点了可以下载)": "輸出音頻(右下角三個點,點了可以下載)", "男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "男性轉女性推薦+12key女性轉男性推薦-12key如果音域爆炸導致音色失真也可以自己調整到合適音域。",
"批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "批量轉換,輸入待轉換音頻資料夾,或上傳多個音頻檔案,在指定資料夾(默認opt)下輸出轉換的音頻。", "变调(整数, 半音数量, 升八度12降八度-12)": "變調(整數、半音數量、升八度12降八度-12)",
"指定输出文件夹": "指定輸出資料夾", "输入待处理音频文件路径(默认是正确格式示例)": "輸入待處理音頻檔案路徑(預設是正確格式示例)",
"检索特征占比": "檢索特徵佔比", "选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比": "選擇音高提取演算法,輸入歌聲可用 pm 提速harvest 低音好但巨慢無比",
"输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "輸入待處理音頻資料夾路徑(去檔案管理器地址欄拷貝即可)", "特征检索库文件路径": "特徵檢索庫檔案路徑",
"也可批量输入音频文件, 二选一, 优先读文件夹": "也可批量輸入音頻檔案,二選一,優先讀資料夾", "特征文件路径": "特徵檔案路徑",
"伴奏人声分离": "伴奏人聲分離", "检索特征占比": "檢索特徵佔比",
"人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)": "人聲伴奏分離批量處理使用UVR5模型。<br>不帶和聲用HP2帶和聲且提取的人聲不需要和聲用HP5<br>合格的資料夾路徑格式舉例E:\\codes\\py39\\vits_vc_gpu\\白鷺霜華測試樣例(去檔案管理員地址欄複製就行了)", "F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "F0曲線檔案可選一行一個音高代替預設的F0及升降調",
"输入待处理音频文件夹路径": "輸入待處理音頻資料夾路徑", "转换": "轉換",
"模型": "模型", "输出信息": "輸出訊息",
"指定输出人声文件夹": "指定輸出人聲資料夾", "输出音频(右下角三个点,点了可以下载)": "輸出音頻(右下角三個點,點了可以下載)",
"指定输出乐器文件夹": "指定輸出樂器資料夾", "批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "批量轉換,輸入待轉換音頻資料夾,或上傳多個音頻檔案,在指定資料夾(默認opt)下輸出轉換的音頻。",
"训练": "訓練", "指定输出文件夹": "指定輸出資料夾",
"step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "step1填寫實驗配置。實驗數據放在logs下每個實驗一個資料夾需手動輸入實驗名路徑內含實驗配置、日誌、訓練得到的模型檔案。", "输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "輸入待處理音頻資料夾路徑(去檔案管理器地址欄拷貝即可)",
"输入实验名": "輸入實驗名稱", "也可批量输入音频文件, 二选一, 优先读文件夹": "也可批量輸入音頻檔案,二選一,優先讀資料夾",
"目标采样率": "目標取樣率", "伴奏人声分离": "伴奏人聲分離",
"模型是否带音高指导(唱歌一定要, 语音可以不要)": "模型是否帶音高指導(唱歌一定要,語音可以不要)", "人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)": "人聲伴奏分離批量處理使用UVR5模型。<br>不帶和聲用HP2帶和聲且提取的人聲不需要和聲用HP5<br>合格的資料夾路徑格式舉例E:\\codes\\py39\\vits_vc_gpu\\白鷺霜華測試樣例(去檔案管理員地址欄複製就行了)",
"step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "step2a自動遍歷訓練資料夾下所有可解碼成音頻的檔案並進行切片歸一化在實驗目錄下生成2個wav資料夾暫時只支援單人訓練。", "输入待处理音频文件夹路径": "輸入待處理音頻資料夾路徑",
"输入训练文件夹路径": "輸入訓練檔案夾路徑", "模型": "模型",
"请指定说话人id": "請指定說話人id", "人声提取激进程度": "人声提取激进程度",
"处理数据": "處理資料", "指定输出人声文件夹": "指定輸出人聲資料夾",
"step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "步驟2b: 使用CPU提取音高(如果模型帶音高), 使用GPU提取特徵(選擇卡號)", "指定输出乐器文件夹": "指定輸出樂器資料夾",
"以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "以-分隔輸入使用的卡號, 例如 0-1-2 使用卡0和卡1和卡2", "训练": "訓練",
"显卡信息": "顯示卡資訊", "step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "step1填寫實驗配置。實驗數據放在logs下每個實驗一個資料夾需手動輸入實驗名路徑內含實驗配置、日誌、訓練得到的模型檔案。",
"提取音高使用的CPU进程数": "提取音高使用的CPU進程數", "输入实验名": "輸入實驗名稱",
"选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "選擇音高提取算法:輸入歌聲可用pm提速,高品質語音但CPU差可用dio提速,harvest品質更好但較慢", "目标采样率": "目標取樣率",
"特征提取": "特徵提取", "模型是否带音高指导(唱歌一定要, 语音可以不要)": "模型是否帶音高指導(唱歌一定要,語音可以不要)",
"step3: 填写训练设置, 开始训练模型和索引": "步驟3: 填寫訓練設定, 開始訓練模型和索引", "否": "否",
"保存频率save_every_epoch": "保存頻率save_every_epoch", "step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "step2a自動遍歷訓練資料夾下所有可解碼成音頻的檔案並進行切片歸一化在實驗目錄下生成2個wav資料夾暫時只支援單人訓練。",
"总训练轮数total_epoch": "總訓練輪數total_epoch", "输入训练文件夹路径": "輸入訓練檔案夾路徑",
"是否仅保存最新的ckpt文件以节省硬盘空间": "是否僅保存最新的ckpt檔案以節省硬碟空間", "请指定说话人id": "請指定說話人id",
"是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "是否緩存所有訓練集至 VRAM。小於10分鐘的小數據可緩存以加速訓練大數據緩存會爆 VRAM 也加不了多少速度", "处理数据": "處理資料",
"加载预训练底模G路径": "加載預訓練底模G路徑", "step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "步驟2b: 使用CPU提取音高(如果模型帶音高), 使用GPU提取特徵(選擇卡號)",
"加载预训练底模D路径": "加載預訓練底模D路徑", "以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "以-分隔輸入使用的卡號, 例如 0-1-2 使用卡0和卡1和卡2",
"训练模型": "訓練模型", "显卡信息": "顯示卡資訊",
"训练特征索引": "訓練特徵索引", "提取音高使用的CPU进程数": "提取音高使用的CPU進程數",
"一键训练": "一鍵訓練", "选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "選擇音高提取算法:輸入歌聲可用pm提速,高品質語音但CPU差可用dio提速,harvest品質更好但較慢",
"ckpt处理": "ckpt處理", "特征提取": "特徵提取",
"模型融合, 可用于测试音色融合": "模型融合,可用於測試音色融合", "step3: 填写训练设置, 开始训练模型和索引": "步驟3: 填寫訓練設定, 開始訓練模型和索引",
"A模型路径": "A模型路徑", "保存频率save_every_epoch": "保存頻率save_every_epoch",
"B模型路径": "B模型路徑", "总训练轮数total_epoch": "總訓練輪數total_epoch",
"A模型权重": "A模型權重", "每张显卡的batch_size": "每张显卡的batch_size",
"模型是否带音高指导": "模型是否帶音高指導", "是否仅保存最新的ckpt文件以节省硬盘空间": "是否僅保存最新的ckpt檔案以節省硬碟空間",
"要置入的模型信息": "要置入的模型資訊", "是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "是否緩存所有訓練集至 VRAM。小於10分鐘的小數據可緩存以加速訓練大數據緩存會爆 VRAM 也加不了多少速度",
"保存的模型名不带后缀": "儲存的模型名不帶副檔名", "加载预训练底模G路径": "加載預訓練底模G路徑",
"融合": "融合", "加载预训练底模D路径": "加載預訓練底模D路徑",
"修改模型信息(仅支持weights文件夹下提取的小模型文件)": "修改模型資訊(僅支援weights資料夾下提取的小模型檔案)", "训练模型": "訓練模型",
"模型路径": "模型路徑", "训练特征索引": "訓練特徵索引",
"要改的模型信息": "要改的模型資訊", "一键训练": "一鍵訓練",
"保存的文件名, 默认空为和源文件同名": "儲存的檔案名,預設空為與來源檔案同名", "ckpt处理": "ckpt處理",
"修改": "修改", "模型融合, 可用于测试音色融合": "模型融合,可用於測試音色融合",
"查看模型信息(仅支持weights文件夹下提取的小模型文件)": "查看模型資訊(僅支援weights資料夾下提取的小模型檔案)", "A模型路径": "A模型路徑",
"查看": "查看", "B模型路径": "B模型路徑",
"模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "模型提取(輸入logs資料夾下大檔案模型路徑),適用於訓一半不想訓了模型沒有自動提取儲存小檔案模型,或者想測試中間模型的情況", "A模型权重": "A模型權重",
"保存名": "儲存名", "模型是否带音高指导": "模型是否帶音高指導",
"模型是否带音高指导,1是0否": "模型是否帶音高指導1是0否", "要置入的模型信息": "要置入的模型資訊",
"提取": "提取", "保存的模型名不带后缀": "儲存的模型名不帶副檔名",
"Onnx导出": "Onnx导出", "融合": "融合",
"RVC模型路径": "RVC模型路径", "修改模型信息(仅支持weights文件夹下提取的小模型文件)": "修改模型資訊(僅支援weights資料夾下提取的小模型檔案)",
"Onnx输出路径": "Onnx输出路径", "模型路径": "模型路徑",
"MoeVS模型": "MoeSS模型", "要改的模型信息": "要改的模型資訊",
"导出Onnx模型": "导出Onnx模型", "保存的文件名, 默认空为和源文件同名": "儲存的檔案名,預設空為與來源檔案同名",
"招募音高曲线前端编辑器": "招募音高曲線前端編輯器", "修改": "修改",
"加开发群联系我xxxxx": "加開發群聯繫我xxxxx", "查看模型信息(仅支持weights文件夹下提取的小模型文件)": "查看模型資訊(僅支援weights資料夾下提取的小模型檔案)",
"点击查看交流、问题反馈群号": "點擊查看交流、問題反饋群號", "查看": "查看",
"xxxxx": "xxxxx", "模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "模型提取(輸入logs資料夾下大檔案模型路徑),適用於訓一半不想訓了模型沒有自動提取儲存小檔案模型,或者想測試中間模型的情況",
"加载模型": "載入模型", "保存名": "儲存名",
"Hubert模型": "Hubert 模型", "模型是否带音高指导,1是0否": "模型是否帶音高指導1是0否",
"选择.pth文件": "選擇 .pth 檔案", "提取": "提取",
"选择.index文件": "選擇 .index 檔案", "Onnx导出": "Onnx导出",
"选择.npy文件": "選擇 .npy 檔案", "RVC模型路径": "RVC模型路径",
"输入设备": "輸入設備", "Onnx输出路径": "Onnx输出路径",
"输出设备": "輸出設備", "MoeVS模型": "MoeSS模型",
"音频设备(请使用同种类驱动)": "音訊設備 (請使用同種類驅動)", "导出Onnx模型": "导出Onnx模型",
"响应阈值": "響應閾值", "招募音高曲线前端编辑器": "招募音高曲線前端編輯器",
"音调设置": "音調設定", "加开发群联系我xxxxx": "加開發群聯繫我xxxxx",
"Index Rate": "Index Rate", "点击查看交流、问题反馈群号": "點擊查看交流、問題反饋群號",
"常规设置": "一般設定", "xxxxx": "xxxxx",
"采样长度": "取樣長度", "加载模型": "載入模型",
"淡入淡出长度": "淡入淡出長度", "Hubert模型": "Hubert 模型",
"额外推理时长": "額外推理時長", "选择.pth文件": "選擇 .pth 檔案",
"输入降噪": "輸入降噪", "选择.index文件": "選擇 .index 檔案",
"输出降噪": "輸出降噪", "选择.npy文件": "選擇 .npy 檔案",
"性能设置": "效能設定", "输入设备": "輸入設備",
"开始音频转换": "開始音訊轉換", "输出设备": "輸出設備",
"停止音频转换": "停止音訊轉換", "音频设备(请使用同种类驱动)": "音訊設備 (請使用同種類驅動)",
"推理时间(ms):": "推理時間(ms):" "响应阈值": "響應閾值",
} "音调设置": "音調設定",
"Index Rate": "Index Rate",
"常规设置": "一般設定",
"采样长度": "取樣長度",
"淡入淡出长度": "淡入淡出長度",
"额外推理时长": "額外推理時長",
"输入降噪": "輸入降噪",
"输出降噪": "輸出降噪",
"性能设置": "效能設定",
"开始音频转换": "開始音訊轉換",
"停止音频转换": "停止音訊轉換",
"推理时间(ms):": "推理時間(ms):"
}

View File

@ -1,104 +1,116 @@
{ {
"本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "本軟體以MIT協議開源作者不對軟體具備任何控制力使用軟體者、傳播軟體導出的聲音者自負全責。<br>如不認可該條款,則不能使用或引用軟體包內任何程式碼和檔案。詳見根目錄<b>使用需遵守的協議-LICENSE.txt</b>。", "很遗憾您这没有能用的显卡来支持您训练": "很遗憾您这没有能用的显卡来支持您训练",
"模型推理": "模型推理", "是": "是",
"推理音色": "推理音色", "step1:正在处理数据": "step1:正在处理数据",
"刷新音色列表": "重新整理音色列表", "step2a:正在提取音高": "step2a:正在提取音高",
"卸载音色省显存": "卸載音色節省 VRAM", "step2a:无需提取音高": "step2a:无需提取音高",
"请选择说话人id": "請選擇說話人ID", "step2b:正在提取特征": "step2b:正在提取特征",
"男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "男性轉女性推薦+12key女性轉男性推薦-12key如果音域爆炸導致音色失真也可以自己調整到合適音域。", "step3a:正在训练模型": "step3a:正在训练模型",
"变调(整数, 半音数量, 升八度12降八度-12)": "變調(整數、半音數量、升八度12降八度-12)", "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log": "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log",
"输入待处理音频文件路径(默认是正确格式示例)": "輸入待處理音頻檔案路徑(預設是正確格式示例)", "全流程结束!": "全流程结束!",
"选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比": "選擇音高提取演算法,輸入歌聲可用 pm 提速harvest 低音好但巨慢無比", "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "本軟體以MIT協議開源作者不對軟體具備任何控制力使用軟體者、傳播軟體導出的聲音者自負全責。<br>如不認可該條款,則不能使用或引用軟體包內任何程式碼和檔案。詳見根目錄<b>使用需遵守的協議-LICENSE.txt</b>。",
"特征检索库文件路径": "特徵檢索庫檔案路徑", "模型推理": "模型推理",
"特征文件路径": "特徵檔案路徑", "推理音色": "推理音色",
"F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "F0曲線檔案可選一行一個音高代替預設的F0及升降調", "刷新音色列表": "重新整理音色列表",
"转换": "轉換", "卸载音色省显存": "卸載音色節省 VRAM",
"输出信息": "輸出訊息", "请选择说话人id": "請選擇說話人ID",
"输出音频(右下角三个点,点了可以下载)": "輸出音頻(右下角三個點,點了可以下載)", "男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "男性轉女性推薦+12key女性轉男性推薦-12key如果音域爆炸導致音色失真也可以自己調整到合適音域。",
"批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "批量轉換,輸入待轉換音頻資料夾,或上傳多個音頻檔案,在指定資料夾(默認opt)下輸出轉換的音頻。", "变调(整数, 半音数量, 升八度12降八度-12)": "變調(整數、半音數量、升八度12降八度-12)",
"指定输出文件夹": "指定輸出資料夾", "输入待处理音频文件路径(默认是正确格式示例)": "輸入待處理音頻檔案路徑(預設是正確格式示例)",
"检索特征占比": "檢索特徵佔比", "选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比": "選擇音高提取演算法,輸入歌聲可用 pm 提速harvest 低音好但巨慢無比",
"输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "輸入待處理音頻資料夾路徑(去檔案管理器地址欄拷貝即可)", "特征检索库文件路径": "特徵檢索庫檔案路徑",
"也可批量输入音频文件, 二选一, 优先读文件夹": "也可批量輸入音頻檔案,二選一,優先讀資料夾", "特征文件路径": "特徵檔案路徑",
"伴奏人声分离": "伴奏人聲分離", "检索特征占比": "檢索特徵佔比",
"人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)": "人聲伴奏分離批量處理使用UVR5模型。<br>不帶和聲用HP2帶和聲且提取的人聲不需要和聲用HP5<br>合格的資料夾路徑格式舉例E:\\codes\\py39\\vits_vc_gpu\\白鷺霜華測試樣例(去檔案管理員地址欄複製就行了)", "F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "F0曲線檔案可選一行一個音高代替預設的F0及升降調",
"输入待处理音频文件夹路径": "輸入待處理音頻資料夾路徑", "转换": "轉換",
"模型": "模型", "输出信息": "輸出訊息",
"指定输出人声文件夹": "指定輸出人聲資料夾", "输出音频(右下角三个点,点了可以下载)": "輸出音頻(右下角三個點,點了可以下載)",
"指定输出乐器文件夹": "指定輸出樂器資料夾", "批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "批量轉換,輸入待轉換音頻資料夾,或上傳多個音頻檔案,在指定資料夾(默認opt)下輸出轉換的音頻。",
"训练": "訓練", "指定输出文件夹": "指定輸出資料夾",
"step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "step1填寫實驗配置。實驗數據放在logs下每個實驗一個資料夾需手動輸入實驗名路徑內含實驗配置、日誌、訓練得到的模型檔案。", "输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "輸入待處理音頻資料夾路徑(去檔案管理器地址欄拷貝即可)",
"输入实验名": "輸入實驗名稱", "也可批量输入音频文件, 二选一, 优先读文件夹": "也可批量輸入音頻檔案,二選一,優先讀資料夾",
"目标采样率": "目標取樣率", "伴奏人声分离": "伴奏人聲分離",
"模型是否带音高指导(唱歌一定要, 语音可以不要)": "模型是否帶音高指導(唱歌一定要,語音可以不要)", "人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)": "人聲伴奏分離批量處理使用UVR5模型。<br>不帶和聲用HP2帶和聲且提取的人聲不需要和聲用HP5<br>合格的資料夾路徑格式舉例E:\\codes\\py39\\vits_vc_gpu\\白鷺霜華測試樣例(去檔案管理員地址欄複製就行了)",
"step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "step2a自動遍歷訓練資料夾下所有可解碼成音頻的檔案並進行切片歸一化在實驗目錄下生成2個wav資料夾暫時只支援單人訓練。", "输入待处理音频文件夹路径": "輸入待處理音頻資料夾路徑",
"输入训练文件夹路径": "輸入訓練檔案夾路徑", "模型": "模型",
"请指定说话人id": "請指定說話人id", "人声提取激进程度": "人声提取激进程度",
"处理数据": "處理資料", "指定输出人声文件夹": "指定輸出人聲資料夾",
"step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "步驟2b: 使用CPU提取音高(如果模型帶音高), 使用GPU提取特徵(選擇卡號)", "指定输出乐器文件夹": "指定輸出樂器資料夾",
"以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "以-分隔輸入使用的卡號, 例如 0-1-2 使用卡0和卡1和卡2", "训练": "訓練",
"显卡信息": "顯示卡資訊", "step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "step1填寫實驗配置。實驗數據放在logs下每個實驗一個資料夾需手動輸入實驗名路徑內含實驗配置、日誌、訓練得到的模型檔案。",
"提取音高使用的CPU进程数": "提取音高使用的CPU進程數", "输入实验名": "輸入實驗名稱",
"选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "選擇音高提取算法:輸入歌聲可用pm提速,高品質語音但CPU差可用dio提速,harvest品質更好但較慢", "目标采样率": "目標取樣率",
"特征提取": "特徵提取", "模型是否带音高指导(唱歌一定要, 语音可以不要)": "模型是否帶音高指導(唱歌一定要,語音可以不要)",
"step3: 填写训练设置, 开始训练模型和索引": "步驟3: 填寫訓練設定, 開始訓練模型和索引", "否": "否",
"保存频率save_every_epoch": "保存頻率save_every_epoch", "step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "step2a自動遍歷訓練資料夾下所有可解碼成音頻的檔案並進行切片歸一化在實驗目錄下生成2個wav資料夾暫時只支援單人訓練。",
"总训练轮数total_epoch": "總訓練輪數total_epoch", "输入训练文件夹路径": "輸入訓練檔案夾路徑",
"是否仅保存最新的ckpt文件以节省硬盘空间": "是否僅保存最新的ckpt檔案以節省硬碟空間", "请指定说话人id": "請指定說話人id",
"是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "是否緩存所有訓練集至 VRAM。小於10分鐘的小數據可緩存以加速訓練大數據緩存會爆 VRAM 也加不了多少速度", "处理数据": "處理資料",
"加载预训练底模G路径": "加載預訓練底模G路徑", "step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "步驟2b: 使用CPU提取音高(如果模型帶音高), 使用GPU提取特徵(選擇卡號)",
"加载预训练底模D路径": "加載預訓練底模D路徑", "以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "以-分隔輸入使用的卡號, 例如 0-1-2 使用卡0和卡1和卡2",
"训练模型": "訓練模型", "显卡信息": "顯示卡資訊",
"训练特征索引": "訓練特徵索引", "提取音高使用的CPU进程数": "提取音高使用的CPU進程數",
"一键训练": "一鍵訓練", "选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "選擇音高提取算法:輸入歌聲可用pm提速,高品質語音但CPU差可用dio提速,harvest品質更好但較慢",
"ckpt处理": "ckpt處理", "特征提取": "特徵提取",
"模型融合, 可用于测试音色融合": "模型融合,可用於測試音色融合", "step3: 填写训练设置, 开始训练模型和索引": "步驟3: 填寫訓練設定, 開始訓練模型和索引",
"A模型路径": "A模型路徑", "保存频率save_every_epoch": "保存頻率save_every_epoch",
"B模型路径": "B模型路徑", "总训练轮数total_epoch": "總訓練輪數total_epoch",
"A模型权重": "A模型權重", "每张显卡的batch_size": "每张显卡的batch_size",
"模型是否带音高指导": "模型是否帶音高指導", "是否仅保存最新的ckpt文件以节省硬盘空间": "是否僅保存最新的ckpt檔案以節省硬碟空間",
"要置入的模型信息": "要置入的模型資訊", "是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "是否緩存所有訓練集至 VRAM。小於10分鐘的小數據可緩存以加速訓練大數據緩存會爆 VRAM 也加不了多少速度",
"保存的模型名不带后缀": "儲存的模型名不帶副檔名", "加载预训练底模G路径": "加載預訓練底模G路徑",
"融合": "融合", "加载预训练底模D路径": "加載預訓練底模D路徑",
"修改模型信息(仅支持weights文件夹下提取的小模型文件)": "修改模型資訊(僅支援weights資料夾下提取的小模型檔案)", "训练模型": "訓練模型",
"模型路径": "模型路徑", "训练特征索引": "訓練特徵索引",
"要改的模型信息": "要改的模型資訊", "一键训练": "一鍵訓練",
"保存的文件名, 默认空为和源文件同名": "儲存的檔案名,預設空為與來源檔案同名", "ckpt处理": "ckpt處理",
"修改": "修改", "模型融合, 可用于测试音色融合": "模型融合,可用於測試音色融合",
"查看模型信息(仅支持weights文件夹下提取的小模型文件)": "查看模型資訊(僅支援weights資料夾下提取的小模型檔案)", "A模型路径": "A模型路徑",
"查看": "查看", "B模型路径": "B模型路徑",
"模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "模型提取(輸入logs資料夾下大檔案模型路徑),適用於訓一半不想訓了模型沒有自動提取儲存小檔案模型,或者想測試中間模型的情況", "A模型权重": "A模型權重",
"保存名": "儲存名", "模型是否带音高指导": "模型是否帶音高指導",
"模型是否带音高指导,1是0否": "模型是否帶音高指導1是0否", "要置入的模型信息": "要置入的模型資訊",
"提取": "提取", "保存的模型名不带后缀": "儲存的模型名不帶副檔名",
"Onnx导出": "Onnx导出", "融合": "融合",
"RVC模型路径": "RVC模型路径", "修改模型信息(仅支持weights文件夹下提取的小模型文件)": "修改模型資訊(僅支援weights資料夾下提取的小模型檔案)",
"Onnx输出路径": "Onnx输出路径", "模型路径": "模型路徑",
"MoeVS模型": "MoeSS模型", "要改的模型信息": "要改的模型資訊",
"导出Onnx模型": "导出Onnx模型", "保存的文件名, 默认空为和源文件同名": "儲存的檔案名,預設空為與來源檔案同名",
"招募音高曲线前端编辑器": "招募音高曲線前端編輯器", "修改": "修改",
"加开发群联系我xxxxx": "加開發群聯繫我xxxxx", "查看模型信息(仅支持weights文件夹下提取的小模型文件)": "查看模型資訊(僅支援weights資料夾下提取的小模型檔案)",
"点击查看交流、问题反馈群号": "點擊查看交流、問題反饋群號", "查看": "查看",
"xxxxx": "xxxxx", "模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "模型提取(輸入logs資料夾下大檔案模型路徑),適用於訓一半不想訓了模型沒有自動提取儲存小檔案模型,或者想測試中間模型的情況",
"加载模型": "載入模型", "保存名": "儲存名",
"Hubert模型": "Hubert 模型", "模型是否带音高指导,1是0否": "模型是否帶音高指導1是0否",
"选择.pth文件": "選擇 .pth 檔案", "提取": "提取",
"选择.index文件": "選擇 .index 檔案", "Onnx导出": "Onnx导出",
"选择.npy文件": "選擇 .npy 檔案", "RVC模型路径": "RVC模型路径",
"输入设备": "輸入設備", "Onnx输出路径": "Onnx输出路径",
"输出设备": "輸出設備", "MoeVS模型": "MoeSS模型",
"音频设备(请使用同种类驱动)": "音訊設備 (請使用同種類驅動)", "导出Onnx模型": "导出Onnx模型",
"响应阈值": "響應閾值", "招募音高曲线前端编辑器": "招募音高曲線前端編輯器",
"音调设置": "音調設定", "加开发群联系我xxxxx": "加開發群聯繫我xxxxx",
"Index Rate": "Index Rate", "点击查看交流、问题反馈群号": "點擊查看交流、問題反饋群號",
"常规设置": "一般設定", "xxxxx": "xxxxx",
"采样长度": "取樣長度", "加载模型": "載入模型",
"淡入淡出长度": "淡入淡出長度", "Hubert模型": "Hubert 模型",
"额外推理时长": "額外推理時長", "选择.pth文件": "選擇 .pth 檔案",
"输入降噪": "輸入降噪", "选择.index文件": "選擇 .index 檔案",
"输出降噪": "輸出降噪", "选择.npy文件": "選擇 .npy 檔案",
"性能设置": "效能設定", "输入设备": "輸入設備",
"开始音频转换": "開始音訊轉換", "输出设备": "輸出設備",
"停止音频转换": "停止音訊轉換", "音频设备(请使用同种类驱动)": "音訊設備 (請使用同種類驅動)",
"推理时间(ms):": "推理時間(ms):" "响应阈值": "響應閾值",
} "音调设置": "音調設定",
"Index Rate": "Index Rate",
"常规设置": "一般設定",
"采样长度": "取樣長度",
"淡入淡出长度": "淡入淡出長度",
"额外推理时长": "額外推理時長",
"输入降噪": "輸入降噪",
"输出降噪": "輸出降噪",
"性能设置": "效能設定",
"开始音频转换": "開始音訊轉換",
"停止音频转换": "停止音訊轉換",
"推理时间(ms):": "推理時間(ms):"
}

View File

@ -1,104 +1,116 @@
{ {
"本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "本軟體以MIT協議開源作者不對軟體具備任何控制力使用軟體者、傳播軟體導出的聲音者自負全責。<br>如不認可該條款,則不能使用或引用軟體包內任何程式碼和檔案。詳見根目錄<b>使用需遵守的協議-LICENSE.txt</b>。", "很遗憾您这没有能用的显卡来支持您训练": "很遗憾您这没有能用的显卡来支持您训练",
"模型推理": "模型推理", "是": "是",
"推理音色": "推理音色", "step1:正在处理数据": "step1:正在处理数据",
"刷新音色列表": "重新整理音色列表", "step2a:正在提取音高": "step2a:正在提取音高",
"卸载音色省显存": "卸載音色節省 VRAM", "step2a:无需提取音高": "step2a:无需提取音高",
"请选择说话人id": "請選擇說話人ID", "step2b:正在提取特征": "step2b:正在提取特征",
"男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "男性轉女性推薦+12key女性轉男性推薦-12key如果音域爆炸導致音色失真也可以自己調整到合適音域。", "step3a:正在训练模型": "step3a:正在训练模型",
"变调(整数, 半音数量, 升八度12降八度-12)": "變調(整數、半音數量、升八度12降八度-12)", "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log": "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log",
"输入待处理音频文件路径(默认是正确格式示例)": "輸入待處理音頻檔案路徑(預設是正確格式示例)", "全流程结束!": "全流程结束!",
"选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比": "選擇音高提取演算法,輸入歌聲可用 pm 提速harvest 低音好但巨慢無比", "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "本軟體以MIT協議開源作者不對軟體具備任何控制力使用軟體者、傳播軟體導出的聲音者自負全責。<br>如不認可該條款,則不能使用或引用軟體包內任何程式碼和檔案。詳見根目錄<b>使用需遵守的協議-LICENSE.txt</b>。",
"特征检索库文件路径": "特徵檢索庫檔案路徑", "模型推理": "模型推理",
"特征文件路径": "特徵檔案路徑", "推理音色": "推理音色",
"F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "F0曲線檔案可選一行一個音高代替預設的F0及升降調", "刷新音色列表": "重新整理音色列表",
"转换": "轉換", "卸载音色省显存": "卸載音色節省 VRAM",
"输出信息": "輸出訊息", "请选择说话人id": "請選擇說話人ID",
"输出音频(右下角三个点,点了可以下载)": "輸出音頻(右下角三個點,點了可以下載)", "男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "男性轉女性推薦+12key女性轉男性推薦-12key如果音域爆炸導致音色失真也可以自己調整到合適音域。",
"批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "批量轉換,輸入待轉換音頻資料夾,或上傳多個音頻檔案,在指定資料夾(默認opt)下輸出轉換的音頻。", "变调(整数, 半音数量, 升八度12降八度-12)": "變調(整數、半音數量、升八度12降八度-12)",
"指定输出文件夹": "指定輸出資料夾", "输入待处理音频文件路径(默认是正确格式示例)": "輸入待處理音頻檔案路徑(預設是正確格式示例)",
"检索特征占比": "檢索特徵佔比", "选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比": "選擇音高提取演算法,輸入歌聲可用 pm 提速harvest 低音好但巨慢無比",
"输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "輸入待處理音頻資料夾路徑(去檔案管理器地址欄拷貝即可)", "特征检索库文件路径": "特徵檢索庫檔案路徑",
"也可批量输入音频文件, 二选一, 优先读文件夹": "也可批量輸入音頻檔案,二選一,優先讀資料夾", "特征文件路径": "特徵檔案路徑",
"伴奏人声分离": "伴奏人聲分離", "检索特征占比": "檢索特徵佔比",
"人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)": "人聲伴奏分離批量處理使用UVR5模型。<br>不帶和聲用HP2帶和聲且提取的人聲不需要和聲用HP5<br>合格的資料夾路徑格式舉例E:\\codes\\py39\\vits_vc_gpu\\白鷺霜華測試樣例(去檔案管理員地址欄複製就行了)", "F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "F0曲線檔案可選一行一個音高代替預設的F0及升降調",
"输入待处理音频文件夹路径": "輸入待處理音頻資料夾路徑", "转换": "轉換",
"模型": "模型", "输出信息": "輸出訊息",
"指定输出人声文件夹": "指定輸出人聲資料夾", "输出音频(右下角三个点,点了可以下载)": "輸出音頻(右下角三個點,點了可以下載)",
"指定输出乐器文件夹": "指定輸出樂器資料夾", "批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "批量轉換,輸入待轉換音頻資料夾,或上傳多個音頻檔案,在指定資料夾(默認opt)下輸出轉換的音頻。",
"训练": "訓練", "指定输出文件夹": "指定輸出資料夾",
"step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "step1填寫實驗配置。實驗數據放在logs下每個實驗一個資料夾需手動輸入實驗名路徑內含實驗配置、日誌、訓練得到的模型檔案。", "输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "輸入待處理音頻資料夾路徑(去檔案管理器地址欄拷貝即可)",
"输入实验名": "輸入實驗名稱", "也可批量输入音频文件, 二选一, 优先读文件夹": "也可批量輸入音頻檔案,二選一,優先讀資料夾",
"目标采样率": "目標取樣率", "伴奏人声分离": "伴奏人聲分離",
"模型是否带音高指导(唱歌一定要, 语音可以不要)": "模型是否帶音高指導(唱歌一定要,語音可以不要)", "人声伴奏分离批量处理, 使用UVR5模型. <br>不带和声用HP2, 带和声且提取的人声不需要和声用HP5<br>合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)": "人聲伴奏分離批量處理使用UVR5模型。<br>不帶和聲用HP2帶和聲且提取的人聲不需要和聲用HP5<br>合格的資料夾路徑格式舉例E:\\codes\\py39\\vits_vc_gpu\\白鷺霜華測試樣例(去檔案管理員地址欄複製就行了)",
"step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "step2a自動遍歷訓練資料夾下所有可解碼成音頻的檔案並進行切片歸一化在實驗目錄下生成2個wav資料夾暫時只支援單人訓練。", "输入待处理音频文件夹路径": "輸入待處理音頻資料夾路徑",
"输入训练文件夹路径": "輸入訓練檔案夾路徑", "模型": "模型",
"请指定说话人id": "請指定說話人id", "人声提取激进程度": "人声提取激进程度",
"处理数据": "處理資料", "指定输出人声文件夹": "指定輸出人聲資料夾",
"step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "步驟2b: 使用CPU提取音高(如果模型帶音高), 使用GPU提取特徵(選擇卡號)", "指定输出乐器文件夹": "指定輸出樂器資料夾",
"以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "以-分隔輸入使用的卡號, 例如 0-1-2 使用卡0和卡1和卡2", "训练": "訓練",
"显卡信息": "顯示卡資訊", "step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "step1填寫實驗配置。實驗數據放在logs下每個實驗一個資料夾需手動輸入實驗名路徑內含實驗配置、日誌、訓練得到的模型檔案。",
"提取音高使用的CPU进程数": "提取音高使用的CPU進程數", "输入实验名": "輸入實驗名稱",
"选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "選擇音高提取算法:輸入歌聲可用pm提速,高品質語音但CPU差可用dio提速,harvest品質更好但較慢", "目标采样率": "目標取樣率",
"特征提取": "特徵提取", "模型是否带音高指导(唱歌一定要, 语音可以不要)": "模型是否帶音高指導(唱歌一定要,語音可以不要)",
"step3: 填写训练设置, 开始训练模型和索引": "步驟3: 填寫訓練設定, 開始訓練模型和索引", "否": "否",
"保存频率save_every_epoch": "保存頻率save_every_epoch", "step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "step2a自動遍歷訓練資料夾下所有可解碼成音頻的檔案並進行切片歸一化在實驗目錄下生成2個wav資料夾暫時只支援單人訓練。",
"总训练轮数total_epoch": "總訓練輪數total_epoch", "输入训练文件夹路径": "輸入訓練檔案夾路徑",
"是否仅保存最新的ckpt文件以节省硬盘空间": "是否僅保存最新的ckpt檔案以節省硬碟空間", "请指定说话人id": "請指定說話人id",
"是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "是否緩存所有訓練集至 VRAM。小於10分鐘的小數據可緩存以加速訓練大數據緩存會爆 VRAM 也加不了多少速度", "处理数据": "處理資料",
"加载预训练底模G路径": "加載預訓練底模G路徑", "step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "步驟2b: 使用CPU提取音高(如果模型帶音高), 使用GPU提取特徵(選擇卡號)",
"加载预训练底模D路径": "加載預訓練底模D路徑", "以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "以-分隔輸入使用的卡號, 例如 0-1-2 使用卡0和卡1和卡2",
"训练模型": "訓練模型", "显卡信息": "顯示卡資訊",
"训练特征索引": "訓練特徵索引", "提取音高使用的CPU进程数": "提取音高使用的CPU進程數",
"一键训练": "一鍵訓練", "选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "選擇音高提取算法:輸入歌聲可用pm提速,高品質語音但CPU差可用dio提速,harvest品質更好但較慢",
"ckpt处理": "ckpt處理", "特征提取": "特徵提取",
"模型融合, 可用于测试音色融合": "模型融合,可用於測試音色融合", "step3: 填写训练设置, 开始训练模型和索引": "步驟3: 填寫訓練設定, 開始訓練模型和索引",
"A模型路径": "A模型路徑", "保存频率save_every_epoch": "保存頻率save_every_epoch",
"B模型路径": "B模型路徑", "总训练轮数total_epoch": "總訓練輪數total_epoch",
"A模型权重": "A模型權重", "每张显卡的batch_size": "每张显卡的batch_size",
"模型是否带音高指导": "模型是否帶音高指導", "是否仅保存最新的ckpt文件以节省硬盘空间": "是否僅保存最新的ckpt檔案以節省硬碟空間",
"要置入的模型信息": "要置入的模型資訊", "是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "是否緩存所有訓練集至 VRAM。小於10分鐘的小數據可緩存以加速訓練大數據緩存會爆 VRAM 也加不了多少速度",
"保存的模型名不带后缀": "儲存的模型名不帶副檔名", "加载预训练底模G路径": "加載預訓練底模G路徑",
"融合": "融合", "加载预训练底模D路径": "加載預訓練底模D路徑",
"修改模型信息(仅支持weights文件夹下提取的小模型文件)": "修改模型資訊(僅支援weights資料夾下提取的小模型檔案)", "训练模型": "訓練模型",
"模型路径": "模型路徑", "训练特征索引": "訓練特徵索引",
"要改的模型信息": "要改的模型資訊", "一键训练": "一鍵訓練",
"保存的文件名, 默认空为和源文件同名": "儲存的檔案名,預設空為與來源檔案同名", "ckpt处理": "ckpt處理",
"修改": "修改", "模型融合, 可用于测试音色融合": "模型融合,可用於測試音色融合",
"查看模型信息(仅支持weights文件夹下提取的小模型文件)": "查看模型資訊(僅支援weights資料夾下提取的小模型檔案)", "A模型路径": "A模型路徑",
"查看": "查看", "B模型路径": "B模型路徑",
"模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "模型提取(輸入logs資料夾下大檔案模型路徑),適用於訓一半不想訓了模型沒有自動提取儲存小檔案模型,或者想測試中間模型的情況", "A模型权重": "A模型權重",
"保存名": "儲存名", "模型是否带音高指导": "模型是否帶音高指導",
"模型是否带音高指导,1是0否": "模型是否帶音高指導1是0否", "要置入的模型信息": "要置入的模型資訊",
"提取": "提取", "保存的模型名不带后缀": "儲存的模型名不帶副檔名",
"Onnx导出": "Onnx导出", "融合": "融合",
"RVC模型路径": "RVC模型路径", "修改模型信息(仅支持weights文件夹下提取的小模型文件)": "修改模型資訊(僅支援weights資料夾下提取的小模型檔案)",
"Onnx输出路径": "Onnx输出路径", "模型路径": "模型路徑",
"MoeVS模型": "MoeSS模型", "要改的模型信息": "要改的模型資訊",
"导出Onnx模型": "导出Onnx模型", "保存的文件名, 默认空为和源文件同名": "儲存的檔案名,預設空為與來源檔案同名",
"招募音高曲线前端编辑器": "招募音高曲線前端編輯器", "修改": "修改",
"加开发群联系我xxxxx": "加開發群聯繫我xxxxx", "查看模型信息(仅支持weights文件夹下提取的小模型文件)": "查看模型資訊(僅支援weights資料夾下提取的小模型檔案)",
"点击查看交流、问题反馈群号": "點擊查看交流、問題反饋群號", "查看": "查看",
"xxxxx": "xxxxx", "模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "模型提取(輸入logs資料夾下大檔案模型路徑),適用於訓一半不想訓了模型沒有自動提取儲存小檔案模型,或者想測試中間模型的情況",
"加载模型": "載入模型", "保存名": "儲存名",
"Hubert模型": "Hubert 模型", "模型是否带音高指导,1是0否": "模型是否帶音高指導1是0否",
"选择.pth文件": "選擇 .pth 檔案", "提取": "提取",
"选择.index文件": "選擇 .index 檔案", "Onnx导出": "Onnx导出",
"选择.npy文件": "選擇 .npy 檔案", "RVC模型路径": "RVC模型路径",
"输入设备": "輸入設備", "Onnx输出路径": "Onnx输出路径",
"输出设备": "輸出設備", "MoeVS模型": "MoeSS模型",
"音频设备(请使用同种类驱动)": "音訊設備 (請使用同種類驅動)", "导出Onnx模型": "导出Onnx模型",
"响应阈值": "響應閾值", "招募音高曲线前端编辑器": "招募音高曲線前端編輯器",
"音调设置": "音調設定", "加开发群联系我xxxxx": "加開發群聯繫我xxxxx",
"Index Rate": "Index Rate", "点击查看交流、问题反馈群号": "點擊查看交流、問題反饋群號",
"常规设置": "一般設定", "xxxxx": "xxxxx",
"采样长度": "取樣長度", "加载模型": "載入模型",
"淡入淡出长度": "淡入淡出長度", "Hubert模型": "Hubert 模型",
"额外推理时长": "額外推理時長", "选择.pth文件": "選擇 .pth 檔案",
"输入降噪": "輸入降噪", "选择.index文件": "選擇 .index 檔案",
"输出降噪": "輸出降噪", "选择.npy文件": "選擇 .npy 檔案",
"性能设置": "效能設定", "输入设备": "輸入設備",
"开始音频转换": "開始音訊轉換", "输出设备": "輸出設備",
"停止音频转换": "停止音訊轉換", "音频设备(请使用同种类驱动)": "音訊設備 (請使用同種類驅動)",
"推理时间(ms):": "推理時間(ms):" "响应阈值": "響應閾值",
} "音调设置": "音調設定",
"Index Rate": "Index Rate",
"常规设置": "一般設定",
"采样长度": "取樣長度",
"淡入淡出长度": "淡入淡出長度",
"额外推理时长": "額外推理時長",
"输入降噪": "輸入降噪",
"输出降噪": "輸出降噪",
"性能设置": "效能設定",
"开始音频转换": "開始音訊轉換",
"停止音频转换": "停止音訊轉換",
"推理时间(ms):": "推理時間(ms):"
}

View File

@ -65,7 +65,7 @@ if if_gpu_ok == True and len(gpu_infos) > 0:
gpu_info = "\n".join(gpu_infos) gpu_info = "\n".join(gpu_infos)
default_batch_size = min(mem) // 2 default_batch_size = min(mem) // 2
else: else:
gpu_info = "很遗憾您这没有能用的显卡来支持您训练" gpu_info = i18n("很遗憾您这没有能用的显卡来支持您训练")
default_batch_size = 1 default_batch_size = 1
gpus = "-".join([i[0] for i in gpu_infos]) gpus = "-".join([i[0] for i in gpu_infos])
from infer_pack.models import SynthesizerTrnMs256NSFsid, SynthesizerTrnMs256NSFsid_nono from infer_pack.models import SynthesizerTrnMs256NSFsid, SynthesizerTrnMs256NSFsid_nono
@ -366,7 +366,7 @@ def clean():
def change_f0(if_f0_3, sr2): # np7, f0method8,pretrained_G14,pretrained_D15 def change_f0(if_f0_3, sr2): # np7, f0method8,pretrained_G14,pretrained_D15
if if_f0_3 == "": if if_f0_3 == i18n(""):
return ( return (
{"visible": True, "__type__": "update"}, {"visible": True, "__type__": "update"},
{"visible": True, "__type__": "update"}, {"visible": True, "__type__": "update"},
@ -452,7 +452,7 @@ def extract_f0_feature(gpus, n_p, f0method, if_f0, exp_dir):
os.makedirs("%s/logs/%s" % (now_dir, exp_dir), exist_ok=True) os.makedirs("%s/logs/%s" % (now_dir, exp_dir), exist_ok=True)
f = open("%s/logs/%s/extract_f0_feature.log" % (now_dir, exp_dir), "w") f = open("%s/logs/%s/extract_f0_feature.log" % (now_dir, exp_dir), "w")
f.close() f.close()
if if_f0 == "": if if_f0 == i18n(""):
cmd = config.python_cmd + " extract_f0_print.py %s/logs/%s %s %s" % ( cmd = config.python_cmd + " extract_f0_print.py %s/logs/%s %s %s" % (
now_dir, now_dir,
exp_dir, exp_dir,
@ -528,7 +528,7 @@ def extract_f0_feature(gpus, n_p, f0method, if_f0, exp_dir):
def change_sr2(sr2, if_f0_3): def change_sr2(sr2, if_f0_3):
if if_f0_3 == "": if if_f0_3 == i18n(""):
return "pretrained/f0G%s.pth" % sr2, "pretrained/f0D%s.pth" % sr2 return "pretrained/f0G%s.pth" % sr2, "pretrained/f0D%s.pth" % sr2
else: else:
return "pretrained/G%s.pth" % sr2, "pretrained/D%s.pth" % sr2 return "pretrained/G%s.pth" % sr2, "pretrained/D%s.pth" % sr2
@ -554,7 +554,7 @@ def click_train(
os.makedirs(exp_dir, exist_ok=True) os.makedirs(exp_dir, exist_ok=True)
gt_wavs_dir = "%s/0_gt_wavs" % (exp_dir) gt_wavs_dir = "%s/0_gt_wavs" % (exp_dir)
co256_dir = "%s/3_feature256" % (exp_dir) co256_dir = "%s/3_feature256" % (exp_dir)
if if_f0_3 == "": if if_f0_3 == i18n(""):
f0_dir = "%s/2a_f0" % (exp_dir) f0_dir = "%s/2a_f0" % (exp_dir)
f0nsf_dir = "%s/2b-f0nsf" % (exp_dir) f0nsf_dir = "%s/2b-f0nsf" % (exp_dir)
names = ( names = (
@ -569,7 +569,7 @@ def click_train(
) )
opt = [] opt = []
for name in names: for name in names:
if if_f0_3 == "": if if_f0_3 == i18n(""):
opt.append( opt.append(
"%s/%s.wav|%s/%s.npy|%s/%s.wav.npy|%s/%s.wav.npy|%s" "%s/%s.wav|%s/%s.npy|%s/%s.wav.npy|%s/%s.wav.npy|%s"
% ( % (
@ -595,7 +595,7 @@ def click_train(
spk_id5, spk_id5,
) )
) )
if if_f0_3 == "": if if_f0_3 == i18n(""):
for _ in range(2): for _ in range(2):
opt.append( opt.append(
"%s/logs/mute/0_gt_wavs/mute%s.wav|%s/logs/mute/3_feature256/mute.npy|%s/logs/mute/2a_f0/mute.wav.npy|%s/logs/mute/2b-f0nsf/mute.wav.npy|%s" "%s/logs/mute/0_gt_wavs/mute%s.wav|%s/logs/mute/3_feature256/mute.npy|%s/logs/mute/2a_f0/mute.wav.npy|%s/logs/mute/2b-f0nsf/mute.wav.npy|%s"
@ -621,15 +621,15 @@ def click_train(
% ( % (
exp_dir1, exp_dir1,
sr2, sr2,
1 if if_f0_3 == "" else 0, 1 if if_f0_3 == i18n("") else 0,
batch_size12, batch_size12,
gpus16, gpus16,
total_epoch11, total_epoch11,
save_epoch10, save_epoch10,
pretrained_G14, pretrained_G14,
pretrained_D15, pretrained_D15,
1 if if_save_latest13 == "" else 0, 1 if if_save_latest13 == i18n("") else 0,
1 if if_cache_gpu17 == "" else 0, 1 if if_cache_gpu17 == i18n("") else 0,
) )
) )
else: else:
@ -639,14 +639,14 @@ def click_train(
% ( % (
exp_dir1, exp_dir1,
sr2, sr2,
1 if if_f0_3 == "" else 0, 1 if if_f0_3 == i18n("") else 0,
batch_size12, batch_size12,
total_epoch11, total_epoch11,
save_epoch10, save_epoch10,
pretrained_G14, pretrained_G14,
pretrained_D15, pretrained_D15,
1 if if_save_latest13 == "" else 0, 1 if if_save_latest13 == i18n("") else 0,
1 if if_cache_gpu17 == "" else 0, 1 if if_cache_gpu17 == i18n("") else 0,
) )
) )
print(cmd) print(cmd)
@ -736,7 +736,7 @@ def train1key(
% (trainset_dir4, sr_dict[sr2], ncpu, now_dir, exp_dir1) % (trainset_dir4, sr_dict[sr2], ncpu, now_dir, exp_dir1)
+ str(config.noparallel) + str(config.noparallel)
) )
yield get_info_str("step1:正在处理数据") yield get_info_str(i18n("step1:正在处理数据"))
yield get_info_str(cmd) yield get_info_str(cmd)
p = Popen(cmd, shell=True) p = Popen(cmd, shell=True)
p.wait() p.wait()
@ -744,7 +744,7 @@ def train1key(
print(f.read()) print(f.read())
#########step2a:提取音高 #########step2a:提取音高
open("%s/logs/%s/extract_f0_feature.log" % (now_dir, exp_dir1), "w") open("%s/logs/%s/extract_f0_feature.log" % (now_dir, exp_dir1), "w")
if if_f0_3 == "": if if_f0_3 == i18n(""):
yield get_info_str("step2a:正在提取音高") yield get_info_str("step2a:正在提取音高")
cmd = config.python_cmd + " extract_f0_print.py %s/logs/%s %s %s" % ( cmd = config.python_cmd + " extract_f0_print.py %s/logs/%s %s %s" % (
now_dir, now_dir,
@ -758,9 +758,9 @@ def train1key(
with open("%s/logs/%s/extract_f0_feature.log" % (now_dir, exp_dir1), "r") as f: with open("%s/logs/%s/extract_f0_feature.log" % (now_dir, exp_dir1), "r") as f:
print(f.read()) print(f.read())
else: else:
yield get_info_str("step2a:无需提取音高") yield get_info_str(i18n("step2a:无需提取音高"))
#######step2b:提取特征 #######step2b:提取特征
yield get_info_str("step2b:正在提取特征") yield get_info_str(i18n("step2b:正在提取特征"))
gpus = gpus16.split("-") gpus = gpus16.split("-")
leng = len(gpus) leng = len(gpus)
ps = [] ps = []
@ -783,12 +783,12 @@ def train1key(
with open("%s/logs/%s/extract_f0_feature.log" % (now_dir, exp_dir1), "r") as f: with open("%s/logs/%s/extract_f0_feature.log" % (now_dir, exp_dir1), "r") as f:
print(f.read()) print(f.read())
#######step3a:训练模型 #######step3a:训练模型
yield get_info_str("step3a:正在训练模型") yield get_info_str(i18n("step3a:正在训练模型"))
# 生成filelist # 生成filelist
exp_dir = "%s/logs/%s" % (now_dir, exp_dir1) exp_dir = "%s/logs/%s" % (now_dir, exp_dir1)
gt_wavs_dir = "%s/0_gt_wavs" % (exp_dir) gt_wavs_dir = "%s/0_gt_wavs" % (exp_dir)
co256_dir = "%s/3_feature256" % (exp_dir) co256_dir = "%s/3_feature256" % (exp_dir)
if if_f0_3 == "": if if_f0_3 == i18n(""):
f0_dir = "%s/2a_f0" % (exp_dir) f0_dir = "%s/2a_f0" % (exp_dir)
f0nsf_dir = "%s/2b-f0nsf" % (exp_dir) f0nsf_dir = "%s/2b-f0nsf" % (exp_dir)
names = ( names = (
@ -803,7 +803,7 @@ def train1key(
) )
opt = [] opt = []
for name in names: for name in names:
if if_f0_3 == "": if if_f0_3 == i18n(""):
opt.append( opt.append(
"%s/%s.wav|%s/%s.npy|%s/%s.wav.npy|%s/%s.wav.npy|%s" "%s/%s.wav|%s/%s.npy|%s/%s.wav.npy|%s/%s.wav.npy|%s"
% ( % (
@ -829,7 +829,7 @@ def train1key(
spk_id5, spk_id5,
) )
) )
if if_f0_3 == "": if if_f0_3 == i18n(""):
for _ in range(2): for _ in range(2):
opt.append( opt.append(
"%s/logs/mute/0_gt_wavs/mute%s.wav|%s/logs/mute/3_feature256/mute.npy|%s/logs/mute/2a_f0/mute.wav.npy|%s/logs/mute/2b-f0nsf/mute.wav.npy|%s" "%s/logs/mute/0_gt_wavs/mute%s.wav|%s/logs/mute/3_feature256/mute.npy|%s/logs/mute/2a_f0/mute.wav.npy|%s/logs/mute/2b-f0nsf/mute.wav.npy|%s"
@ -852,15 +852,15 @@ def train1key(
% ( % (
exp_dir1, exp_dir1,
sr2, sr2,
1 if if_f0_3 == "" else 0, 1 if if_f0_3 == i18n("") else 0,
batch_size12, batch_size12,
gpus16, gpus16,
total_epoch11, total_epoch11,
save_epoch10, save_epoch10,
pretrained_G14, pretrained_G14,
pretrained_D15, pretrained_D15,
1 if if_save_latest13 == "" else 0, 1 if if_save_latest13 == i18n("") else 0,
1 if if_cache_gpu17 == "" else 0, 1 if if_cache_gpu17 == i18n("") else 0,
) )
) )
else: else:
@ -870,20 +870,20 @@ def train1key(
% ( % (
exp_dir1, exp_dir1,
sr2, sr2,
1 if if_f0_3 == "" else 0, 1 if if_f0_3 == i18n("") else 0,
batch_size12, batch_size12,
total_epoch11, total_epoch11,
save_epoch10, save_epoch10,
pretrained_G14, pretrained_G14,
pretrained_D15, pretrained_D15,
1 if if_save_latest13 == "" else 0, 1 if if_save_latest13 == i18n("") else 0,
1 if if_cache_gpu17 == "" else 0, 1 if if_cache_gpu17 == i18n("") else 0,
) )
) )
yield get_info_str(cmd) yield get_info_str(cmd)
p = Popen(cmd, shell=True, cwd=now_dir) p = Popen(cmd, shell=True, cwd=now_dir)
p.wait() p.wait()
yield get_info_str("训练结束, 您可查看控制台训练日志或实验文件夹下的train.log") yield get_info_str(i18n("训练结束, 您可查看控制台训练日志或实验文件夹下的train.log"))
#######step3b:训练索引 #######step3b:训练索引
feature_dir = "%s/3_feature256" % (exp_dir) feature_dir = "%s/3_feature256" % (exp_dir)
npys = [] npys = []
@ -915,7 +915,7 @@ def train1key(
yield get_info_str( yield get_info_str(
"成功构建索引, added_IVF%s_Flat_nprobe_%s.index" % (n_ivf, index_ivf.nprobe) "成功构建索引, added_IVF%s_Flat_nprobe_%s.index" % (n_ivf, index_ivf.nprobe)
) )
yield get_info_str("全流程结束!") yield get_info_str(i18n("全流程结束!"))
# ckpt_path2.change(change_info_,[ckpt_path2],[sr__,if_f0__]) # ckpt_path2.change(change_info_,[ckpt_path2],[sr__,if_f0__])
@ -1082,7 +1082,7 @@ with gr.Blocks() as app:
index_rate1 = gr.Slider( index_rate1 = gr.Slider(
minimum=0, minimum=0,
maximum=1, maximum=1,
label="检索特征占比", label=i18n("检索特征占比"),
value=0.76, value=0.76,
interactive=True, interactive=True,
) )
@ -1186,7 +1186,7 @@ with gr.Blocks() as app:
minimum=0, minimum=0,
maximum=20, maximum=20,
step=1, step=1,
label="人声提取激进程度", label=i18n("人声提取激进程度"),
value=10, value=10,
interactive=True, interactive=True,
visible=False, # 先不开放调整 visible=False, # 先不开放调整
@ -1225,8 +1225,8 @@ with gr.Blocks() as app:
) )
if_f0_3 = gr.Radio( if_f0_3 = gr.Radio(
label=i18n("模型是否带音高指导(唱歌一定要, 语音可以不要)"), label=i18n("模型是否带音高指导(唱歌一定要, 语音可以不要)"),
choices=["", ""], choices=[i18n(""), i18n("")],
value="", value=i18n(""),
interactive=True, interactive=True,
) )
with gr.Group(): # 暂时单人的, 后面支持最多4人的#数据处理 with gr.Group(): # 暂时单人的, 后面支持最多4人的#数据处理
@ -1309,22 +1309,22 @@ with gr.Blocks() as app:
minimum=0, minimum=0,
maximum=40, maximum=40,
step=1, step=1,
label="每张显卡的batch_size", label=i18n("每张显卡的batch_size"),
value=default_batch_size, value=default_batch_size,
interactive=True, interactive=True,
) )
if_save_latest13 = gr.Radio( if_save_latest13 = gr.Radio(
label=i18n("是否仅保存最新的ckpt文件以节省硬盘空间"), label=i18n("是否仅保存最新的ckpt文件以节省硬盘空间"),
choices=["", ""], choices=[i18n(""), i18n("")],
value="", value=i18n(""),
interactive=True, interactive=True,
) )
if_cache_gpu17 = gr.Radio( if_cache_gpu17 = gr.Radio(
label=i18n( label=i18n(
"是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速" "是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速"
), ),
choices=["", ""], choices=[i18n(""), i18n("")],
value="", value=i18n(""),
interactive=True, interactive=True,
) )
with gr.Row(): with gr.Row():
@ -1419,8 +1419,8 @@ with gr.Blocks() as app:
) )
if_f0_ = gr.Radio( if_f0_ = gr.Radio(
label=i18n("模型是否带音高指导"), label=i18n("模型是否带音高指导"),
choices=["", ""], choices=[i18n(""), i18n("")],
value="", value=i18n(""),
interactive=True, interactive=True,
) )
info__ = gr.Textbox( info__ = gr.Textbox(