From 7993e51e37bf7db5d5b91cb43b831a9070a98d78 Mon Sep 17 00:00:00 2001 From: Amazon90 <72290820+Amazon90@users.noreply.github.com> Date: Thu, 30 May 2024 18:30:37 +0800 Subject: [PATCH] Update zh_TW.json --- i18n/locale/zh_TW.json | 20 ++++++++++---------- 1 file changed, 10 insertions(+), 10 deletions(-) diff --git a/i18n/locale/zh_TW.json b/i18n/locale/zh_TW.json index 4b3774a..0de54ea 100644 --- a/i18n/locale/zh_TW.json +++ b/i18n/locale/zh_TW.json @@ -26,8 +26,8 @@ "人声伴奏分离批量处理, 使用UVR5模型。
合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。
模型分为三类:
1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;
2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;
3、去混响、去延迟模型(by FoxJoy):
  (1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;
 (234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。
去混响/去延迟,附:
1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;
2、MDX-Net-Dereverb模型挺慢的;
3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "使用UVR5模型進行人聲伴奏分離的批次處理。
有效資料夾路徑格式的例子:D:\\path\\to\\input\\folder(從檔案管理員地址欄複製)。
模型分為三類:
1. 保留人聲:選擇這個選項適用於沒有和聲的音訊。它比HP5更好地保留了人聲。它包括兩個內建模型:HP2和HP3。HP3可能輕微漏出伴奏,但比HP2更好地保留了人聲;
2. 僅保留主人聲:選擇這個選項適用於有和聲的音訊。它可能會削弱主人聲。它包括一個內建模型:HP5。
3. 消除混響和延遲模型(由FoxJoy提供):
  (1) MDX-Net:對於立體聲混響的移除是最好的選擇,但不能移除單聲道混響;
 (234) DeEcho:移除延遲效果。Aggressive模式比Normal模式移除得更徹底。DeReverb另外移除混響,可以移除單聲道混響,但對於高頻重的板式混響移除不乾淨。
消除混響/延遲注意事項:
1. DeEcho-DeReverb模型的處理時間是其他兩個DeEcho模型的近兩倍;
2. MDX-Net-Dereverb模型相當慢;
3. 個人推薦的最乾淨配置是先使用MDX-Net,然後使用DeEcho-Aggressive。", "以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "以-分隔輸入使用的卡號, 例如 0-1-2 使用卡0和卡1和卡2", "伴奏人声分离&去混响&去回声": "伴奏人聲分離&去混響&去回聲", - "使用模型采样率": "使用模型采样率", - "使用设备采样率": "使用设备采样率", + "使用模型采样率": "使用模型采樣率", + "使用设备采样率": "使用設備采樣率", "保存名": "儲存名", "保存的文件名, 默认空为和源文件同名": "儲存的檔案名,預設空為與來源檔案同名", "保存的模型名不带后缀": "儲存的模型名不帶副檔名", @@ -47,8 +47,8 @@ "变调(整数, 半音数量, 升八度12降八度-12)": "變調(整數、半音數量、升八度12降八度-12)", "后处理重采样至最终采样率,0为不进行重采样": "後處理重採樣至最終採樣率,0為不進行重採樣", "否": "否", - "启用相位声码器": "启用相位声码器", - "响应阈值": "響應閾值", + "启用相位声码器": "啓用相位聲碼器", + "响应阈值": "響應閾値", "响度因子": "響度因子", "处理数据": "處理資料", "导出Onnx模型": "导出Onnx模型", @@ -91,10 +91,10 @@ "版本": "版本", "特征提取": "特徵提取", "特征检索库文件路径,为空则使用下拉的选择结果": "特徵檢索庫檔路徑,為空則使用下拉的選擇結果", - "独占 WASAPI 设备": "独占 WASAPI 设备", + "独占 WASAPI 设备": "独占 WASAPI 設備", "男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "男性轉女性推薦+12key,女性轉男性推薦-12key,如果音域爆炸導致音色失真也可以自己調整到合適音域。", "目标采样率": "目標取樣率", - "算法延迟(ms):": "算法延迟(ms):", + "算法延迟(ms):": "算法延遲(ms):", "自动检测index路径,下拉式选择(dropdown)": "自動檢測index路徑,下拉式選擇(dropdown)", "融合": "融合", "要改的模型信息": "要改的模型資訊", @@ -103,7 +103,7 @@ "训练模型": "訓練模型", "训练特征索引": "訓練特徵索引", "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log": "训练结束, 您可查看控制台训练日志或实验文件夹下的train.log", - "设备类型": "设备类型", + "设备类型": "設備類型", "请指定说话人id": "請指定說話人id", "请选择index文件": "请选择index文件", "请选择pth文件": "请选择pth文件", @@ -114,12 +114,12 @@ "输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "輸入待處理音頻資料夾路徑(去檔案管理器地址欄拷貝即可)", "输入待处理音频文件路径(默认是正确格式示例)": "輸入待處理音頻檔案路徑(預設是正確格式示例)", "输入源音量包络替换输出音量包络融合比例,越靠近1越使用输出包络": "輸入源音量包絡替換輸出音量包絡融合比例,越靠近1越使用輸出包絡", - "输入监听": "输入监听", + "输入监听": "輸入監聽", "输入训练文件夹路径": "輸入訓練檔案夾路徑", "输入设备": "輸入設備", "输入降噪": "輸入降噪", "输出信息": "輸出訊息", - "输出变声": "输出变声", + "输出变声": "輸出變聲", "输出设备": "輸出設備", "输出降噪": "輸出降噪", "输出音频(右下角三个点,点了可以下载)": "輸出音頻(右下角三個點,點了可以下載)", @@ -128,7 +128,7 @@ "选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比,crepe效果好但吃GPU": "选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比,crepe效果好但吃GPU", "选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比,crepe效果好但吃GPU,rmvpe效果最好且微吃GPU": "選擇音高提取演算法,輸入歌聲可用pm提速,harvest低音好但巨慢無比,crepe效果好但吃GPU,rmvpe效果最好且微吃GPU", "选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢,rmvpe效果最好且微吃CPU/GPU": "选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢,rmvpe效果最好且微吃CPU/GPU", - "采样率:": "采样率:", + "采样率:": "采樣率:", "采样长度": "取樣長度", "重载设备列表": "重載設備列表", "音调设置": "音調設定",