translate

This commit is contained in:
ɴᴇᴋᴏ 2024-09-07 22:29:14 +08:00
parent 9b0e7d3f06
commit 1b69150eb9

View File

@ -1,7 +1,7 @@
<div align="center"> <div align="center">
<h1>Retrieval-based-Voice-Conversion-WebUI</h1> <h1>Retrieval-based-Voice-Conversion-WebUI</h1>
个基于VITS的简单易用的变声框架<br><br> 個基於VITS的簡單易用的變聲框架<br><br>
[![madewithlove](https://img.shields.io/badge/made_with-%E2%9D%A4-red?style=for-the-badge&labelColor=orange [![madewithlove](https://img.shields.io/badge/made_with-%E2%9D%A4-red?style=for-the-badge&labelColor=orange
)](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI) )](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI)
@ -14,20 +14,20 @@
[![Discord](https://img.shields.io/badge/RVC%20Developers-Discord-7289DA?style=for-the-badge&logo=discord&logoColor=white)](https://discord.gg/HcsmBBGyVk) [![Discord](https://img.shields.io/badge/RVC%20Developers-Discord-7289DA?style=for-the-badge&logo=discord&logoColor=white)](https://discord.gg/HcsmBBGyVk)
[**更新日**](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/blob/main/docs/Changelog_CN.md) | [**常见问题解答**](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/wiki/%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98%E8%A7%A3%E7%AD%94) | [**AutoDL·5毛钱训练AI歌手**](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/wiki/Autodl%E8%AE%AD%E7%BB%83RVC%C2%B7AI%E6%AD%8C%E6%89%8B%E6%95%99%E7%A8%8B) | [**对照实验记录**](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/wiki/Autodl%E8%AE%AD%E7%BB%83RVC%C2%B7AI%E6%AD%8C%E6%89%8B%E6%95%99%E7%A8%8B](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/wiki/%E5%AF%B9%E7%85%A7%E5%AE%9E%E9%AA%8C%C2%B7%E5%AE%9E%E9%AA%8C%E8%AE%B0%E5%BD%95)) | [**在线演示**](https://modelscope.cn/studios/FlowerCry/RVCv2demo) [**更新日**](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/blob/main/docs/Changelog_CN.md) | [**常見問題解答**](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/wiki/%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98%E8%A7%A3%E7%AD%94) | [**AutoDL·5毛錢訓練AI歌手**](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/wiki/Autodl%E8%AE%AD%E7%BB%83RVC%C2%B7AI%E6%AD%8C%E6%89%8B%E6%95%99%E7%A8%8B) | [**對照實驗記錄**](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/wiki/Autodl%E8%AE%AD%E7%BB%83RVC%C2%B7AI%E6%AD%8C%E6%89%8B%E6%95%99%E7%A8%8B](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/wiki/%E5%AF%B9%E7%85%A7%E5%AE%9E%E9%AA%8C%C2%B7%E5%AE%9E%E9%AA%8C%E8%AE%B0%E5%BD%95)) | [**在線示範**](https://modelscope.cn/studios/FlowerCry/RVCv2demo)
[**English**](./docs/en/README.en.md) | [**中文简体**](./README.md) | [**日本語**](./docs/jp/README.ja.md) | [**한국어**](./docs/kr/README.ko.md) ([**韓國語**](./docs/kr/README.ko.han.md)) | [**Français**](./docs/fr/README.fr.md) | [**Türkçe**](./docs/tr/README.tr.md) | [**Português**](./docs/pt/README.pt.md) [**English**](./docs/en/README.en.md) | [**中文簡體**](./README.md) | [**日本語**](./docs/jp/README.ja.md) | [**한국어**](./docs/kr/README.ko.md) ([**韓國語**](./docs/kr/README.ko.han.md)) | [**Français**](./docs/fr/README.fr.md) | [**Türkçe**](./docs/tr/README.tr.md) | [**Português**](./docs/pt/README.pt.md)
</div> </div>
> 底模使用接近50小时的开源高质量VCTK训练集训练无版权方面的顾虑大家放心使用 > 底模使用接近50小時的開源高品質VCTK訓練集訓練無版權方面的顧慮大家放心使用
> 请期待RVCv3的底模参数更大数据更大效果更好基本持平的推理速度需要训练数据量更少。 > 請期待RVCv3的底模參數更大數據更大效果更好基本持平的推理速度需要訓練數據量更少。
<table> <table>
<tr> <tr>
<td align="center">训练推理界面</td> <td align="center">訓練推理界面</td>
<td align="center">实时变声界面</td> <td align="center">即時變聲界面</td>
</tr> </tr>
<tr> <tr>
<td align="center"><img src="https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/assets/129054828/092e5c12-0d49-4168-a590-0b0ef6a4f630"></td> <td align="center"><img src="https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/assets/129054828/092e5c12-0d49-4168-a590-0b0ef6a4f630"></td>
@ -38,39 +38,39 @@
<td align="center">go-realtime-gui.bat</td> <td align="center">go-realtime-gui.bat</td>
</tr> </tr>
<tr> <tr>
<td align="center">可以自由选择想要执行的操作。</td> <td align="center">可以自由選擇想要執行的操作。</td>
<td align="center">们已经实现端到端170ms延迟。如使用ASIO输入输出设备已能实现端到端90ms延迟但非常依赖硬件驱动支持。</td> <td align="center">們已經實現端到端170ms延遲。如使用ASIO輸入輸出設備已能實現端到端90ms延遲但非常依賴硬體驅動支持。</td>
</tr> </tr>
</table> </table>
## ##
仓库具有以下特点 倉庫具有以下特點
+ 使用top1检索替换输入源特征为训练集特征来杜绝音色泄 + 使用top1檢索替換輸入源特徵為訓練集特徵來杜絕音色洩
+ 即便在相对较差的显卡上也能快速训练 + 即便在相對較差的顯示卡上也能快速訓練
+ 使用少量数据进行训练也能得到较好结果(推荐至少收集10分钟低底噪语音数据) + 使用少量數據進行訓練也能得到較好結果(推薦至少收集10分鐘低底噪語音數據)
+ 可以通过模型融合来改变音色(借助ckpt处理选项卡中的ckpt-merge) + 可以透過模型融合來改變音色(借助ckpt處理選項卡中的ckpt-merge)
+ 简单易用的网页界面 + 簡單易用的網頁界面
+ 可调用UVR5模型来快速分离人声和伴奏 + 可調用UVR5模型來快速分離人聲和伴奏
+ 使用最先进的[人声音高提取算法InterSpeech2023-RMVPE](#参考项目)根绝哑音问题。效果最好显著地但比crepe_full更快、资源占用更小 + 使用最先進的[人聲音高提取算法InterSpeech2023-RMVPE](#參考項目)根絕啞音問題。效果最好顯著地但比crepe_full更快、資源占用更小
+ A卡I卡加速支持 + A卡I卡加速支持
点此查看我们的[演示视频](https://www.bilibili.com/video/BV1pm4y1z7Gm/) ! 點此查看我們的[示範影片](https://www.bilibili.com/video/BV1pm4y1z7Gm/) !
## 境配置 ## 境配置
以下指令需在 Python 版本大于3.8的环境中执行。 以下指令需在 Python 版本大於3.8的環境中執行。
### Windows/Linux/MacOS等平台通用方法 ### Windows/Linux/MacOS等平台通用方法
下列方法任其一。 下列方法任其一。
#### 1. 通过 pip 安装依赖 #### 1. 通過 pip 安裝依賴
1. 安装Pytorch及其核心依赖若已安装则跳过。参考自: https://pytorch.org/get-started/locally/ 1. 安裝Pytorch及其核心依賴若已安裝則跳過。參考自: https://pytorch.org/get-started/locally/
```bash ```bash
pip install torch torchvision torchaudio pip install torch torchvision torchaudio
``` ```
2. 如果是 win 系统 + Nvidia Ampere 架构(RTX30xx),根据 #21 的经验,需要指定 pytorch 对应的 cuda 版本 2. 如果是 win 系統 + Nvidia Ampere 架構(RTX30xx),根據 #21 的經驗,需要指定 pytorch 對應的 cuda 版本
```bash ```bash
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117 pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117
``` ```
3. 根据自己的显卡安装对应依赖 3. 根據自己的顯示卡安裝對應依賴
- N卡 - N卡
```bash ```bash
pip install -r requirements.txt pip install -r requirements.txt
@ -88,13 +88,13 @@ pip install -r requirements-amd.txt
pip install -r requirements-ipex.txt pip install -r requirements-ipex.txt
``` ```
#### 2. 通过 poetry 来安装依赖 #### 2. 通過 poetry 來安裝依賴
装 Poetry 依赖管理工具,若已安装则跳过。参考自: https://python-poetry.org/docs/#installation 裝 Poetry 依賴管理工具,若已安裝則跳過。參考自: https://python-poetry.org/docs/#installation
```bash ```bash
curl -sSL https://install.python-poetry.org | python3 - curl -sSL https://install.python-poetry.org | python3 -
``` ```
过 Poetry 安装依赖时python 建议使用 3.7-3.10 版本,其余版本在安装 llvmlite==0.39.0 时会出现冲 過 Poetry 安裝依賴時python 建議使用 3.7-3.10 版本,其餘版本在安裝 llvmlite==0.39.0 時會出現衝
```bash ```bash
poetry init -n poetry init -n
poetry env use "path to your python.exe" poetry env use "path to your python.exe"
@ -102,18 +102,18 @@ poetry run pip install -r requirments.txt
``` ```
### MacOS ### MacOS
可以通`run.sh` 来安装依赖 可以通`run.sh` 來安裝依賴
```bash ```bash
sh ./run.sh sh ./run.sh
``` ```
## 其他预模型准备 ## 其他預模型準備
RVC需要其他一些预模型来推理和训练 RVC需要其他一些預模型來推理和訓練
你可以从我们的[Hugging Face space](https://huggingface.co/lj1995/VoiceConversionWebUI/tree/main/)下载到这些模型。 你可以從我們的[Hugging Face space](https://huggingface.co/lj1995/VoiceConversionWebUI/tree/main/)下載到這些模型。
### 1. 下 assets ### 1. 下 assets
以下是一份清包括了所有RVC所需的预模型和其他文件的名称。你可以在`tools`文件夹找到下载它们的脚本。 以下是一份清包括了所有RVC所需的預模型和其他文件的名稱。你可以在`tools`文件夾找到下載它們的腳本。
- ./assets/hubert/hubert_base.pt - ./assets/hubert/hubert_base.pt
@ -121,82 +121,82 @@ RVC需要其他一些预模型来推理和训练。
- ./assets/uvr5_weights - ./assets/uvr5_weights
想使用v2版本模型的话,需要额外下载 想使用v2版本模型的話,需要額外下載
- ./assets/pretrained_v2 - ./assets/pretrained_v2
### 2. 安 ffmpeg ### 2. 安 ffmpeg
若ffmpeg和ffprobe已安装则跳过 若ffmpeg和ffprobe已安裝則跳過
#### Ubuntu/Debian 用 #### Ubuntu/Debian 用
```bash ```bash
sudo apt install ffmpeg sudo apt install ffmpeg
``` ```
#### MacOS 用 #### MacOS 用
```bash ```bash
brew install ffmpeg brew install ffmpeg
``` ```
#### Windows 用 #### Windows 用
载后放置在根目录 載後放置在根目錄
- 下[ffmpeg.exe](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffmpeg.exe) - 下[ffmpeg.exe](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffmpeg.exe)
- 下[ffprobe.exe](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffprobe.exe) - 下[ffprobe.exe](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffprobe.exe)
### 3. 下载 rmvpe 人声音高提取算法所需文件 ### 3. 下載 rmvpe 人聲音高提取算法所需文件
如果你想使用最新的RMVPE人声音高提取算法则你需要下载音高提取模型参数并放置于RVC根目录 如果你想使用最新的RMVPE人聲音高提取算法則你需要下載音高提取模型參數並放置於RVC根目錄
- 下[rmvpe.pt](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/rmvpe.pt) - 下[rmvpe.pt](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/rmvpe.pt)
#### 下载 rmvpe 的 dml 环境(可选, A卡/I卡用户) #### 下載 rmvpe 的 dml 環境(可選, A卡/I卡用戶)
- 下[rmvpe.onnx](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/rmvpe.onnx) - 下[rmvpe.onnx](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/rmvpe.onnx)
### 4. AMD显卡Rocm(可选, 仅Linux) ### 4. AMD顯示卡Rocm(可選, 僅Linux)
如果你想基于AMD的Rocm技术在Linux系统上运行RVC请先在[这里](https://rocm.docs.amd.com/en/latest/deploy/linux/os-native/install.html)安装所需的驱动 如果你想基於AMD的Rocm技術在Linux系統上運行RVC請先在[這裡](https://rocm.docs.amd.com/en/latest/deploy/linux/os-native/install.html)安裝所需的驅動
若你使用的是Arch Linux可以使用pacman来安装所需驱动 若你使用的是Arch Linux可以使用pacman來安裝所需驅動
```` ````
pacman -S rocm-hip-sdk rocm-opencl-sdk pacman -S rocm-hip-sdk rocm-opencl-sdk
```` ````
对于某些型号的显卡,你可能需要额外配置如下的环境变量RX6700XT 對於某些型號的顯示卡,你可能需要額外配置如下的環境變數RX6700XT
```` ````
export ROCM_PATH=/opt/rocm export ROCM_PATH=/opt/rocm
export HSA_OVERRIDE_GFX_VERSION=10.3.0 export HSA_OVERRIDE_GFX_VERSION=10.3.0
```` ````
时确保你的当前用户处于`render`与`video`用户组内 時確保你的當前用戶處於`render`與`video`用戶組內
```` ````
sudo usermod -aG render $USERNAME sudo usermod -aG render $USERNAME
sudo usermod -aG video $USERNAME sudo usermod -aG video $USERNAME
```` ````
## 始使用 ## 始使用
### 直接启动 ### 直接啟動
使用以下指令来启动 WebUI 使用以下指令來啟動 WebUI
```bash ```bash
python infer-web.py python infer-web.py
``` ```
若先前使用 Poetry 安装依赖,则可以通过以下方式启动WebUI 若先前使用 Poetry 安裝依賴,則可以透過以下方式啟動WebUI
```bash ```bash
poetry run python infer-web.py poetry run python infer-web.py
``` ```
### 使用整合包 ### 使用整合包
载并解压`RVC-beta.7z` 載並解壓`RVC-beta.7z`
#### Windows 用 #### Windows 用
双击`go-web.bat` 雙擊`go-web.bat`
#### MacOS 用 #### MacOS 用
```bash ```bash
sh ./run.sh sh ./run.sh
``` ```
### 对于需要使用IPEX技术的I卡用户(仅Linux) ### 對於需要使用IPEX技術的I卡用戶(僅Linux)
```bash ```bash
source /opt/intel/oneapi/setvars.sh source /opt/intel/oneapi/setvars.sh
``` ```
## 参考项 ## 參考項
+ [ContentVec](https://github.com/auspicious3000/contentvec/) + [ContentVec](https://github.com/auspicious3000/contentvec/)
+ [VITS](https://github.com/jaywalnut310/vits) + [VITS](https://github.com/jaywalnut310/vits)
+ [HIFIGAN](https://github.com/jik876/hifi-gan) + [HIFIGAN](https://github.com/jik876/hifi-gan)
@ -207,7 +207,7 @@ source /opt/intel/oneapi/setvars.sh
+ [Vocal pitch extraction:RMVPE](https://github.com/Dream-High/RMVPE) + [Vocal pitch extraction:RMVPE](https://github.com/Dream-High/RMVPE)
+ The pretrained model is trained and tested by [yxlllc](https://github.com/yxlllc/RMVPE) and [RVC-Boss](https://github.com/RVC-Boss). + The pretrained model is trained and tested by [yxlllc](https://github.com/yxlllc/RMVPE) and [RVC-Boss](https://github.com/RVC-Boss).
## 感谢所有贡献者作出的努力 ## 感謝所有貢獻者作出的努力
<a href="https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/graphs/contributors" target="_blank"> <a href="https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/graphs/contributors" target="_blank">
<img src="https://contrib.rocks/image?repo=RVC-Project/Retrieval-based-Voice-Conversion-WebUI" /> <img src="https://contrib.rocks/image?repo=RVC-Project/Retrieval-based-Voice-Conversion-WebUI" />
</a> </a>