Retrieval-based-Voice-Conversion-WebUI

VITS 기반의 간단하고 사용하기 쉬운 음성 변환 프레임워크.

[![madewithlove](https://img.shields.io/badge/made_with-%E2%9D%A4-red?style=for-the-badge&labelColor=orange)](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI)
[![RVC v1](https://img.shields.io/badge/RVCv1-F9AB00?style=for-the-badge&logo=googlecolab&color=525252)](https://colab.research.google.com/github/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/blob/main/tools/ipynb/v1.ipynb) [![RVC v2](https://img.shields.io/badge/RVCv2-F9AB00?style=for-the-badge&logo=googlecolab&color=525252)](https://colab.research.google.com/github/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/blob/main/tools/ipynb/v2.ipynb) [![Licence](https://img.shields.io/badge/LICENSE-MIT-green.svg?style=for-the-badge)](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/blob/main/LICENSE) [![Huggingface](https://img.shields.io/badge/🤗%20-Spaces-yellow.svg?style=for-the-badge)](https://huggingface.co/lj1995/VoiceConversionWebUI/tree/main/) [![Discord](https://img.shields.io/badge/RVC%20Developers-Discord-7289DA?style=for-the-badge&logo=discord&logoColor=white)](https://discord.gg/HcsmBBGyVk) [**업데이트 로그**](./Changelog_KO.md) | [**자주 묻는 질문**](./faq_ko.md) | [**AutoDL·5원으로 AI 가수 훈련**](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/wiki/Autodl%E8%AE%AD%E7%BB%83RVC%C2%B7AI%E6%AD%8C%E6%89%8B%E6%95%99%E7%A8%8B) | [**대조 실험 기록**](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/wiki/%E5%AF%B9%E7%85%A7%E5%AE%9E%E9%AA%8C%C2%B7%E5%AE%9E%E9%AA%8C%E8%AE%B0%E5%BD%95) | [**온라인 데모**](https://modelscope.cn/studios/FlowerCry/RVCv2demo) [**English**](../en/README.en.md) | [**中文简体**](../../README.md) | [**日本語**](../jp/README.ja.md) | [**한국어**](../kr/README.ko.md) ([**韓國語**](../kr/README.ko.han.md)) | [**Français**](../fr/README.fr.md) | [**Türkçe**](../tr/README.tr.md) | [**Português**](../pt/README.pt.md)
> [데모 영상](https://www.bilibili.com/video/BV1pm4y1z7Gm/)을 확인해 보세요! > RVC를 활용한 실시간 음성변환: [w-okada/voice-changer](https://github.com/w-okada/voice-changer) > 기본 모델은 50시간 가량의 고퀄리티 오픈 소스 VCTK 데이터셋을 사용하였으므로, 저작권상의 염려가 없으니 안심하고 사용하시기 바랍니다. > 더 큰 매개변수, 더 큰 데이터, 더 나은 효과, 기본적으로 동일한 추론 속도, 더 적은 양의 훈련 데이터가 필요한 RVCv3의 기본 모델을 기대해 주십시오.
훈련 및 추론 인터페이스 실시간 음성 변환 인터페이스
go-web.bat go-realtime-gui.bat
원하는 작업을 자유롭게 선택할 수 있습니다. 우리는 이미 끝에서 끝까지 170ms의 지연을 실현했습니다. ASIO 입력 및 출력 장치를 사용하면 끝에서 끝까지 90ms의 지연을 달성할 수 있지만, 이는 하드웨어 드라이버 지원에 매우 의존적입니다.
## 소개 본 Repo는 다음과 같은 특징을 가지고 있습니다: - top1 검색을 이용하여 입력 음색 특징을 훈련 세트 음색 특징으로 대체하여 음색의 누출을 방지 - 상대적으로 낮은 성능의 GPU에서도 빠른 훈련 가능 - 적은 양의 데이터로 훈련해도 좋은 결과를 얻을 수 있음 (최소 10분 이상의 저잡음 음성 데이터를 사용하는 것을 권장) - 모델 융합을 통한 음색의 변조 가능 (ckpt 처리 탭->ckpt 병합 선택) - 사용하기 쉬운 WebUI (웹 인터페이스) - UVR5 모델을 이용하여 목소리와 배경음악의 빠른 분리; - 최첨단 [음성 피치 추출 알고리즘 InterSpeech2023-RMVPE](#参考项目)을 사용하여 무성음 문제를 해결합니다. 효과는 최고(압도적)이며 crepe_full보다 더 빠르고 리소스 사용이 적음 - A카드와 I카드 가속을 지원 해당 프로젝트의 [데모 비디오](https://www.bilibili.com/video/BV1pm4y1z7Gm/)를 확인해보세요! ## 환경 설정 다음 명령은 Python 버전이 3.8 이상인 환경에서 실행해야 합니다. ### Windows/Linux/MacOS 등 플랫폼 공통 방법 아래 방법 중 하나를 선택하세요. #### 1. pip를 통한 의존성 설치 1. Pytorch 및 의존성 모듈 설치, 이미 설치되어 있으면 생략. 참조: https://pytorch.org/get-started/locally/ ```bash pip install torch torchvision torchaudio ``` 2. win 시스템 + Nvidia Ampere 아키텍처(RTX30xx) 사용 시, #21의 사례에 따라 pytorch에 해당하는 cuda 버전을 지정 ```bash pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117 ``` 3. 자신의 그래픽 카드에 맞는 의존성 설치 - N카드 ```bash pip install -r requirements.txt ``` - A카드/I카드 ```bash pip install -r requirements-dml.txt ``` - A카드ROCM(Linux) ```bash pip install -r requirements-amd.txt ``` - I카드IPEX(Linux) ```bash pip install -r requirements-ipex.txt ``` #### 2. poetry를 통한 의존성 설치 Poetry 의존성 관리 도구 설치, 이미 설치된 경우 생략. 참조: https://python-poetry.org/docs/#installation ```bash curl -sSL https://install.python-poetry.org | python3 - ``` poetry를 통한 의존성 설치 ```bash poetry install ``` ### MacOS `run.sh`를 통해 의존성 설치 가능 ```bash sh ./run.sh ``` ## 기타 사전 훈련된 모델 준비 RVC는 추론과 훈련을 위해 다른 일부 사전 훈련된 모델이 필요합니다. 이러한 모델은 저희의 [Hugging Face space](https://huggingface.co/lj1995/VoiceConversionWebUI/tree/main/)에서 다운로드할 수 있습니다. ### 1. assets 다운로드 다음은 RVC에 필요한 모든 사전 훈련된 모델과 기타 파일의 목록입니다. `tools` 폴더에서 이들을 다운로드하는 스크립트를 찾을 수 있습니다. - ./assets/hubert/hubert_base.pt - ./assets/pretrained - ./assets/uvr5_weights v2 버전 모델을 사용하려면 추가로 다음을 다운로드해야 합니다. - ./assets/pretrained_v2 ### 2. ffmpeg 설치 ffmpeg와 ffprobe가 이미 설치되어 있다면 건너뜁니다. #### Ubuntu/Debian 사용자 ```bash sudo apt install ffmpeg ``` #### MacOS 사용자 ```bash brew install ffmpeg ``` #### Windows 사용자 다운로드 후 루트 디렉토리에 배치. - [ffmpeg.exe 다운로드](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffmpeg.exe) - [ffprobe.exe 다운로드](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffprobe.exe) ### 3. RMVPE 인간 음성 피치 추출 알고리즘에 필요한 파일 다운로드 최신 RMVPE 인간 음성 피치 추출 알고리즘을 사용하려면 음피치 추출 모델 매개변수를 다운로드하고 RVC 루트 디렉토리에 배치해야 합니다. - [rmvpe.pt 다운로드](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/rmvpe.pt) #### dml 환경의 RMVPE 다운로드(선택사항, A카드/I카드 사용자) - [rmvpe.onnx 다운로드](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/rmvpe.onnx) ### 4. AMD 그래픽 카드 Rocm(선택사항, Linux만 해당) Linux 시스템에서 AMD의 Rocm 기술을 기반으로 RVC를 실행하려면 [여기](https://rocm.docs.amd.com/en/latest/deploy/linux/os-native/install.html)에서 필요한 드라이버를 먼저 설치하세요. Arch Linux를 사용하는 경우 pacman을 사용하여 필요한 드라이버를 설치할 수 있습니다. ``` pacman -S rocm-hip-sdk rocm-opencl-sdk ``` 일부 모델의 그래픽 카드(예: RX6700XT)의 경우, 다음과 같은 환경 변수를 추가로 설정해야 할 수 있습니다. ``` export ROCM_PATH=/opt/rocm export HSA_OVERRIDE_GFX_VERSION=10.3.0 ``` 동시에 현재 사용자가 `render` 및 `video` 사용자 그룹에 속해 있는지 확인하세요. ``` sudo usermod -aG render $USERNAME sudo usermod -aG video $USERNAME ``` ## 시작하기 ### 직접 시작 다음 명령어로 WebUI를 시작하세요 ```bash python infer-web.py ``` ### 통합 패키지 사용 `RVC-beta.7z`를 다운로드하고 압축 해제 #### Windows 사용자 `go-web.bat` 더블 클릭 #### MacOS 사용자 ```bash sh ./run.sh ``` ### IPEX 기술이 필요한 I카드 사용자를 위한 지침(Linux만 해당) ```bash source /opt/intel/oneapi/setvars.sh ``` ## 참조 프로젝트 - [ContentVec](https://github.com/auspicious3000/contentvec/) - [VITS](https://github.com/jaywalnut310/vits) - [HIFIGAN](https://github.com/jik876/hifi-gan) - [Gradio](https://github.com/gradio-app/gradio) - [FFmpeg](https://github.com/FFmpeg/FFmpeg) - [Ultimate Vocal Remover](https://github.com/Anjok07/ultimatevocalremovergui) - [audio-slicer](https://github.com/openvpi/audio-slicer) - [Vocal pitch extraction:RMVPE](https://github.com/Dream-High/RMVPE) - 사전 훈련된 모델은 [yxlllc](https://github.com/yxlllc/RMVPE)와 [RVC-Boss](https://github.com/RVC-Boss)에 의해 훈련되고 테스트되었습니다. ## 모든 기여자들의 노력에 감사드립니다