Retrieval-based-Voice-Conve.../docs/pt/README.pt.md

9.1 KiB
Raw Permalink Blame History

Retrieval-based-Voice-Conversion-WebUI

Uma estrutura de conversão de voz fácil de usar baseada em VITS.

madewithlove


RVC v1 RVC v2 Licence Huggingface

Discord


Changelog | FAQ (Frequently Asked Questions)

English | 中文简体 | 日本語 | 한국어 (韓國語) | Türkçe | Português

Confira nosso Vídeo de demonstração aqui!

Treinamento/Inferência WebUIgo-web.bat Traduzido

GUI de conversão de voz em tempo realgo-realtime-gui.bat image

O dataset para o modelo de pré-treinamento usa quase 50 horas de conjunto de dados de código aberto VCTK de alta qualidade.

Dataset de músicas licenciadas de alta qualidade serão adicionados ao conjunto de treinamento, um após o outro, para seu uso, sem se preocupar com violação de direitos autorais.

Aguarde o modelo básico pré-treinado do RVCv3, que possui parâmetros maiores, mais dados de treinamento, melhores resultados, velocidade de inferência inalterada e requer menos dados de treinamento para treinamento.

Resumo

Este repositório possui os seguintes recursos:

  • Reduza o vazamento de tom substituindo o recurso de origem pelo recurso de conjunto de treinamento usando a recuperação top1;
  • Treinamento fácil e rápido, mesmo em placas gráficas relativamente ruins;
  • Treinar com uma pequena quantidade de dados também obtém resultados relativamente bons (>=10min de áudio com baixo ruído recomendado);
  • Suporta fusão de modelos para alterar timbres (usando guia de processamento ckpt-> mesclagem ckpt);
  • Interface Webui fácil de usar;
  • Use o modelo UVR5 para separar rapidamente vocais e instrumentos.
  • Use o mais poderoso algoritmo de extração de voz de alta frequência InterSpeech2023-RMVPE para evitar o problema de som mudo. Fornece os melhores resultados (significativamente) e é mais rápido, com consumo de recursos ainda menor que o Crepe_full.
  • Suporta aceleração de placas gráficas AMD/Intel.
  • Aceleração de placas gráficas Intel ARC com suporte para IPEX.

Preparando o ambiente

Os comandos a seguir precisam ser executados no ambiente Python versão 3.8 ou superior.

(Windows/Linux) Primeiro instale as dependências principais através do pip:

# Instale as dependências principais relacionadas ao PyTorch, pule se instaladas
# Referência: https://pytorch.org/get-started/locally/
pip install torch torchvision torchaudio

#Para arquitetura Windows + Nvidia Ampere (RTX30xx), você precisa especificar a versão cuda correspondente ao pytorch de acordo com a experiência de https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/issues/ 21
#pip instalar tocha torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117

#Para placas Linux + AMD, você precisa usar as seguintes versões do pytorch:
#pip instalar tocha torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm5.4.2

Então pode usar poesia para instalar as outras dependências:

# Instale a ferramenta de gerenciamento de dependências Poetry, pule se instalada
# Referência: https://python-poetry.org/docs/#installation
curl -sSL https://install.python-poetry.org | python3 -

#Instale as dependências do projeto
poetry install

Você também pode usar pip para instalá-los:


for Nvidia graphics cards
  pip install -r requirements.txt

for AMD/Intel graphics cards on Windows (DirectML)
  pip install -r requirements-dml.txt

for Intel ARC graphics cards on Linux / WSL using Python 3.10: 
  pip install -r requirements-ipex.txt

for AMD graphics cards on Linux (ROCm):
  pip install -r requirements-amd.txt

Usuários de Mac podem instalar dependências via run.sh:

sh ./run.sh

Preparação de outros Pré-modelos

RVC requer outros pré-modelos para inferir e treinar.

#Baixe todos os modelos necessários em https://huggingface.co/lj1995/VoiceConversionWebUI/tree/main/
python tools/download_models.py

Ou apenas baixe-os você mesmo em nosso Huggingface space.

Aqui está uma lista de pré-modelos e outros arquivos que o RVC precisa:

./assets/hubert/hubert_base.pt

./assets/pretrained 

./assets/uvr5_weights

Downloads adicionais são necessários se você quiser testar a versão v2 do modelo.

./assets/pretrained_v2

Se você deseja testar o modelo da versão v2 (o modelo da versão v2 alterou a entrada do recurso dimensional 256 do Hubert + final_proj de 9 camadas para o recurso dimensional 768 do Hubert de 12 camadas e adicionou 3 discriminadores de período), você precisará baixar recursos adicionais

./assets/pretrained_v2

#Se você estiver usando Windows, também pode precisar desses dois arquivos, pule se FFmpeg e FFprobe estiverem instalados
ffmpeg.exe

https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffmpeg.exe

ffprobe.exe

https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffprobe.exe

Se quiser usar o algoritmo de extração de tom vocal SOTA RMVPE mais recente, você precisa baixar os pesos RMVPE e colocá-los no diretório raiz RVC

https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/rmvpe.pt

    Para usuários de placas gráficas AMD/Intel, você precisa baixar:

    https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/rmvpe.onnx

Os usuários de placas gráficas Intel ARC precisam executar o comando source /opt/intel/oneapi/setvars.sh antes de iniciar o Webui.

Em seguida, use este comando para iniciar o Webui:

python infer-web.py

Se estiver usando Windows ou macOS, você pode baixar e extrair RVC-beta.7z para usar RVC diretamente usando go-web.bat no Windows ou sh ./run.sh no macOS para iniciar o Webui.

Suporte ROCm para placas gráficas AMD (somente Linux)

Para usar o ROCm no Linux, instale todos os drivers necessários conforme descrito aqui.

No Arch use pacman para instalar o driver:

pacman -S rocm-hip-sdk rocm-opencl-sdk

Talvez você também precise definir estas variáveis de ambiente (por exemplo, em um RX6700XT):

export ROCM_PATH=/opt/rocm
export HSA_OVERRIDE_GFX_VERSION=10.3.0

Verifique também se seu usuário faz parte do grupo render e video:

sudo usermod -aG render $USERNAME
sudo usermod -aG video $USERNAME

Depois disso, você pode executar o WebUI:

python infer-web.py

Credits

Thanks to all contributors for their efforts