### 2023-10-06 - Criamos uma GUI para alteração de voz em tempo real: go-realtime-gui.bat/gui_v1.py (observe que você deve escolher o mesmo tipo de dispositivo de entrada e saída, por exemplo, MME e MME). - Treinamos um modelo RMVPE de extração de pitch melhor. - Otimizar o layout da GUI de inferência. ### 2023-08-13 1-Correção de bug regular - Alterar o número total mínimo de épocas para 1 e alterar o número total mínimo de epoch para 2 - Correção de erros de treinamento por não usar modelos de pré-treinamento - Após a separação dos vocais de acompanhamento, limpe a memória dos gráficos - Alterar o caminho absoluto do faiss save para o caminho relativo - Suporte a caminhos com espaços (tanto o caminho do conjunto de treinamento quanto o nome do experimento são suportados, e os erros não serão mais relatados) - A lista de arquivos cancela a codificação utf8 obrigatória - Resolver o problema de consumo de CPU causado pela busca do faiss durante alterações de voz em tempo real Atualizações do 2-Key - Treine o modelo de extração de pitch vocal de código aberto mais forte do momento, o RMVPE, e use-o para treinamento de RVC, inferência off-line/em tempo real, com suporte a PyTorch/Onnx/DirectML - Suporte para placas gráficas AMD e Intel por meio do Pytorch_DML (1) Mudança de voz em tempo real (2) Inferência (3) Separação do acompanhamento vocal (4) Não há suporte para treinamento no momento, mudaremos para treinamento de CPU; há suporte para inferência RMVPE de gpu por Onnx_Dml ### 2023-06-18 - Novos modelos v2 pré-treinados: 32k e 48k - Correção de erros de inferência de modelo não-f0 - Para conjuntos de treinamento que excedam 1 hora, faça minibatch-kmeans automáticos para reduzir a forma dos recursos, de modo que o treinamento, a adição e a pesquisa do Index sejam muito mais rápidos. - Fornecer um espaço de brinquedo vocal2guitar huggingface - Exclusão automática de áudios de conjunto de treinamento de atalhos discrepantes - Guia de exportação Onnx Experimentos com falha: - ~~Recuperação de recurso: adicionar recuperação de recurso temporal: não eficaz~~ - ~~Recuperação de recursos: adicionar redução de dimensionalidade PCAR: a busca é ainda mais lenta~~ - ~~Aumento de dados aleatórios durante o treinamento: não é eficaz~~ Lista de tarefas: - ~~Vocos-RVC (vocoder minúsculo): não é eficaz~~ - ~~Suporte de crepe para treinamento: substituído pelo RMVPE~~ - ~~Inferência de crepe de meia precisão:substituída pelo RMVPE. E difícil de conseguir.~~ - Suporte ao editor de F0 ### 2023-05-28 - Adicionar notebook jupyter v2, changelog em coreano, corrigir alguns requisitos de ambiente - Adicionar consoante sem voz e modo de proteção de respiração - Suporte à detecção de pitch crepe-full - Separação vocal UVR5: suporte a modelos dereverb e modelos de-echo - Adicionar nome e versão do experimento no nome do Index - Suporte aos usuários para selecionar manualmente o formato de exportação dos áudios de saída durante o processamento de conversão de voz em lote e a separação vocal UVR5 - Não há mais suporte para o treinamento do modelo v1 32k ### 2023-05-13 - Limpar os códigos redundantes na versão antiga do tempo de execução no pacote de um clique: lib.infer_pack e uvr5_pack - Correção do bug de pseudo multiprocessamento no pré-processamento do conjunto de treinamento - Adição do ajuste do raio de filtragem mediana para o algoritmo de reconhecimento de inclinação da extração - Suporte à reamostragem de pós-processamento para exportação de áudio - A configuração "n_cpu" de multiprocessamento para treinamento foi alterada de "extração de f0" para "pré-processamento de dados e extração de f0" - Detectar automaticamente os caminhos de Index na pasta de registros e fornecer uma função de lista suspensa - Adicionar "Perguntas e respostas frequentes" na página da guia (você também pode consultar o wiki do RVC no github) - Durante a inferência, o pitch da colheita é armazenado em cache quando se usa o mesmo caminho de áudio de entrada (finalidade: usando a extração do pitch da colheita, todo o pipeline passará por um processo longo e repetitivo de extração do pitch. Se o armazenamento em cache não for usado, os usuários que experimentarem diferentes configurações de raio de filtragem de timbre, Index e mediana de pitch terão um processo de espera muito doloroso após a primeira inferência) ### 2023-05-14 - Use o envelope de volume da entrada para misturar ou substituir o envelope de volume da saída (pode aliviar o problema de "muting de entrada e ruído de pequena amplitude de saída"). Se o ruído de fundo do áudio de entrada for alto, não é recomendável ativá-lo, e ele não é ativado por padrão (1 pode ser considerado como não ativado) - Suporte ao salvamento de modelos pequenos extraídos em uma frequência especificada (se você quiser ver o desempenho em épocas diferentes, mas não quiser salvar todos os pontos de verificação grandes e extrair manualmente modelos pequenos pelo processamento ckpt todas as vezes, esse recurso será muito prático) - Resolver o problema de "erros de conexão" causados pelo proxy global do servidor, definindo variáveis de ambiente - Oferece suporte a modelos v2 pré-treinados (atualmente, apenas as versões 40k estão disponíveis publicamente para teste e as outras duas taxas de amostragem ainda não foram totalmente treinadas) - Limita o volume excessivo que excede 1 antes da inferência - Ajustou ligeiramente as configurações do pré-processamento do conjunto de treinamento ####################### Histórico de registros de alterações: ### 2023-04-09 - Parâmetros de treinamento corrigidos para melhorar a taxa de utilização da GPU: A100 aumentou de 25% para cerca de 90%, V100: 50% para cerca de 90%, 2060S: 60% para cerca de 85%, P40: 25% para cerca de 95%; melhorou significativamente a velocidade de treinamento - Parâmetro alterado: total batch_size agora é por GPU batch_size - Total_epoch alterado: limite máximo aumentado de 100 para 1000; padrão aumentado de 10 para 20 - Corrigido o problema da extração de ckpt que reconhecia o pitch incorretamente, causando inferência anormal - Corrigido o problema do treinamento distribuído que salvava o ckpt para cada classificação - Aplicada a filtragem de recursos nan para extração de recursos - Corrigido o problema com a entrada/saída silenciosa que produzia consoantes aleatórias ou ruído (os modelos antigos precisavam ser treinados novamente com um novo conjunto de dados) ### Atualização 2023-04-16 - Adicionada uma mini-GUI de alteração de voz local em tempo real, iniciada com um clique duplo em go-realtime-gui.bat - Filtragem aplicada para bandas de frequência abaixo de 50 Hz durante o treinamento e a inferência - Diminuição da extração mínima de tom do pyworld do padrão 80 para 50 para treinamento e inferência, permitindo que vozes masculinas de tom baixo entre 50-80 Hz não sejam silenciadas - A WebUI suporta a alteração de idiomas de acordo com a localidade do sistema (atualmente suporta en_US, ja_JP, zh_CN, zh_HK, zh_SG, zh_TW; o padrão é en_US se não for suportado) - Correção do reconhecimento de algumas GPUs (por exemplo, falha no reconhecimento da V100-16G, falha no reconhecimento da P4) ### Atualização de 2023-04-28 - Atualizadas as configurações do Index faiss para maior velocidade e qualidade - Removida a dependência do total_npy; o futuro compartilhamento de modelos não exigirá a entrada do total_npy - Restrições desbloqueadas para as GPUs da série 16, fornecendo configurações de inferência de 4 GB para GPUs com VRAM de 4 GB - Corrigido o erro na separação do acompanhamento vocal do UVR5 para determinados formatos de áudio - A mini-GUI de alteração de voz em tempo real agora suporta modelos de pitch não 40k e que não são lentos ### Planos futuros: Recursos: - Opção de adição: extrair modelos pequenos para cada epoch salvo - Adicionar opção: exportar mp3 adicional para o caminho especificado durante a inferência - Suporte à guia de treinamento para várias pessoas (até 4 pessoas) Modelo básico: - Coletar arquivos wav de respiração para adicionar ao conjunto de dados de treinamento para corrigir o problema de sons de respiração distorcidos - No momento, estamos treinando um modelo básico com um conjunto de dados de canto estendido, que será lançado no futuro