From 196d62c5f20a150d5044a78e6ee61a7d8c12494b Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=E6=BA=90=E6=96=87=E9=9B=A8?= <41315874+fumiama@users.noreply.github.com> Date: Fri, 14 Apr 2023 14:59:05 +0800 Subject: [PATCH] =?UTF-8?q?=E6=B6=A6=E8=89=B2README=E5=8F=8A=E5=85=B6?= =?UTF-8?q?=E6=97=A5=E6=96=87=E7=BF=BB=E8=AF=91=20(#52)?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit * 润色日文翻译 * 润色中文README * kill katakana * Update README.ja.md --- README.ja.md | 74 +++++++++++++++++++++++++++------------------------- README.md | 45 ++++++++++++++++---------------- 2 files changed, 61 insertions(+), 58 deletions(-) diff --git a/README.ja.md b/README.ja.md index acdacef..62473ab 100644 --- a/README.ja.md +++ b/README.ja.md @@ -1,7 +1,7 @@

Retrieval-based-Voice-Conversion-WebUI

-使いやすいVITSベースの音声変換(ボイスチェンジャー)フレームワーク

+VITSに基づく使いやすい音声変換(voice changer)framework

[![madewithlove](https://forthebadge.com/images/badges/built-with-love.svg)](https://github.com/liujing04/Retrieval-based-Voice-Conversion-WebUI) @@ -15,58 +15,62 @@ ------ -[**ChangeLog**](https://github.com/liujing04/Retrieval-based-Voice-Conversion-WebUI/blob/main/Changelog_CN.md) +[**更新日誌**](https://github.com/liujing04/Retrieval-based-Voice-Conversion-WebUI/blob/main/Changelog_CN.md) [**English**](./README.en.md) | [**中文简体**](./README.md) | [**日本語**](./README.ja.md) -> [デモ映像](https://www.bilibili.com/video/BV1pm4y1z7Gm/)はこちらからご覧いただけます +> demo動画は[こちら](https://www.bilibili.com/video/BV1pm4y1z7Gm/)でご覧してくでさい -> RVCによるリアルタイム音声変換: [w-okada/voice-changer](https://github.com/w-okada/voice-changer) +> RVCによる実時間音声変換: [w-okada/voice-changer](https://github.com/w-okada/voice-changer) + +> 基底modelを訓練(training)したのは、約50時間の高品質開源(open source)資料集(dataset)VCTK。著作権侵害を心配することなく使用できるように。 + +> 今後は次々と使用許可のある高品質歌声資料集を追加し、基底modelを訓練する。 ## はじめに -本リポジトリには以下の特徴がある: -+ top1検索を利用して、ソース特徴量をトレーニングセット特徴量に置き換えることで、トーンリークを低減する; -+ 比較的貧弱なグラフィックカードでも、簡単かつ高速にトレーニングできる; -+ 少量のデータで比較的良好な結果が得られる(10分以上の低ノイズ音声を推奨); -+ 音色を変えるためのモデルマージをサポート(ckpt processingタブ->ckpt mergeを使用); -+ 使いやすいWebuiインターフェース; -+ ボーカルと楽器を素早く分割するために、UVR5モデルを使用することができます。 -+ 事前学習モデルのデータセットには、約50時間に及ぶ高品質なVCTKオープンソースデータセットが使用されており、著作権侵害を心配することなく使用できるよう、高品質なライセンス楽曲データセットが次々とトレーニングセットに追加されます。 -## 環境構築 -poetryで依存関係をインストールすることをお勧めします。 +本repoは下記の特性があります -以下のコマンドは、Python3.8以上の環境下で実行する必要があります: ++ 調子(tone)の漏洩が下がれるためtop1検索で源特徴量を訓練集特徴量に置換 ++ 古い又は安いGPUにでも高速に訓練できる ++ 小さい訓練集でもかなりいいmodelを得られる(10分以上の低noise音声を推奨) ++ modelを融合し音色をmergeできる(ckpt processing->ckpt mergeで使用) ++ 使いやすいWebUI ++ UVR5 Modelも含めるため人声とBGMを素早く分離できる + +## 環境構築 +poetryで依存関係をinstallすることをお勧めします。 + +下記のcommandsは、Python3.8以上の環境で実行する必要があります: ```bash -# PyTorch関連の依存関係をインストール。インストール済の場合はスキップ +# PyTorch関連の依存関係をinstall。install済の場合はskip # 参照先: https://pytorch.org/get-started/locally/ pip install torch torchvision torchaudio -#Windows+ Nvidia Ampere Architecture(RTX30xx)の場合、https://github.com/liujing04/Retrieval-based-Voice-Conversion-WebUI/issues/21 のissueに従い、pytorchに対応するcudaバージョンを指定する必要があります。 +#Windows+ Nvidia Ampere Architecture(RTX30xx)の場合、 #21 に従い、pytorchに対応するcuda versionを指定する必要があります。 +#pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117 -pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117 - -# PyTorch関連の依存関係をインストール。インストール済の場合はスキップ +# PyTorch関連の依存関係をinstall。install済の場合はskip # 参照先: https://python-poetry.org/docs/#installation curl -sSL https://install.python-poetry.org | python3 - -# Poetry経由で依存関係をインストール +# Poetry経由で依存関係をinstall poetry install ``` -pipでも依存関係のインストールが可能です: +pipでも依存関係のinstallが可能です: -**注意**:`faiss 1.7.2`は`macOS`で`Segmentation Fault: 11`が発生するので、`requirements.txt`の該当行を `faiss-cpu==1.7.0`に変更してください。 +**注意**:`faiss 1.7.2`は`macOS`で`Segmentation Fault: 11`を起こすので、`requirements.txt`の該当行を `faiss-cpu==1.7.0`に変更してください。 ```bash pip install -r requirements.txt ``` -## その他モデル前の準備 -RVCは推論と訓練のために、他の多くのPre Trained Modelを必要とします。 +## 基底modelsを準備 +RVCは推理・訓練のために色んな事前訓練した基底modelsが必要。 -これらのモデルは[Hugging Face space](https://huggingface.co/lj1995/VoiceConversionWebUI/tree/main/)から取得することが可能です。 +modelsは[Hugging Face space](https://huggingface.co/lj1995/VoiceConversionWebUI/tree/main/)からdownloadできる。 -以下は、RVCに必要なPre Trained Modelやその他のファイルの一覧です。 +以下は、RVCに必要な基底modelsやその他のfilesの一覧です。 ```bash hubert_base.pt @@ -74,20 +78,18 @@ hubert_base.pt ./uvr5_weights -# ffmpegがすでにインストールされている場合はスキップ。 +# ffmpegがすでにinstallされている場合はskip ./ffmpeg ``` -その後、以下のコマンドでWebuiを起動 +その後、下記のcommandでWebUIを起動 ```bash python infer-web.py ``` -Windowsをお使いの方は、直接`RVC-beta.7z`をダウンロードして解凍してRVCを使い、`go-web.bat`を実行してWebUIを起動することができます。 +Windowsをお使いの方は、直接に`RVC-beta.7z`をdownload・解凍して、`go-web.bat`をclickでWebUIを起動できる。 -WebUIの英語版は2週間ほどで公開する予定です。 +また、repoに[小白简易教程.doc](./小白简易教程.doc)がありますので、参考にしてください(中国語版のみ)。 -また、リポジトリに[小白简易教程.doc](./小白简易教程.doc)がありますので、参考にしてください。 - -## 参考資料等 +## 参考したprojects + [ContentVec](https://github.com/auspicious3000/contentvec/) + [VITS](https://github.com/jaywalnut310/vits) + [HIFIGAN](https://github.com/jik876/hifi-gan) @@ -95,8 +97,8 @@ WebUIの英語版は2週間ほどで公開する予定です。 + [FFmpeg](https://github.com/FFmpeg/FFmpeg) + [Ultimate Vocal Remover](https://github.com/Anjok07/ultimatevocalremovergui) + [audio-slicer](https://github.com/openvpi/audio-slicer) -## コントリビュータの皆様の尽力に感謝します + +## 貢献者(contributer)皆様のご協力を感謝して致します - diff --git a/README.md b/README.md index 3ed6990..4e3cf61 100644 --- a/README.md +++ b/README.md @@ -23,27 +23,30 @@ > 使用了RVC的实时语音转换: [w-okada/voice-changer](https://github.com/w-okada/voice-changer) -## 简介 -本仓库具有以下特点: -+ 通过使用top1检索替换输入源特征为训练集特征来杜绝音色泄漏; -+ 即便在相对较差的显卡上也能快速训练; -+ 使用少量数据进行训练也能得到较好结果(推荐至少收集10分钟低底噪语音数据); -+ 可以通过模型融合来改变音色(借助ckpt处理选项卡中的ckpt-merge); -+ 简单易用的WebUI界面; -+ 可调用UVR5模型来快速分离人声和伴奏。 -+ 底模训练集使用接近50小时开源的高质量VCTK,后续会陆续加入高质量有授权歌声训练集训练底模供大家放心使用。 -## 环境配置 -我们推荐你使用poetry来配置环境。 +> 底模使用接近50小时的开源高质量VCTK训练集训练,无版权方面的顾虑,请大家放心使用 -以下指令需在Python版本大于3.8的环境当中执行: +> 后续会陆续加入高质量有授权歌声训练集训练底模 + +## 简介 +本仓库具有以下特点 ++ 使用top1检索替换输入源特征为训练集特征来杜绝音色泄漏 ++ 即便在相对较差的显卡上也能快速训练 ++ 使用少量数据进行训练也能得到较好结果(推荐至少收集10分钟低底噪语音数据) ++ 可以通过模型融合来改变音色(借助ckpt处理选项卡中的ckpt-merge) ++ 简单易用的网页界面 ++ 可调用UVR5模型来快速分离人声和伴奏 + +## 环境配置 +推荐使用poetry配置环境。 + +以下指令需在Python版本大于3.8的环境中执行: ```bash # 安装Pytorch及其核心依赖,若已安装则跳过 # 参考自: https://pytorch.org/get-started/locally/ pip install torch torchvision torchaudio -#如果是win系统+Nvidia Ampere架构(RTX30xx),根据https://github.com/liujing04/Retrieval-based-Voice-Conversion-WebUI/issues/21的经验,需要指定pytorch对应的cuda版本 - -pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117 +#如果是win系统+Nvidia Ampere架构(RTX30xx),根据 #21 的经验,需要指定pytorch对应的cuda版本 +#pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117 # 安装 Poetry 依赖管理工具, 若已安装则跳过 # 参考自: https://python-poetry.org/docs/#installation @@ -62,7 +65,7 @@ pip install -r requirements.txt ``` ## 其他预模型准备 -RVC需要其他的一些预模型来推理和训练。 +RVC需要其他一些预模型来推理和训练。 你可以从我们的[Hugging Face space](https://huggingface.co/lj1995/VoiceConversionWebUI/tree/main/)下载到这些模型。 @@ -74,16 +77,14 @@ hubert_base.pt ./uvr5_weights -#如果你正在使用Windows,则你可能需要这个文件夹,若FFmpeg已安装则跳过 +#如果你正在使用Windows,则你可能需要这个文件,若ffmpeg已安装则跳过 ./ffmpeg ``` -之后使用以下指令来调用Webui: +之后使用以下指令来启动WebUI: ```bash python infer-web.py ``` -如果你正在使用Windows,你可以直接下载并解压`RVC-beta.7z` 来使用RVC,运行`go-web.bat`来启动WebUI。 - -我们将在两周内推出一个英文版本的WebUI. +如果你正在使用Windows,你可以直接下载并解压`RVC-beta.7z`,运行`go-web.bat`以启动WebUI。 仓库内还有一份`小白简易教程.doc`以供参考。 @@ -95,8 +96,8 @@ python infer-web.py + [FFmpeg](https://github.com/FFmpeg/FFmpeg) + [Ultimate Vocal Remover](https://github.com/Anjok07/ultimatevocalremovergui) + [audio-slicer](https://github.com/openvpi/audio-slicer) + ## 感谢所有贡献者作出的努力 -