| # エージェントの開始 | |
| !!! note | |
| もしあなたがネイティブ・スピーカーで、翻訳に問題があるとお感じでしたら、issueかpull requestをお送りください! | |
| ## 要件 | |
| - GPUメモリ: 最低8GB(量子化使用時)、16GB以上推奨 | |
| - ディスク使用量: 10GB | |
| ## モデルのダウンロード | |
| 以下のコマンドでモデルを取得できます: | |
| ```bash | |
| huggingface-cli download fishaudio/fish-agent-v0.1-3b --local-dir checkpoints/fish-agent-v0.1-3b | |
| ``` | |
| これらを'checkpoints'フォルダに配置してください。 | |
| また、[inference](inference.md)の手順に従ってfish-speechモデルもダウンロードする必要があります。 | |
| checkpointsには2つのフォルダが必要です。 | |
| `checkpoints/fish-speech-1.4`と`checkpoints/fish-agent-v0.1-3b`です。 | |
| ## 環境準備 | |
| すでにFish-speechをお持ちの場合は、以下の指示を追加するだけで直接使用できます: | |
| ```bash | |
| pip install cachetools | |
| ``` | |
| !!! note | |
| コンパイルにはPythonバージョン3.12未満を使用してください。 | |
| お持ちでない場合は、以下のコマンドで環境を構築してください: | |
| ```bash | |
| sudo apt-get install portaudio19-dev | |
| pip install -e .[stable] | |
| ``` | |
| ## エージェントデモの起動 | |
| fish-agentを構築するには、メインフォルダで以下のコマンドを使用してください: | |
| ```bash | |
| python -m tools.api_server --llama-checkpoint-path checkpoints/fish-agent-v0.1-3b/ --mode agent --compile | |
| ``` | |
| `--compile`引数はPython < 3.12でのみサポートされており、トークン生成を大幅に高速化します。 | |
| 一度にコンパイルは行われません(覚えておいてください)。 | |
| 次に、別のターミナルを開いて以下のコマンドを使用します: | |
| ```bash | |
| python -m tools.e2e_webui | |
| ``` | |
| これにより、デバイス上にGradio WebUIが作成されます。 | |
| モデルを初めて使用する際は、(`--compile`がTrueの場合)しばらくコンパイルが行われますので、お待ちください。 | |
| ## Gradio Webui | |
| <p align="center"> | |
| <img src="../../assets/figs/agent_gradio.png" width="75%"> | |
| </p> | |
| お楽しみください! | |
| ## パフォーマンス | |
| テストでは、4060搭載のラップトップではかろうじて動作しますが、非常に厳しい状態で、約8トークン/秒程度です。4090ではコンパイル時に約95トークン/秒で、これが推奨環境です。 | |
| # エージェントについて | |
| このデモは初期アルファテストバージョンで、推論速度の最適化が必要で、修正を待つバグが多数あります。バグを発見した場合や修正したい場合は、issueやプルリクエストをいただけると大変嬉しく思います。 | |