Spaces:
Sleeping
Sleeping
title: blog_creation | |
emoji: ✒️ | |
colorFrom: green | |
colorTo: blue | |
sdk: streamlit | |
sdk_version: "1.42.1" | |
app_file: src/app.py | |
pinned: false | |
# LLM等を使用した要約生成 in Hugging Face Spaces | |
## 実行環境 | |
[Hugging Face Spaces](https://huggingface.co/spaces/Hijiki-HF/blog_creation) | |
## ディレクトリ構成 | |
``` | |
. | |
├── Dockerfile | |
├── README.md | |
└── src | |
└── app.py | |
``` | |
## メモ | |
### モデルについて | |
- (2025/5/10)LLMをCPUで使用するのはかなり厳しい。gguf形式のものを適切に使用すれば可能かもしれないが、まずはt5などを使用する? | |
- LLMについて比較を行った結果 | |
- SakanaAI/TinySwallow-1.5B-Instruct(1.5Bということを考慮に入れるとgemma3以上?) | |
- gguf形式ならCPUでも推論可能なはず。だけどcolabで6分かかる、、、 | |
- google/gemma-3-4b-it(圧倒的。1bは英語のみ対応) | |
- Rakuten/RakutenAI-2.0-mini-instruct(かなり良い) | |
- rinna/gemma-2-baku-2b-it(そこそこ。実行方法が悪い?) | |
- google/gemma-2-2b-jpn-it(同) | |
- meta-llama/Llama-3.2-3B-Instruct(日本語対応してない) | |
- microsoft/Phi-4-mini-instruct | |
- lightblue/DeepSeek-R1-Distill-Qwen-1.5B-Multilingual | |