Spaces:
Sleeping
Sleeping
File size: 1,291 Bytes
435799f ea8be74 435799f 1ce49ca 2cfe77b 1ce49ca b728562 60e69a2 b22544c |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 |
---
title: blog_creation
emoji: ✒️
colorFrom: green
colorTo: blue
sdk: streamlit
sdk_version: "1.42.1"
app_file: src/app.py
pinned: false
---
# LLM等を使用した要約生成 in Hugging Face Spaces
## 実行環境
[Hugging Face Spaces](https://huggingface.co/spaces/Hijiki-HF/blog_creation)
## ディレクトリ構成
```
.
├── Dockerfile
├── README.md
└── src
└── app.py
```
## メモ
### モデルについて
- (2025/5/10)LLMをCPUで使用するのはかなり厳しい。gguf形式のものを適切に使用すれば可能かもしれないが、まずはt5などを使用する?
- LLMについて比較を行った結果
- SakanaAI/TinySwallow-1.5B-Instruct(1.5Bということを考慮に入れるとgemma3以上?)
- gguf形式ならCPUでも推論可能なはず。だけどcolabで6分かかる、、、
- google/gemma-3-4b-it(圧倒的。1bは英語のみ対応)
- Rakuten/RakutenAI-2.0-mini-instruct(かなり良い)
- rinna/gemma-2-baku-2b-it(そこそこ。実行方法が悪い?)
- google/gemma-2-2b-jpn-it(同)
- meta-llama/Llama-3.2-3B-Instruct(日本語対応してない)
- microsoft/Phi-4-mini-instruct
- lightblue/DeepSeek-R1-Distill-Qwen-1.5B-Multilingual
|