File size: 1,291 Bytes
435799f
 
 
 
 
 
 
ea8be74
435799f
 
 
1ce49ca
2cfe77b
1ce49ca
 
b728562
 
 
 
 
 
 
 
60e69a2
b22544c
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
---
title: blog_creation
emoji: ✒️
colorFrom: green
colorTo: blue
sdk: streamlit
sdk_version: "1.42.1"
app_file: src/app.py
pinned: false
---

# LLM等を使用した要約生成 in Hugging Face Spaces

## 実行環境
[Hugging Face Spaces](https://huggingface.co/spaces/Hijiki-HF/blog_creation)

## ディレクトリ構成

```
.
├── Dockerfile
├── README.md
└── src
    └── app.py
```

## メモ
### モデルについて
- (2025/5/10)LLMをCPUで使用するのはかなり厳しい。gguf形式のものを適切に使用すれば可能かもしれないが、まずはt5などを使用する?
- LLMについて比較を行った結果
    - SakanaAI/TinySwallow-1.5B-Instruct(1.5Bということを考慮に入れるとgemma3以上?)
    -   gguf形式ならCPUでも推論可能なはず。だけどcolabで6分かかる、、、
    - google/gemma-3-4b-it(圧倒的。1bは英語のみ対応)
    - Rakuten/RakutenAI-2.0-mini-instruct(かなり良い)
    - rinna/gemma-2-baku-2b-it(そこそこ。実行方法が悪い?)
    - google/gemma-2-2b-jpn-it(同)
    - meta-llama/Llama-3.2-3B-Instruct(日本語対応してない)
    - microsoft/Phi-4-mini-instruct
    - lightblue/DeepSeek-R1-Distill-Qwen-1.5B-Multilingual