Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -4,12 +4,12 @@ from transformers import AutoTokenizer, pipeline
|
|
4 |
import torch
|
5 |
|
6 |
#model_name = "tiiuae/falcon-7b-instruct"
|
7 |
-
model_name = "
|
8 |
|
9 |
# トークナイザとテキスト生成パイプラインの準備
|
10 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
11 |
generator = pipeline(
|
12 |
-
"text-
|
13 |
model=model_name,
|
14 |
tokenizer=tokenizer,
|
15 |
torch_dtype=torch.bfloat16, # モデルをbfloat16精度でロード(メモリ節約)
|
@@ -22,7 +22,9 @@ generator = pipeline(
|
|
22 |
def generate_text(prompt):
|
23 |
# プロンプトからテキストを生成し、結果文字列を返す
|
24 |
result = generator(prompt, max_new_tokens=100, do_sample=True)
|
25 |
-
generated = result[0]["generated_text"]
|
|
|
|
|
26 |
return generated
|
27 |
|
28 |
# Gradioインタフェースの構築(テキスト入力→テキスト出力)
|
|
|
4 |
import torch
|
5 |
|
6 |
#model_name = "tiiuae/falcon-7b-instruct"
|
7 |
+
model_name = "unitary/toxic-bert"
|
8 |
|
9 |
# トークナイザとテキスト生成パイプラインの準備
|
10 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
11 |
generator = pipeline(
|
12 |
+
"text-classification",
|
13 |
model=model_name,
|
14 |
tokenizer=tokenizer,
|
15 |
torch_dtype=torch.bfloat16, # モデルをbfloat16精度でロード(メモリ節約)
|
|
|
22 |
def generate_text(prompt):
|
23 |
# プロンプトからテキストを生成し、結果文字列を返す
|
24 |
result = generator(prompt, max_new_tokens=100, do_sample=True)
|
25 |
+
#generated = result[0]["generated_text"]
|
26 |
+
generated = result
|
27 |
+
|
28 |
return generated
|
29 |
|
30 |
# Gradioインタフェースの構築(テキスト入力→テキスト出力)
|