nyasukun commited on
Commit
7f7d91c
·
verified ·
1 Parent(s): 2ee9d24

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +5 -3
app.py CHANGED
@@ -4,12 +4,12 @@ from transformers import AutoTokenizer, pipeline
4
  import torch
5
 
6
  #model_name = "tiiuae/falcon-7b-instruct"
7
- model_name = "meta-llama/Llama-2-7b-hf"
8
 
9
  # トークナイザとテキスト生成パイプラインの準備
10
  tokenizer = AutoTokenizer.from_pretrained(model_name)
11
  generator = pipeline(
12
- "text-generation",
13
  model=model_name,
14
  tokenizer=tokenizer,
15
  torch_dtype=torch.bfloat16, # モデルをbfloat16精度でロード(メモリ節約)
@@ -22,7 +22,9 @@ generator = pipeline(
22
  def generate_text(prompt):
23
  # プロンプトからテキストを生成し、結果文字列を返す
24
  result = generator(prompt, max_new_tokens=100, do_sample=True)
25
- generated = result[0]["generated_text"]
 
 
26
  return generated
27
 
28
  # Gradioインタフェースの構築(テキスト入力→テキスト出力)
 
4
  import torch
5
 
6
  #model_name = "tiiuae/falcon-7b-instruct"
7
+ model_name = "unitary/toxic-bert"
8
 
9
  # トークナイザとテキスト生成パイプラインの準備
10
  tokenizer = AutoTokenizer.from_pretrained(model_name)
11
  generator = pipeline(
12
+ "text-classification",
13
  model=model_name,
14
  tokenizer=tokenizer,
15
  torch_dtype=torch.bfloat16, # モデルをbfloat16精度でロード(メモリ節約)
 
22
  def generate_text(prompt):
23
  # プロンプトからテキストを生成し、結果文字列を返す
24
  result = generator(prompt, max_new_tokens=100, do_sample=True)
25
+ #generated = result[0]["generated_text"]
26
+ generated = result
27
+
28
  return generated
29
 
30
  # Gradioインタフェースの構築(テキスト入力→テキスト出力)