sjdnjn commited on
Commit
dd4c05a
·
verified ·
1 Parent(s): 811f8c7

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +1 -3
app.py CHANGED
@@ -43,8 +43,6 @@ def get_model_outputs(question_or_prompt, context, max_length=100):
43
  gen_result = generator1(full_prompt_for_gen, max_new_tokens=max_length, num_return_sequences=1, truncation=True)
44
  output_text_gen = gen_result[0]['generated_text']
45
  # 清理:移除输入部分,只保留生成内容
46
- # GPT2 默认的 tokenizer.clean_up_tokenization 的行为可能会有所不同。
47
- # 这里简单地从结果中截取输入之后的部分
48
  if output_text_gen.startswith(full_prompt_for_gen):
49
  output_text_gen = output_text_gen[len(full_prompt_for_gen):].strip()
50
  except Exception as e:
@@ -164,7 +162,7 @@ def create_report_tab():
164
  ### 1.2 模型用途对比简述
165
  我们选择了以下 2 个模型进行对比:
166
  * **模型 1: GPT2-Large (文本生成模型)**
167
- * **用途简述**: 作为一个大型的通用文本生成模型,GPT2-Large 能够进行开放式文本生成、续写、摘要、创意写作等多种任务。它能理解较复杂的指令并生成语法流畅、内容丰富的文本。
168
  * **模型 2: deepset/roberta-base-squad2 (抽取式问答模型)**
169
  * **用途简述**: 这是一个专门用于抽取式问答任务的模型。它接收一个问题和一段上下文文本,然后从上下文中找到并返回问题的确切答案片段。主要应用于精准信息提取、文档问答系统等。
170
 
 
43
  gen_result = generator1(full_prompt_for_gen, max_new_tokens=max_length, num_return_sequences=1, truncation=True)
44
  output_text_gen = gen_result[0]['generated_text']
45
  # 清理:移除输入部分,只保留生成内容
 
 
46
  if output_text_gen.startswith(full_prompt_for_gen):
47
  output_text_gen = output_text_gen[len(full_prompt_for_gen):].strip()
48
  except Exception as e:
 
162
  ### 1.2 模型用途对比简述
163
  我们选择了以下 2 个模型进行对比:
164
  * **模型 1: GPT2-Large (文本生成模型)**
165
+ * **用途简述**: 作为一个大型的通用文本生成模型, GPT2-Large 能够进行开放式文本生成、续写、摘要、创意写作等多种任务。它能理解较复杂的指令并生成语法流畅、内容丰富的文本。
166
  * **模型 2: deepset/roberta-base-squad2 (抽取式问答模型)**
167
  * **用途简述**: 这是一个专门用于抽取式问答任务的模型。它接收一个问题和一段上下文文本,然后从上下文中找到并返回问题的确切答案片段。主要应用于精准信息提取、文档问答系统等。
168