Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -43,8 +43,6 @@ def get_model_outputs(question_or_prompt, context, max_length=100):
|
|
43 |
gen_result = generator1(full_prompt_for_gen, max_new_tokens=max_length, num_return_sequences=1, truncation=True)
|
44 |
output_text_gen = gen_result[0]['generated_text']
|
45 |
# 清理:移除输入部分,只保留生成内容
|
46 |
-
# GPT2 默认的 tokenizer.clean_up_tokenization 的行为可能会有所不同。
|
47 |
-
# 这里简单地从结果中截取输入之后的部分
|
48 |
if output_text_gen.startswith(full_prompt_for_gen):
|
49 |
output_text_gen = output_text_gen[len(full_prompt_for_gen):].strip()
|
50 |
except Exception as e:
|
@@ -164,7 +162,7 @@ def create_report_tab():
|
|
164 |
### 1.2 模型用途对比简述
|
165 |
我们选择了以下 2 个模型进行对比:
|
166 |
* **模型 1: GPT2-Large (文本生成模型)**
|
167 |
-
* **用途简述**:
|
168 |
* **模型 2: deepset/roberta-base-squad2 (抽取式问答模型)**
|
169 |
* **用途简述**: 这是一个专门用于抽取式问答任务的模型。它接收一个问题和一段上下文文本,然后从上下文中找到并返回问题的确切答案片段。主要应用于精准信息提取、文档问答系统等。
|
170 |
|
|
|
43 |
gen_result = generator1(full_prompt_for_gen, max_new_tokens=max_length, num_return_sequences=1, truncation=True)
|
44 |
output_text_gen = gen_result[0]['generated_text']
|
45 |
# 清理:移除输入部分,只保留生成内容
|
|
|
|
|
46 |
if output_text_gen.startswith(full_prompt_for_gen):
|
47 |
output_text_gen = output_text_gen[len(full_prompt_for_gen):].strip()
|
48 |
except Exception as e:
|
|
|
162 |
### 1.2 模型用途对比简述
|
163 |
我们选择了以下 2 个模型进行对比:
|
164 |
* **模型 1: GPT2-Large (文本生成模型)**
|
165 |
+
* **用途简述**: 作为一个大型的通用文本生成模型, GPT2-Large 能够进行开放式文本生成、续写、摘要、创意写作等多种任务。它能理解较复杂的指令并生成语法流畅、内容丰富的文本。
|
166 |
* **模型 2: deepset/roberta-base-squad2 (抽取式问答模型)**
|
167 |
* **用途简述**: 这是一个专门用于抽取式问答任务的模型。它接收一个问题和一段上下文文本,然后从上下文中找到并返回问题的确切答案片段。主要应用于精准信息提取、文档问答系统等。
|
168 |
|