Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -149,8 +149,6 @@ def create_report_tab():
|
|
149 |
report_content_markdown = """
|
150 |
# 🚀 Hugging Face 模型对比实验报告
|
151 |
|
152 |
-
---
|
153 |
-
|
154 |
## 1. 模型及类别选择
|
155 |
|
156 |
### 1.1 所选模型的类型与背景说明
|
@@ -162,7 +160,7 @@ def create_report_tab():
|
|
162 |
### 1.2 模型用途对比简述
|
163 |
我们选择了以下 2 个模型进行对比:
|
164 |
* **模型 1: GPT2-Large (文本生成模型)**
|
165 |
-
* **用途简述**:
|
166 |
* **模型 2: deepset/roberta-base-squad2 (抽取式问答模型)**
|
167 |
* **用途简述**: 这是一个专门用于抽取式问答任务的模型。它接收一个问题和一段上下文文本,然后从上下文中找到并返回问题的确切答案片段。主要应用于精准信息提取、文档问答系统等。
|
168 |
|
@@ -181,7 +179,7 @@ def create_report_tab():
|
|
181 |
* **任务类型**: GPT2-Large 专注于**文本生成**(从无到有),而 RoBERTa-SQuAD2 专注于**信息抽取**(从已有文本中找)。
|
182 |
* **输入输出模式**:
|
183 |
* GPT2-Large 接收一个提示词,输出一段新的、连贯的文本。
|
184 |
-
* RoBERTa-SQuAD2
|
185 |
* **“创造性”**: GPT2-Large 具有更强的创造性,能够生成新的、未曾出现过的句子和想法;RoBERTa-SQuAD2 不具备创造性,它只从原文中抽取答案。
|
186 |
* **对上下文的依赖**: 问答模型对上下文的依赖性极强,没有上下文就无法回答;文本生成模型则更灵活,即便没有明确上下文也能生成内容。
|
187 |
|
@@ -192,7 +190,7 @@ def create_report_tab():
|
|
192 |
### 2.1 Gradio 交互界面截图
|
193 |
|
194 |
以下是我们在 Hugging Face Space 中构建的 Gradio 交互界面截图。
|
195 |
-
|
196 |
*(请将此处的图片链接替换为你实际上传到 Space Files 中的截图链接,例如:`/file/main/arena_screenshot.png`)*
|
197 |
*说明:此图展示了我们构建的“Arena”选项卡界面。用户可以在左侧输入问题/提示词和上下文,右侧同步显示文本生成模型和问答模型的输出。*
|
198 |
|
|
|
149 |
report_content_markdown = """
|
150 |
# 🚀 Hugging Face 模型对比实验报告
|
151 |
|
|
|
|
|
152 |
## 1. 模型及类别选择
|
153 |
|
154 |
### 1.1 所选模型的类型与背景说明
|
|
|
160 |
### 1.2 模型用途对比简述
|
161 |
我们选择了以下 2 个模型进行对比:
|
162 |
* **模型 1: GPT2-Large (文本生成模型)**
|
163 |
+
* **用途简述**: 作为一个大型的通用文本生成模型,GPT2-Large 能够进行开放式文本生成、续写、摘要、创意写作等多种任务。它能理解较复杂的指令并生成语法流畅、内容丰富的文本。
|
164 |
* **模型 2: deepset/roberta-base-squad2 (抽取式问答模型)**
|
165 |
* **用途简述**: 这是一个专门用于抽取式问答任务的模型。它接收一个问题和一段上下文文本,然后从上下文中找到并返回问题的确切答案片段。主要应用于精准信息提取、文档问答系统等。
|
166 |
|
|
|
179 |
* **任务类型**: GPT2-Large 专注于**文本生成**(从无到有),而 RoBERTa-SQuAD2 专注于**信息抽取**(从已有文本中找)。
|
180 |
* **输入输出模式**:
|
181 |
* GPT2-Large 接收一个提示词,输出一段新的、连贯的文本。
|
182 |
+
* RoBERTa-SQuAD2 接收一个问题和一段上下文,输出上下文中精确的答案片段。
|
183 |
* **“创造性”**: GPT2-Large 具有更强的创造性,能够生成新的、未曾出现过的句子和想法;RoBERTa-SQuAD2 不具备创造性,它只从原文中抽取答案。
|
184 |
* **对上下文的依赖**: 问答模型对上下文的依赖性极强,没有上下文就无法回答;文本生成模型则更灵活,即便没有明确上下文也能生成内容。
|
185 |
|
|
|
190 |
### 2.1 Gradio 交互界面截图
|
191 |
|
192 |
以下是我们在 Hugging Face Space 中构建的 Gradio 交互界面截图。
|
193 |
+
[Image of Gradio Arena 界面截图]
|
194 |
*(请将此处的图片链接替换为你实际上传到 Space Files 中的截图链接,例如:`/file/main/arena_screenshot.png`)*
|
195 |
*说明:此图展示了我们构建的“Arena”选项卡界面。用户可以在左侧输入问题/提示词和上下文,右侧同步显示文本生成模型和问答模型的输出。*
|
196 |
|