sjdnjn commited on
Commit
07e0d48
·
verified ·
1 Parent(s): dd4c05a

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +3 -5
app.py CHANGED
@@ -149,8 +149,6 @@ def create_report_tab():
149
  report_content_markdown = """
150
  # 🚀 Hugging Face 模型对比实验报告
151
 
152
- ---
153
-
154
  ## 1. 模型及类别选择
155
 
156
  ### 1.1 所选模型的类型与背景说明
@@ -162,7 +160,7 @@ def create_report_tab():
162
  ### 1.2 模型用途对比简述
163
  我们选择了以下 2 个模型进行对比:
164
  * **模型 1: GPT2-Large (文本生成模型)**
165
- * **用途简述**: 作为一个大型的通用文本生成模型, GPT2-Large 能够进行开放式文本生成、续写、摘要、创意写作等多种任务。它能理解较复杂的指令并生成语法流畅、内容丰富的文本。
166
  * **模型 2: deepset/roberta-base-squad2 (抽取式问答模型)**
167
  * **用途简述**: 这是一个专门用于抽取式问答任务的模型。它接收一个问题和一段上下文文本,然后从上下文中找到并返回问题的确切答案片段。主要应用于精准信息提取、文档问答系统等。
168
 
@@ -181,7 +179,7 @@ def create_report_tab():
181
  * **任务类型**: GPT2-Large 专注于**文本生成**(从无到有),而 RoBERTa-SQuAD2 专注于**信息抽取**(从已有文本中找)。
182
  * **输入输出模式**:
183
  * GPT2-Large 接收一个提示词,输出一段新的、连贯的文本。
184
- * RoBERTa-SQuAD2 接收一个问题和一段上下文,输出上下文中最精确的答案片段。
185
  * **“创造性”**: GPT2-Large 具有更强的创造性,能够生成新的、未曾出现过的句子和想法;RoBERTa-SQuAD2 不具备创造性,它只从原文中抽取答案。
186
  * **对上下文的依赖**: 问答模型对上下文的依赖性极强,没有上下文就无法回答;文本生成模型则更灵活,即便没有明确上下文也能生成内容。
187
 
@@ -192,7 +190,7 @@ def create_report_tab():
192
  ### 2.1 Gradio 交互界面截图
193
 
194
  以下是我们在 Hugging Face Space 中构建的 Gradio 交互界面截图。
195
- ![Gradio Arena 界面截图](https://your-space-link/file/path/to/arena_screenshot.png)
196
  *(请将此处的图片链接替换为你实际上传到 Space Files 中的截图链接,例如:`/file/main/arena_screenshot.png`)*
197
  *说明:此图展示了我们构建的“Arena”选项卡界面。用户可以在左侧输入问题/提示词和上下文,右侧同步显示文本生成模型和问答模型的输出。*
198
 
 
149
  report_content_markdown = """
150
  # 🚀 Hugging Face 模型对比实验报告
151
 
 
 
152
  ## 1. 模型及类别选择
153
 
154
  ### 1.1 所选模型的类型与背景说明
 
160
  ### 1.2 模型用途对比简述
161
  我们选择了以下 2 个模型进行对比:
162
  * **模型 1: GPT2-Large (文本生成模型)**
163
+ * **用途简述**: 作为一个大型的通用文本生成模型,GPT2-Large 能够进行开放式文本生成、续写、摘要、创意写作等多种任务。它能理解较复杂的指令并生成语法流畅、内容丰富的文本。
164
  * **模型 2: deepset/roberta-base-squad2 (抽取式问答模型)**
165
  * **用途简述**: 这是一个专门用于抽取式问答任务的模型。它接收一个问题和一段上下文文本,然后从上下文中找到并返回问题的确切答案片段。主要应用于精准信息提取、文档问答系统等。
166
 
 
179
  * **任务类型**: GPT2-Large 专注于**文本生成**(从无到有),而 RoBERTa-SQuAD2 专注于**信息抽取**(从已有文本中找)。
180
  * **输入输出模式**:
181
  * GPT2-Large 接收一个提示词,输出一段新的、连贯的文本。
182
+ * RoBERTa-SQuAD2 接收一个问题和一段上下文,输出上下文中精确的答案片段。
183
  * **“创造性”**: GPT2-Large 具有更强的创造性,能够生成新的、未曾出现过的句子和想法;RoBERTa-SQuAD2 不具备创造性,它只从原文中抽取答案。
184
  * **对上下文的依赖**: 问答模型对上下文的依赖性极强,没有上下文就无法回答;文本生成模型则更灵活,即便没有明确上下文也能生成内容。
185
 
 
190
  ### 2.1 Gradio 交互界面截图
191
 
192
  以下是我们在 Hugging Face Space 中构建的 Gradio 交互界面截图。
193
+ [Image of Gradio Arena 界面截图]
194
  *(请将此处的图片链接替换为你实际上传到 Space Files 中的截图链接,例如:`/file/main/arena_screenshot.png`)*
195
  *说明:此图展示了我们构建的“Arena”选项卡界面。用户可以在左侧输入问题/提示词和上下文,右侧同步显示文本生成模型和问答模型的输出。*
196