sjdnjn commited on
Commit
b76890b
·
verified ·
1 Parent(s): 7b7afbe

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +120 -6
app.py CHANGED
@@ -5,7 +5,6 @@ import pandas as pd
5
  import plotly.express as px
6
  import os
7
 
8
-
9
  # --- 1. 模型加载 ---
10
  # 负责同学: [孙世纪]
11
  # 注意:QuantFactory/Apollo2-7B-GGUF 模型通常不直接兼容 pipeline("text-generation", ...)
@@ -81,7 +80,7 @@ grace_data = {
81
  grace_df = pd.DataFrame(grace_data)
82
 
83
  # --- 4. Gradio 界面构建 ---
84
- # LLM Benchmark 选项卡内容创建函数 (30分)
85
  def create_benchmark_tab():
86
  # 生成雷达图
87
  fig = px.line_polar(grace_df, r=grace_df.columns[1], theta="维度", line_close=True,
@@ -95,7 +94,6 @@ def create_benchmark_tab():
95
  radialaxis=dict(visible=True, range=[0, 5], tickvals=[1, 2, 3, 4, 5], ticktext=['1分', '2分', '3分', '4分', '5分']) # 显示刻度
96
  ),
97
  showlegend=True, # 显示图例
98
- # title_font_size=20 # 标题字体大小
99
  )
100
  return gr.Column(
101
  gr.Markdown("## 📊 模型性能对比 (GRACE 评估)"),
@@ -106,7 +104,7 @@ def create_benchmark_tab():
106
  gr.DataFrame(grace_df, label="详细评估数据")
107
  )
108
 
109
- # Arena 选项卡内容创建函数 (40分)
110
  def create_arena_tab():
111
  with gr.Blocks() as arena_block:
112
  gr.Markdown("## ⚔️ Arena: 模型实时对比")
@@ -133,7 +131,7 @@ def create_arena_tab():
133
  )
134
  return arena_block
135
 
136
- # Report 选项卡内容创建函数 (30分)
137
  def create_report_tab():
138
  report_content_markdown = """
139
  # 🚀 Hugging Face 模型对比实验报告
@@ -187,4 +185,120 @@ graph TD
187
  D1 -- 生成文本 --> E1[GPT2-Large 输出];
188
  D2 -- 抽取答案 --> E2[RoBERTa-SQuAD2 输出];
189
  E1 --> F[在 Gradio 界面显示];
190
- E2 --> F;"""
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
5
  import plotly.express as px
6
  import os
7
 
 
8
  # --- 1. 模型加载 ---
9
  # 负责同学: [孙世纪]
10
  # 注意:QuantFactory/Apollo2-7B-GGUF 模型通常不直接兼容 pipeline("text-generation", ...)
 
80
  grace_df = pd.DataFrame(grace_data)
81
 
82
  # --- 4. Gradio 界面构建 ---
83
+ # LLM Benchmark 选项卡内容创建函数
84
  def create_benchmark_tab():
85
  # 生成雷达图
86
  fig = px.line_polar(grace_df, r=grace_df.columns[1], theta="维度", line_close=True,
 
94
  radialaxis=dict(visible=True, range=[0, 5], tickvals=[1, 2, 3, 4, 5], ticktext=['1分', '2分', '3分', '4分', '5分']) # 显示刻度
95
  ),
96
  showlegend=True, # 显示图例
 
97
  )
98
  return gr.Column(
99
  gr.Markdown("## 📊 模型性能对比 (GRACE 评估)"),
 
104
  gr.DataFrame(grace_df, label="详细评估数据")
105
  )
106
 
107
+ # Arena 选项卡内容创建函数
108
  def create_arena_tab():
109
  with gr.Blocks() as arena_block:
110
  gr.Markdown("## ⚔️ Arena: 模型实时对比")
 
131
  )
132
  return arena_block
133
 
134
+ # Report 选项卡内容创建函数
135
  def create_report_tab():
136
  report_content_markdown = """
137
  # 🚀 Hugging Face 模型对比实验报告
 
185
  D1 -- 生成文本 --> E1[GPT2-Large 输出];
186
  D2 -- 抽取答案 --> E2[RoBERTa-SQuAD2 输出];
187
  E1 --> F[在 Gradio 界面显示];
188
+ E2 --> F;
189
+ ```
190
+ *说明:此流程图展示了用户输入如何被 Gradio 界面捕获,问题和上下文分别传递给两个模型。文本生成模型将两者合并为提示词,问答模型则分别使用它们,最终将各自的结果展示在界面上。*
191
+ ### 2.3 模型集成方式说明
192
+ 我们的 Hugging Face Space 使用 Python 和 Gradio 库构建。模型集成主要通过 `transformers` 库的 `pipeline` 功能实现。
193
+ 1. **模型加载**: 在 `app.py` 脚本初始化时,我们使用 `transformers.pipeline()` 函数加载了预训练模型。
194
+ * 对于 **GPT2-Large (文本生成)**:`generator1 = pipeline("text-generation", model="gpt2-large", ...)`
195
+ * 对于 **deepset/roberta-base-squad2 (问答)**:`qa_model = pipeline("question-answering", model="deepset/roberta-base-squad2", ...)`
196
+ * 我们通过 `device=0 if torch.cuda.is_available() else -1` 来尝试利用 GPU(如果可用),否则回退到 CPU。
197
+ 2. **推理函数**: 我们定义了一个 `get_model_outputs(question_or_prompt, context, max_length)` 函数。
198
+ * 该函数接收用户输入的“问题/提示词”和“上下文”。
199
+ * 对于文本生成模型,我们将问题和上下文合并为一个 `full_prompt_for_gen` 作为其输入。
200
+ * 对于问答模型,我们将问题和上下文分别传递给 `qa_model`。
201
+ * 函数返回两个模型的生成结果。
202
+ 3. **Gradio 界面连接**: 在 Gradio 界面中,我们创建了两个文本输入框(一个用于问题/提示词,一个用于上下文)和两个独立的文本输出框。通过 `gr.Button.click()` 方法,将输入框的文本作为参数传递给 `get_model_outputs` 函数,并将函数的返回结果分别更新到对应的输出框中。
203
+ 4. **错误处理**: 代码中包含了 `try-except` 块,以处理模型加载失败或推理过程中可能出现的错误,确保应用稳定性。如果模型未能加载,界面上会显示相应的错误信息。
204
+ ---
205
+ ## 3. GRACE 评估维度定义
206
+ 我们选择了以下 **4 个** GRACE 维度进行评估,并结合我们选择的模型类型给出了具体定义:
207
+ 1. **R: Relevance (相关性)**:
208
+ * **定义**:
209
+ * **文本生成模型 (GPT2-Large)**:生成的文本内容与用户输入的提示词(包括上下文)在语义上是否紧密相关,是否准确捕捉并回应了提示词的核心主题或意图。
210
+ * **问答模型 (RoBERTa-SQuAD2)**:抽取出的答案是否准确地回答了问题,并且答案内容完全来自于提供的上下文。
211
+ * **理由**: 对于任何文本处理任务,确保输出内容不偏离主题或准确回答问题至关重要。
212
+ 2. **A: Artistry (创新表现力)**:
213
+ * **定义**:
214
+ * **文本生成模型 (GPT2-Large)**:生成的文本是否具有创造性、流畅性、多样性和引人入胜的表达。这包括遣词造句的优美度、叙述的连贯性以及是否能提供新颖的视角。
215
+ * **问答模型 (RoBERTa-SQuAD2)**:由于是抽取式模型,其“创新表现力”主要体现在抽取答案的精确性和简洁性上,不涉及生成新的文本。
216
+ * **理由**: 衡量生成内容的质量和吸引力,区分模型是否仅能“复述”已知信息,还是能真正“创造”有价值的内容。对于抽取模型,则关注其在限定范围内的表现。
217
+ 3. **G: Generalization (泛化性)**:
218
+ * **定义**:
219
+ * **文本生成模型 (GPT2-Large)**:模型在面对不同类型、不同长度、不同风格的提示词(包括是否提供上下文)时,是否都能稳定地生成高质量且符合预期的文本。
220
+ * **问答模型 (RoBERTa-SQuAD2)**:模型在面对不同领域、不同长度、不同复杂度的上下文和问题时,是否都能准确地从其中抽取答案。
221
+ * **理由**: 评估模型在多样化场景下的鲁棒性和适用性。
222
+ 4. **E: Efficiency (效率性)**:
223
+ * **定义**: 模型从接收输入到生成完整输出所需的时间,以及在给定计算资源下,生成高质量结果所需的资源消耗(如 CPU/GPU 利用率、内存占用)。
224
+ * **理由**: 在实际应用中,模型的推理速度和资源效率是关键考量因素,尤其对于需要实时响应的场景。
225
+ ---
226
+ ## 4. 结果与分析
227
+ ### 4.1 多条统一输入样例输出结果表格
228
+ 我们使用以下统一输入样例对模型进行了测试:
229
+ | 输入样例 (问题/提示词) | 上下文 (Context) | GPT2-Large (文本生成) 输出 (请实际运行后填充) | RoBERTa-SQuAD2 (问答) 输出 (请实际运行后填充) |
230
+ | :----------------------------------------- | :---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | :-------------------------------------------- | :------------------------------------------ |
231
+ | "请写一段关于人工智能未来的短文。" | "" (无上下文,主要测试文本生成) | [实际运行后填充] | 问答模型需要提供上下文才能回答问题。 |
232
+ | "描写一段夏日午后的场景,要包含蝉鸣和微风。" | "" (无上下文,主要测试文本生成) | [实际运行后填充] | 问答模型需要提供上下文才能回答问题。 |
233
+ | "关于地球核心的温度大约是多少?" | "地球核心的温度非常高,估计在5200摄氏度(9392华氏度)到6200摄氏度(11192华氏度)之间,与太阳表面的温度相近。核心主要由铁和镍组成。" | [实际运行后填充] | [实际运行后填充] |
234
+ | "埃菲尔铁塔的高度是多少米?" | "埃菲尔铁塔是法国巴黎的标志性建筑,于1889年建成,以其设计师古斯塔夫·埃菲尔的名字命名。最初高度为312米,包括天线在内,现在高度约为330米。" | [实际运行后填充] | [实际运行后填充] |
235
+ | "推荐3个环保的生活小习惯。" | "" (无上下文,主要测试文本生成) | [实际运行后填充] | 问答模型需要提供上下文才能回答问题。 |
236
+ *(请根据你们实际测试结果填充表格)*
237
+ ### 4.2 雷达图展示维度评分
238
+ ![GRACE 评估雷达图](https://your-space-link/file/path/to/grace_radar_chart.png)
239
+ *(请将此处的图片链接替换为你实际生成并上传的雷达图链接,例如:`/file/main/grace_radar_chart.png`)*
240
+ ### 4.3 分析每个模型的优劣势
241
+ **模型 1 (GPT2-Large)**:
242
+ * **优势**:
243
+ * **创新表现力 (A)**:生成的文本非常流畅、自然,具有较强的连贯性和创造性,能够进行开放式的生成任务。
244
+ * **泛化性 (G)**:作为通用文本生成模型,能够处理各种类型的提示词,并尝试续写或生成相关内容,即便没有明确上下文也能工作。
245
+ * **劣势**:
246
+ * **相关性 (R)**:在需要精确回答特定事实性问题时,它可能会“胡说八八道”(hallucinate),生成看似合理但实际不准确的信息,不如问答模型直接从文本中抽取答案来得准确。
247
+ * **效率性 (E)**:相较于基础的问答模型,GPT2-Large 的模型规模更大,推理速度相对较慢,对计算资源(如 GPU 内存)的需求较高。
248
+ **模型 2 (RoBERTa-SQuAD2)**:
249
+ * **优势**:
250
+ * **相关性 (R)**:在给定有效上下文的前提下,它能极其精确地从文本中抽取答案,确保了高度的相关性和准确性。
251
+ * **效率性 (E)**:模型规模相对较小,推理速度快,资源消耗低,非常适合需要快速响应的问答应用。
252
+ * **劣势**:
253
+ * **创新表现力 (A)**:作为一个抽取式模型,它没有“创造性”,只能提取现有信息,无法进行开放式生成或内容创作。
254
+ * **泛化性 (G)**:其任务范围非常局限,只能进行问答任务,且高度依赖于提供的上下文;无法进行自由文本生成或理解无上下文的问题。
255
+ ---
256
+ ## 5. 合作与反思
257
+ ### 成员 1: [孙世纪]
258
+ * **各自负责内容**:
259
+ * 我主要负责了 **GPT2-Large 模型的集成**,包括在 `app.py` 中加载模型、编写其文本生成推理逻辑,并确保其在 Gradio 界面中正常工作。
260
+ * 我参与了 **“Arena”选项卡的用户界面布局设计**,确保两个模型的输入和输出能够清晰地并排展示。
261
+ * 在报告撰写方面,我主要负责了**“1. 模型及类别选择”部分**的初步内容,并参与了 GRACE 评估数据的收集。
262
+ * **学到的内容**:
263
+ * 深入理解了 Hugging Face `transformers` 库中 `pipeline` 的灵活运用,特别是如何根据不同任务类型(如 `text-generation`)配置模型。
264
+ * 学会了在 Gradio 中构建多输入多输出的复杂界面,并通过 `gr.Blocks` 和 `gr.Row` 进行有效的布局管理。
265
+ * 对通用文本生成模型和抽取式问答模型的工作原理和应用场景有了更具体的认识。
266
+ * **遇到的困难**:
267
+ * **困难 1**: GPT2-Large 模型在免费的 Hugging Face Space 上加载速度较慢,有时甚至因为资源限制导致启动失败。
268
+ * **解决尝试**: 我在代码中增加了更详细的模型加载成功/失败打印信息,并提醒用户注意等待时间。在几次测试后,发现偶尔会出现资源不足的情况,需要等待 Space 自动重启。
269
+ * **困难 2**: 报告中 Mermaids 流程图的语法调试。
270
+ * **解决尝试**: 我查阅了 Mermaid 的官方文档,并在本地编辑器中进行预览,确保流程图语法正确无误。
271
+ ### 2: [牛正武]
272
+ * **各自负责内容**:
273
+ * 我主要负责了 **deepset/roberta-base-squad2 问答模型的集成**,包括加载模型、编写其问答推理逻辑,并处理上下文输入。
274
+ * 我负责了 **“LLM Benchmark”选项卡中 GRACE 雷达图的实现和数据可视化**,确保图表能够准确反映评估结果。
275
+ * 在报告撰写方面,我主要负责了**“2. 系统实现细节”、“3. GRACE 评估维度定义”以及“4. 结果与分析”部分**。
276
+ * **学到的内容**:
277
+ * 掌握了如何在 Gradio 应用中使用 `plotly.express` 生成复杂的可视化图表,并将其嵌入到 Gradio 界面中。
278
+ * 深入理解了问答模型的工作机制,特别是它对“问题”和“上下文”的严格依赖关系。
279
+ * 锻炼了数据分析和可视化的能力,通过量化评估来比较不同模型的性能。
280
+ * **遇到的困难**:
281
+ * **困难 1**: 最初尝试使用 `QuantFactory/Apollo2-7B-GGUF` 模型时,发现其与 `pipeline` 的兼容性问题。
282
+ * **解决尝试**: 与组员讨论后,决定替换为一个更易于在标准 `transformers.pipeline` 环境下运行的文本生成模型(如 GPT2-Large),以确保项目能按时完成并成功运行。
283
+ * **困难 2**: 在 GRACE 评估中,对不同类型的模型(生成和抽取)在某些维度(如“Artistry”)上进行比较时,很难找到统一的评估标准。
284
+ * **解决尝试**: 我们通过详细定义每个维度在不同模型类型下的具体含义和侧重点,并进行多次交叉评估,最终达成了一致的评分。例如,“Artistry”对于问答模型主要体现在答案的精确和简洁,而非创造性。
285
+ ---
286
+ """
287
+ return gr.Markdown(report_content_markdown)
288
+
289
+ # --- Gradio 应用界面定义 ---
290
+ with gr.Blocks(title="AI模型对比项目") as demo:
291
+ gr.Markdown("# 🤖 AI 模型对比与评估平台")
292
+ gr.Markdown("本平台旨在通过交互式界面,对比分析不同 AI 模型在特定任务上的表���。")
293
+
294
+ # 定义选项卡
295
+ with gr.Tab("⚔️ Arena"):
296
+ create_arena_tab()
297
+ with gr.Tab("📊 LLM Benchmark"):
298
+ create_benchmark_tab()
299
+ with gr.Tab("📝 Report"): # 添加报告选项卡
300
+ create_report_tab()
301
+
302
+ # 启动 Gradio 应用
303
+ if __name__ == "__main__":
304
+ demo.launch()