ai-forever commited on
Commit
31dc4fc
·
verified ·
1 Parent(s): d5915ea

Add/update results for Qwen3-32B (version 1.65.0, guid 5f06c152d57d4c649dbddf9de5daf5f9)

Browse files
Files changed (1) hide show
  1. results.json +74 -0
results.json CHANGED
@@ -74,6 +74,80 @@
74
  "n_questions": 600,
75
  "submit_timestamp": ""
76
  }
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
77
  }
78
  }
79
  },
 
74
  "n_questions": 600,
75
  "submit_timestamp": ""
76
  }
77
+ },
78
+ "5f06c152d57d4c649dbddf9de5daf5f9": {
79
+ "model_name": "Qwen3-32B",
80
+ "timestamp": "2025-07-02T16:48:49",
81
+ "config": {
82
+ "embedding_model": "Qwen3-Embedding-8B_0",
83
+ "retriever_type": "mmr",
84
+ "retrieval_config": {
85
+ "top_k": 5,
86
+ "chunk_size": 500,
87
+ "chunk_overlap": 100
88
+ }
89
+ },
90
+ "metrics": {
91
+ "simple": {
92
+ "retrieval": {
93
+ "hit_rate": 0.9133333333333333,
94
+ "mrr": 0.8594444444444443,
95
+ "precision": 0.2226666666666666
96
+ },
97
+ "generation": {
98
+ "rouge1": 0.02650026520127445,
99
+ "rougeL": 0.02634184181734204
100
+ }
101
+ },
102
+ "cond": {
103
+ "retrieval": {
104
+ "hit_rate": 0.9333333333333333,
105
+ "mrr": 0.8644444444444443,
106
+ "precision": 0.23733333333333329
107
+ },
108
+ "generation": {
109
+ "rouge1": 0.022111118467335895,
110
+ "rougeL": 0.022111118467335895
111
+ }
112
+ },
113
+ "set": {
114
+ "retrieval": {
115
+ "hit_rate": 0.8866666666666667,
116
+ "mrr": 0.8338888888888889,
117
+ "precision": 0.22666666666666666
118
+ },
119
+ "generation": {
120
+ "rouge1": 0.05710619075376705,
121
+ "rougeL": 0.05225099074760287
122
+ }
123
+ },
124
+ "mh": {
125
+ "retrieval": {
126
+ "hit_rate": 0.8733333333333333,
127
+ "mrr": 0.838,
128
+ "precision": 0.20799999999999996
129
+ },
130
+ "generation": {
131
+ "rouge1": 0.01980823634187983,
132
+ "rougeL": 0.019738791897435385
133
+ }
134
+ },
135
+ "overall": {
136
+ "retrieval": {
137
+ "hit_rate": 0.9016666666666666,
138
+ "mrr": 0.8489444444444445,
139
+ "precision": 0.22366666666666665
140
+ },
141
+ "generation": {
142
+ "rouge1": 0.031381452691064314,
143
+ "rougeL": 0.03011068573242905
144
+ }
145
+ }
146
+ },
147
+ "metadata": {
148
+ "n_questions": 600,
149
+ "submit_timestamp": ""
150
+ }
151
  }
152
  }
153
  },