Spaces:
Running
Running
Add/update results for Qwen3-32B (version 1.65.0, guid 5f06c152d57d4c649dbddf9de5daf5f9)
Browse files- results.json +74 -0
results.json
CHANGED
@@ -74,6 +74,80 @@
|
|
74 |
"n_questions": 600,
|
75 |
"submit_timestamp": ""
|
76 |
}
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
77 |
}
|
78 |
}
|
79 |
},
|
|
|
74 |
"n_questions": 600,
|
75 |
"submit_timestamp": ""
|
76 |
}
|
77 |
+
},
|
78 |
+
"5f06c152d57d4c649dbddf9de5daf5f9": {
|
79 |
+
"model_name": "Qwen3-32B",
|
80 |
+
"timestamp": "2025-07-02T16:48:49",
|
81 |
+
"config": {
|
82 |
+
"embedding_model": "Qwen3-Embedding-8B_0",
|
83 |
+
"retriever_type": "mmr",
|
84 |
+
"retrieval_config": {
|
85 |
+
"top_k": 5,
|
86 |
+
"chunk_size": 500,
|
87 |
+
"chunk_overlap": 100
|
88 |
+
}
|
89 |
+
},
|
90 |
+
"metrics": {
|
91 |
+
"simple": {
|
92 |
+
"retrieval": {
|
93 |
+
"hit_rate": 0.9133333333333333,
|
94 |
+
"mrr": 0.8594444444444443,
|
95 |
+
"precision": 0.2226666666666666
|
96 |
+
},
|
97 |
+
"generation": {
|
98 |
+
"rouge1": 0.02650026520127445,
|
99 |
+
"rougeL": 0.02634184181734204
|
100 |
+
}
|
101 |
+
},
|
102 |
+
"cond": {
|
103 |
+
"retrieval": {
|
104 |
+
"hit_rate": 0.9333333333333333,
|
105 |
+
"mrr": 0.8644444444444443,
|
106 |
+
"precision": 0.23733333333333329
|
107 |
+
},
|
108 |
+
"generation": {
|
109 |
+
"rouge1": 0.022111118467335895,
|
110 |
+
"rougeL": 0.022111118467335895
|
111 |
+
}
|
112 |
+
},
|
113 |
+
"set": {
|
114 |
+
"retrieval": {
|
115 |
+
"hit_rate": 0.8866666666666667,
|
116 |
+
"mrr": 0.8338888888888889,
|
117 |
+
"precision": 0.22666666666666666
|
118 |
+
},
|
119 |
+
"generation": {
|
120 |
+
"rouge1": 0.05710619075376705,
|
121 |
+
"rougeL": 0.05225099074760287
|
122 |
+
}
|
123 |
+
},
|
124 |
+
"mh": {
|
125 |
+
"retrieval": {
|
126 |
+
"hit_rate": 0.8733333333333333,
|
127 |
+
"mrr": 0.838,
|
128 |
+
"precision": 0.20799999999999996
|
129 |
+
},
|
130 |
+
"generation": {
|
131 |
+
"rouge1": 0.01980823634187983,
|
132 |
+
"rougeL": 0.019738791897435385
|
133 |
+
}
|
134 |
+
},
|
135 |
+
"overall": {
|
136 |
+
"retrieval": {
|
137 |
+
"hit_rate": 0.9016666666666666,
|
138 |
+
"mrr": 0.8489444444444445,
|
139 |
+
"precision": 0.22366666666666665
|
140 |
+
},
|
141 |
+
"generation": {
|
142 |
+
"rouge1": 0.031381452691064314,
|
143 |
+
"rougeL": 0.03011068573242905
|
144 |
+
}
|
145 |
+
}
|
146 |
+
},
|
147 |
+
"metadata": {
|
148 |
+
"n_questions": 600,
|
149 |
+
"submit_timestamp": ""
|
150 |
+
}
|
151 |
}
|
152 |
}
|
153 |
},
|