ROMB-1.0 / README.md
d0rj's picture
Update README.md
1d8e30c verified
---
language:
- ru
license: mit
multilinguality:
- monolingual
pretty_name: Russian Olympiad Math Benchmark (ROMB)
tags:
- math
- bench
- school
- bibigon
dataset_info:
features:
- name: id
dtype: int64
- name: task_text
dtype: string
- name: answer_text
dtype: string
- name: correct_answer
dtype: string
- name: date
dtype: string
- name: olymp_name
dtype: string
- name: grade
dtype: string
- name: description
dtype: string
- name: source
dtype: string
- name: answer_type
dtype: string
- name: check_type
dtype: string
- name: check_function
dtype: string
- name: task_type
dtype: string
- name: task_note
dtype: string
splits:
- name: test
num_bytes: 3343995
num_examples: 2552
download_size: 1158521
dataset_size: 3343995
configs:
- config_name: default
data_files:
- split: test
path: data/test-*
task_categories:
- text-generation
---
# ♦ ROMB
**ROMB** (**R**ussian **O**lympiad **M**ath **B**enchmark) - набор данных для оценки качества решения математических задач на русском. Ещё один.
**2552 задачи** в текстовом виде. Возможно, один из самых крупных бенчмарков на русском. Из них примерно 192 геометрических, 644 логических и 1716 остальных.
Особенности - наличие различных типов задач, форматов ответов и их типизации для структурированного вывода.
> [!WARNING]
> В стадии отлавливания багов и дописывания евалуации (sorry for my english). Если что-то странное найдено в данных или коде, то, пожалуйста, сообщите.
> В тч в случае обнаружения пересечения данных с другими наборами.
## Использование
### Загрузка
```python
import datasets
ds = datasets.load_dataset("d0rj/ROMB-1.0", split="test")
```
> Колонка `correct_answer` содержит правильные ответы на задачи. Правильные ответы представлены в виде JSON-строк, которые необходимо десериализовать для использования. Подойдёт обычный советский `json.loads`.
### Код генерации ответов
WIP...
### Код вычисления метрик
WIP...
## Метрика
**Pass**@1, чё тут мудрить.
Далее в лидерборде уже строится аналитика этих ответов по типам задач, по целевому классу и тд.
Ещё считаю взвешанный скор. Взвешивание идёт по классу, для которого предназначена задача: задача первого класса оценивается в 1 балл, пятого - в 5 баллов, 7-9 - в 8 баллов и так далее.
### Leaderboard
WIP...
Пример реальной метрки:
| Модель | pass@1 | weighted_pass@1 | arith_pass@1 | logic_pass@1 | geometry_pass@1 |
|------------|--------|------------------|---------------|---------------|------------------|
| gemma-3-1b | 0.10148902821316615 | 0.10207932648691802 | 0.08566433566433566 | 0.13664596273291926 | 0.125 |
### Проверка ответов
> [!WARNING]
> Код проверки уже почти вот щас чуть-чуть...
Для проверки каждой задаче отведены две колонки:
- `check_type` - тип проверки. Может быть одним из:
- **em** (exact match);
- **um** (unordered match);
- **om** (ordered match);
- **um\[om\]** (unordered match with ordered sublists);
- **um\[um\]** (unordered match with unordered sublists);
- **um_f** (unordered match with fuzzy matching. Пока что эквивалентен **um**);
- **Am** (all match);
- **am** (any match);
- **{'\<key\>': '\<check_type\>'}** - словарь, где ключ - это имя поля в ответе, а значение - тип проверки для этого поля;
- **custom** - пользовательская проверка, которая должна быть реализована в функции `check_function`;
- `check_function` - тело функции проверки ответа на python. Функция принимает y_true и y_pred, а возвращает bool. Используется только для `check_type` равного `custom`. Для остальных типов проверки используется встроенная логика.;
## Описание данных
По порядку:
- `id_` - уникальный идентификатор задачи;
- `task_text` - текст задачи;
- `answer_text` - текст ответа в оригинале;
- `correct_answer` - правильный ответ в формате JSON. Десериализуй перед использованием!;
- `date` - дата проведения олимпиады задачи. В свободном формате;
- `olymp_name` - название олимпиады, на которой была задача;
- `grade` - класс, для которого предназначена задача. Может быть промежутком;
- `description` - общее описание олимпиады с названием, классом и датой проведения;
- `source` - ссылка на источник задачи;
- `answer_type` - тип ответа. Написан в формате типа python, например `float`, `Literal['А', 'Б', 'В', 'Г']`, `list[int | float]`, `dict[Literal['1', '2'], Union[Literal['чёрный', 'белый'], int]]` и сложнее. Нужны для корректного (или почти корректного) structured output;
- `check_type` - тип проверки ответа. Смотри выше в *Проверке ответов*;
- `check_function` - функция проверки ответа. Смотри выше в *Проверке ответов*;
- `task_type` - тип задачи. Может быть:
- `geometry` (чисто геометрические или очень с ней связанные задачи);
- `logic` (либо задачи на логику, либо задачи на общее знание о мире, либо задачи, требующие операции над символами);
- `arith` (всё остальное. В большинстве случаев это арифметические задачи или уравнения, но могут быть и другие);
- `task_note` - заметка-пояснение к формату ответа. Нужна для пояснения на русском языке требуемого формата вывода для генератора.
### Некоторые распределения
![Распределение типов заданий по классам](tasktype_by_grades.png)
### Пример задачи
`task_text`
В наборе есть карточки с буквами З, Л, О и Б (каждой буквы много штук). Каждый ученик класса выбрал себе три разные буквы. Оказалось, что из своих букв слово ЗЛО могут составить три человека, слово ЛОБ — два человека. Одному удалось составить слово ЗОБ, и только Ника вытащила такие три буквы, что слово из них не составляется. Сколько букв каждого вида вытащили ребята?
`answer_text`
Каждый ученик выбрал 3 разные буквы. Значит, те, кто составил слова «ЗЛО», «ЛОБ» и «ЗОБ» больше никаких букв не выбрали. Ника не смогла составить ни одного слова, значит она выбрала буквы «З», «Л» и «Б». Выпишем все «слова», которые есть у ребят:
- ЗЛО
- ЗЛО
- ЗЛО
- ЛОБ
- ЛОБ
- ЗОБ
- ЗЛБ
Осталось пересчитать все буквы: букв «З» - 5 штук; букв «Л» - 6 штук; букв «О» - 6 штук; букв «Б» - 4 штуки.
Ответ: 5 букв «З»; 6 букв «Л»; 6 букв «О»; 4 буквы «Б».
`answer_type`
```python
dict[Literal['З', 'Л', 'О', 'Б'], int]
```
`correct_answer`
```json
{"З": 5, "Л": 6, "О": 6, "Б": 4}
```