sha
stringlengths 40
40
| text
stringlengths 1
13.4M
| id
stringlengths 2
117
| tags
listlengths 1
7.91k
| created_at
stringlengths 25
25
| metadata
stringlengths 2
875k
| last_modified
stringlengths 25
25
| arxiv
listlengths 0
25
| languages
listlengths 0
7.91k
| tags_str
stringlengths 17
159k
| text_str
stringlengths 1
447k
| text_lists
listlengths 0
352
| processed_texts
listlengths 1
353
| tokens_length
listlengths 1
353
| input_texts
listlengths 1
40
|
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
bcbf523cdf8d1e42f7d1fa48406f630b8b708360
|
Octocode's [CommitPackFT](https://huggingface.co/datasets/bigcode/commitpackft) in Alpaca instruction format, with several randomly selected natural language preludes to the commit messages to make them better resemble a user request.
When the instruction, old code, and new code combined are small enough to fit within 4096 Llama tokens the output is usually the full contents of the file after a commit. Otherwise, the output will be a sequence of ndiff chunks with up to five lines of context each.
An example:
```ndiff
from django.conf.urls.defaults import *
from models import GeneralPost
- from feeds import LatestPosts
+ from feeds import latest
```
```ndiff
post_list = {
'queryset': GeneralPost.objects.all(),
}
feeds = {
- 'all': LatestPosts,
+ 'all': latest(GeneralPost, 'dzenlog-post-list'),
```
This is essentially the output of `difflib.ndiff` with the `?` lines removed and large spans of unchanged text removed. The idea is that this is hopefully an easier format for a large language model to learn than a typical diff, while still being generally unambiguous enough to be useful as an output. We'll see if that works out!
Language composition:
| Language | Instructions | Percent of Instructions |
| --- | --- | --- |
| YAML | 114320 | 23.28% |
| Ruby | 69413 | 14.13% |
| Markdown | 62518 | 12.73% |
| Python | 56025 | 11.41% |
| JavaScript | 52989 | 10.79% |
| JSON | 39777 | 8.1% |
| PHP | 24791 | 5.05% |
| Java | 20635 | 4.2% |
| C# | 9346 | 1.9% |
| XML | 9337 | 1.9% |
| C | 8506 | 1.73% |
| TypeScript | 5868 | 1.19% |
| C++ | 4992 | 1.02% |
| Swift | 4849 | 0.99% |
| Rust | 2996 | 0.61% |
| Haskell | 1389 | 0.28% |
| Emacs Lisp | 1015 | 0.21% |
| Common Lisp | 778 | 0.16% |
| Erlang | 480 | 0.1% |
| OCaml | 333 | 0.07% |
| Smalltalk | 284 | 0.06% |
| Ada | 265 | 0.05% |
| Scheme | 213 | 0.04% |
All credit to the original authors of the code and the team behind OctoPack.
### Licensing Information
Each sample comes from a code repository with a permissive license. The license is provided by the `license` field for each sample.
### Citation Information
```bibtex
@article{muennighoff2023octopack,
title={OctoPack: Instruction Tuning Code Large Language Models},
author={Niklas Muennighoff and Qian Liu and Armel Zebaze and Qinkai Zheng and Binyuan Hui and Terry Yue Zhuo and Swayam Singh and Xiangru Tang and Leandro von Werra and Shayne Longpre},
journal={arXiv preprint arXiv:2308.07124},
year={2023}
}
```
|
chargoddard/commitpack-ft-instruct
|
[
"size_categories:100K<n<1M",
"language:en",
"code",
"region:us"
] |
2023-08-22T00:06:23+00:00
|
{"language": ["en"], "size_categories": ["100K<n<1M"], "dataset_info": {"features": [{"name": "id", "dtype": "string"}, {"name": "language", "dtype": "string"}, {"name": "license", "dtype": "string"}, {"name": "instruction", "dtype": "string"}, {"name": "output", "dtype": "string"}, {"name": "input", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 813842543, "num_examples": 491119}], "download_size": 390498760, "dataset_size": 813842543}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}], "tags": ["code"]}
|
2023-08-23T07:48:29+00:00
|
[] |
[
"en"
] |
TAGS
#size_categories-100K<n<1M #language-English #code #region-us
|
Octocode's CommitPackFT in Alpaca instruction format, with several randomly selected natural language preludes to the commit messages to make them better resemble a user request.
When the instruction, old code, and new code combined are small enough to fit within 4096 Llama tokens the output is usually the full contents of the file after a commit. Otherwise, the output will be a sequence of ndiff chunks with up to five lines of context each.
An example:
This is essentially the output of 'URL' with the '?' lines removed and large spans of unchanged text removed. The idea is that this is hopefully an easier format for a large language model to learn than a typical diff, while still being generally unambiguous enough to be useful as an output. We'll see if that works out!
Language composition:
Language: YAML, Instructions: 114320, Percent of Instructions: 23.28%
Language: Ruby, Instructions: 69413, Percent of Instructions: 14.13%
Language: Markdown, Instructions: 62518, Percent of Instructions: 12.73%
Language: Python, Instructions: 56025, Percent of Instructions: 11.41%
Language: JavaScript, Instructions: 52989, Percent of Instructions: 10.79%
Language: JSON, Instructions: 39777, Percent of Instructions: 8.1%
Language: PHP, Instructions: 24791, Percent of Instructions: 5.05%
Language: Java, Instructions: 20635, Percent of Instructions: 4.2%
Language: C#, Instructions: 9346, Percent of Instructions: 1.9%
Language: XML, Instructions: 9337, Percent of Instructions: 1.9%
Language: C, Instructions: 8506, Percent of Instructions: 1.73%
Language: TypeScript, Instructions: 5868, Percent of Instructions: 1.19%
Language: C++, Instructions: 4992, Percent of Instructions: 1.02%
Language: Swift, Instructions: 4849, Percent of Instructions: 0.99%
Language: Rust, Instructions: 2996, Percent of Instructions: 0.61%
Language: Haskell, Instructions: 1389, Percent of Instructions: 0.28%
Language: Emacs Lisp, Instructions: 1015, Percent of Instructions: 0.21%
Language: Common Lisp, Instructions: 778, Percent of Instructions: 0.16%
Language: Erlang, Instructions: 480, Percent of Instructions: 0.1%
Language: OCaml, Instructions: 333, Percent of Instructions: 0.07%
Language: Smalltalk, Instructions: 284, Percent of Instructions: 0.06%
Language: Ada, Instructions: 265, Percent of Instructions: 0.05%
Language: Scheme, Instructions: 213, Percent of Instructions: 0.04%
All credit to the original authors of the code and the team behind OctoPack.
### Licensing Information
Each sample comes from a code repository with a permissive license. The license is provided by the 'license' field for each sample.
|
[
"### Licensing Information\n\n\nEach sample comes from a code repository with a permissive license. The license is provided by the 'license' field for each sample."
] |
[
"TAGS\n#size_categories-100K<n<1M #language-English #code #region-us \n",
"### Licensing Information\n\n\nEach sample comes from a code repository with a permissive license. The license is provided by the 'license' field for each sample."
] |
[
24,
36
] |
[
"passage: TAGS\n#size_categories-100K<n<1M #language-English #code #region-us \n### Licensing Information\n\n\nEach sample comes from a code repository with a permissive license. The license is provided by the 'license' field for each sample."
] |
f58d8741af97e3ac3ea643063fcacb6447f9478a
|
# Dataset of shouhou/祥鳳 (Kantai Collection)
This is the dataset of shouhou/祥鳳 (Kantai Collection), containing 463 images and their tags.
The core tags of this character are `long_hair, black_hair, brown_eyes, ahoge, breasts, low-tied_long_hair, very_long_hair`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:--------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 463 | 376.54 MiB | [Download](https://huggingface.co/datasets/CyberHarem/shouhou_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 463 | 279.17 MiB | [Download](https://huggingface.co/datasets/CyberHarem/shouhou_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 988 | 533.16 MiB | [Download](https://huggingface.co/datasets/CyberHarem/shouhou_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 463 | 357.65 MiB | [Download](https://huggingface.co/datasets/CyberHarem/shouhou_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 988 | 645.45 MiB | [Download](https://huggingface.co/datasets/CyberHarem/shouhou_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/shouhou_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 7 |  |  |  |  |  | 1girl, bandeau, cleavage, collarbone, hadanugi_dousa, medium_breasts, open_kimono, solo, hair_ribbon, simple_background, gloves, looking_at_viewer, pleated_skirt, white_background, black_skirt, smile, blush, brown_hair, twitter_username |
| 1 | 6 |  |  |  |  |  | 1girl, bandeau, bow_(weapon), hadanugi_dousa, hair_ribbon, open_kimono, solo, cleavage, medium_breasts, partially_fingerless_gloves, smile, black_skirt, pleated_skirt, single_glove |
| 2 | 6 |  |  |  |  |  | 1girl, bandeau, blush, hadanugi_dousa, open_kimono, solo, upper_body, simple_background, white_background, smile, cleavage |
| 3 | 13 |  |  |  |  |  | 1girl, pleated_skirt, bandeau, black_skirt, hakama_short_skirt, simple_background, solo, white_background, black_hakama, hadanugi_dousa, open_kimono, smile, blush, thighhighs, white_kimono, dated |
| 4 | 12 |  |  |  |  |  | 1girl, smile, solo, oil-paper_umbrella, looking_at_viewer, kimono, skirt, rain, holding_umbrella, blush |
| 5 | 5 |  |  |  |  |  | 2girls, simple_background, white_background, black_hakama, black_skirt, blush, hachimaki, hakama_skirt, open_mouth, thighhighs, brown_hair, high_ponytail, holding, wide_sleeves |
| 6 | 6 |  |  |  |  |  | 2girls, hachimaki, high_ponytail, simple_background, white_background, japanese_clothes, skirt, |_|, aged_down, blush, shorts, wide_sleeves |
| 7 | 13 |  |  |  |  |  | 1girl, solo, bikini, navel, looking_at_viewer, smile, white_background, blush, simple_background, cowboy_shot, large_breasts, open_mouth, collarbone, medium_breasts |
| 8 | 8 |  |  |  |  |  | 1girl, solo, black_skirt, cowboy_shot, long_sleeves, pleated_skirt, serafuku, simple_background, white_background, alternate_costume, looking_at_viewer, neckerchief, black_sailor_collar, black_thighhighs, white_shirt |
| 9 | 7 |  |  |  |  |  | enmaided, 1girl, black_dress, looking_at_viewer, solo, white_apron, maid_apron, maid_headdress, cowboy_shot, dated, long_sleeves, frilled_apron, one-hour_drawing_challenge, puffy_sleeves, simple_background, smile, thighhighs, white_background |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | bandeau | cleavage | collarbone | hadanugi_dousa | medium_breasts | open_kimono | solo | hair_ribbon | simple_background | gloves | looking_at_viewer | pleated_skirt | white_background | black_skirt | smile | blush | brown_hair | twitter_username | bow_(weapon) | partially_fingerless_gloves | single_glove | upper_body | hakama_short_skirt | black_hakama | thighhighs | white_kimono | dated | oil-paper_umbrella | kimono | skirt | rain | holding_umbrella | 2girls | hachimaki | hakama_skirt | open_mouth | high_ponytail | holding | wide_sleeves | japanese_clothes | |_| | aged_down | shorts | bikini | navel | cowboy_shot | large_breasts | long_sleeves | serafuku | alternate_costume | neckerchief | black_sailor_collar | black_thighhighs | white_shirt | enmaided | black_dress | white_apron | maid_apron | maid_headdress | frilled_apron | one-hour_drawing_challenge | puffy_sleeves |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:----------|:-----------|:-------------|:-----------------|:-----------------|:--------------|:-------|:--------------|:--------------------|:---------|:--------------------|:----------------|:-------------------|:--------------|:--------|:--------|:-------------|:-------------------|:---------------|:------------------------------|:---------------|:-------------|:---------------------|:---------------|:-------------|:---------------|:--------|:---------------------|:---------|:--------|:-------|:-------------------|:---------|:------------|:---------------|:-------------|:----------------|:----------|:---------------|:-------------------|:------|:------------|:---------|:---------|:--------|:--------------|:----------------|:---------------|:-----------|:--------------------|:--------------|:----------------------|:-------------------|:--------------|:-----------|:--------------|:--------------|:-------------|:-----------------|:----------------|:-----------------------------|:----------------|
| 0 | 7 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 6 |  |  |  |  |  | X | X | X | | X | X | X | X | X | | | | X | | X | X | | | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 6 |  |  |  |  |  | X | X | X | | X | | X | X | | X | | | | X | | X | X | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 13 |  |  |  |  |  | X | X | | | X | | X | X | | X | | | X | X | X | X | X | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 12 |  |  |  |  |  | X | | | | | | | X | | | | X | | | | X | X | | | | | | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 5 |  |  |  |  |  | | | | | | | | | | X | | | | X | X | | X | X | | | | | | | X | X | | | | | | | | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | |
| 6 | 6 |  |  |  |  |  | | | | | | | | | | X | | | | X | | | X | | | | | | | | | | | | | | X | | | X | X | | | X | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | |
| 7 | 13 |  |  |  |  |  | X | | | X | | X | | X | | X | | X | | X | | X | X | | | | | | | | | | | | | | | | | | | | X | | | | | | | | X | X | X | X | | | | | | | | | | | | | | | |
| 8 | 8 |  |  |  |  |  | X | | | | | | | X | | X | | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | | X | X | X | X | X | X | X | | | | | | | | |
| 9 | 7 |  |  |  |  |  | X | | | | | | | X | | X | | X | | X | | X | | | | | | | | | | X | | X | | | | | | | | | | | | | | | | | | | X | | X | | | | | | | X | X | X | X | X | X | X | X |
|
CyberHarem/shouhou_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T00:38:56+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T12:13:12+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of shouhou/祥鳳 (Kantai Collection)
=========================================
This is the dataset of shouhou/祥鳳 (Kantai Collection), containing 463 images and their tags.
The core tags of this character are 'long\_hair, black\_hair, brown\_eyes, ahoge, breasts, low-tied\_long\_hair, very\_long\_hair', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | bandeau | cleavage | collarbone | hadanugi\_dousa | medium\_breasts | open\_kimono | solo | hair\_ribbon | simple\_background | gloves | looking\_at\_viewer | pleated\_skirt | white\_background | black\_skirt | smile | blush | brown\_hair | twitter\_username | bow\_(weapon) | partially\_fingerless\_gloves | single\_glove | upper\_body | hakama\_short\_skirt | black\_hakama | thighhighs | white\_kimono | dated | oil-paper\_umbrella | kimono | skirt | rain | holding\_umbrella | 2girls | hachimaki | hakama\_skirt | open\_mouth | high\_ponytail | holding | wide\_sleeves | japanese\_clothes | |\_| | aged\_down | shorts | bikini | navel | cowboy\_shot | large\_breasts | long\_sleeves | serafuku | alternate\_costume | neckerchief | black\_sailor\_collar | black\_thighhighs | white\_shirt | enmaided | black\_dress | white\_apron | maid\_apron | maid\_headdress | frilled\_apron | one-hour\_drawing\_challenge | puffy\_sleeves |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:----------|:-----------|:-------------|:-----------------|:-----------------|:--------------|:-------|:--------------|:--------------------|:---------|:--------------------|:----------------|:-------------------|:--------------|:--------|:--------|:-------------|:-------------------|:---------------|:------------------------------|:---------------|:-------------|:---------------------|:---------------|:-------------|:---------------|:--------|:---------------------|:---------|:--------|:-------|:-------------------|:---------|:------------|:---------------|:-------------|:----------------|:----------|:---------------|:-------------------|:------|:------------|:---------|:---------|:--------|:--------------|:----------------|:---------------|:-----------|:--------------------|:--------------|:----------------------|:-------------------|:--------------|:-----------|:--------------|:--------------|:-------------|:-----------------|:----------------|:-----------------------------|:----------------|
| 0 | 7 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 6 |  |  |  |  |  | X | X | X | | X | X | X | X | X | | | | X | | X | X | | | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 6 |  |  |  |  |  | X | X | X | | X | | X | X | | X | | | | X | | X | X | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 13 |  |  |  |  |  | X | X | | | X | | X | X | | X | | | X | X | X | X | X | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 12 |  |  |  |  |  | X | | | | | | | X | | | | X | | | | X | X | | | | | | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 5 |  |  |  |  |  | | | | | | | | | | X | | | | X | X | | X | X | | | | | | | X | X | | | | | | | | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | |
| 6 | 6 |  |  |  |  |  | | | | | | | | | | X | | | | X | | | X | | | | | | | | | | | | | | X | | | X | X | | | X | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | |
| 7 | 13 |  |  |  |  |  | X | | | X | | X | | X | | X | | X | | X | | X | X | | | | | | | | | | | | | | | | | | | | X | | | | | | | | X | X | X | X | | | | | | | | | | | | | | | |
| 8 | 8 |  |  |  |  |  | X | | | | | | | X | | X | | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | | X | X | X | X | X | X | X | | | | | | | | |
| 9 | 7 |  |  |  |  |  | X | | | | | | | X | | X | | X | | X | | X | | | | | | | | | | X | | X | | | | | | | | | | | | | | | | | | | X | | X | | | | | | | X | X | X | X | X | X | X | X |
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version\n\n\n| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | bandeau | cleavage | collarbone | hadanugi\\_dousa | medium\\_breasts | open\\_kimono | solo | hair\\_ribbon | simple\\_background | gloves | looking\\_at\\_viewer | pleated\\_skirt | white\\_background | black\\_skirt | smile | blush | brown\\_hair | twitter\\_username | bow\\_(weapon) | partially\\_fingerless\\_gloves | single\\_glove | upper\\_body | hakama\\_short\\_skirt | black\\_hakama | thighhighs | white\\_kimono | dated | oil-paper\\_umbrella | kimono | skirt | rain | holding\\_umbrella | 2girls | hachimaki | hakama\\_skirt | open\\_mouth | high\\_ponytail | holding | wide\\_sleeves | japanese\\_clothes | |\\_| | aged\\_down | shorts | bikini | navel | cowboy\\_shot | large\\_breasts | long\\_sleeves | serafuku | alternate\\_costume | neckerchief | black\\_sailor\\_collar | black\\_thighhighs | white\\_shirt | enmaided | black\\_dress | white\\_apron | maid\\_apron | maid\\_headdress | frilled\\_apron | one-hour\\_drawing\\_challenge | puffy\\_sleeves |\n|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:----------|:-----------|:-------------|:-----------------|:-----------------|:--------------|:-------|:--------------|:--------------------|:---------|:--------------------|:----------------|:-------------------|:--------------|:--------|:--------|:-------------|:-------------------|:---------------|:------------------------------|:---------------|:-------------|:---------------------|:---------------|:-------------|:---------------|:--------|:---------------------|:---------|:--------|:-------|:-------------------|:---------|:------------|:---------------|:-------------|:----------------|:----------|:---------------|:-------------------|:------|:------------|:---------|:---------|:--------|:--------------|:----------------|:---------------|:-----------|:--------------------|:--------------|:----------------------|:-------------------|:--------------|:-----------|:--------------|:--------------|:-------------|:-----------------|:----------------|:-----------------------------|:----------------|\n| 0 | 7 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |\n| 1 | 6 |  |  |  |  |  | X | X | X | | X | X | X | X | X | | | | X | | X | X | | | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |\n| 2 | 6 |  |  |  |  |  | X | X | X | | X | | X | X | | X | | | | X | | X | X | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |\n| 3 | 13 |  |  |  |  |  | X | X | | | X | | X | X | | X | | | X | X | X | X | X | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |\n| 4 | 12 |  |  |  |  |  | X | | | | | | | X | | | | X | | | | X | X | | | | | | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |\n| 5 | 5 |  |  |  |  |  | | | | | | | | | | X | | | | X | X | | X | X | | | | | | | X | X | | | | | | | | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | |\n| 6 | 6 |  |  |  |  |  | | | | | | | | | | X | | | | X | | | X | | | | | | | | | | | | | | X | | | X | X | | | X | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | |\n| 7 | 13 |  |  |  |  |  | X | | | X | | X | | X | | X | | X | | X | | X | X | | | | | | | | | | | | | | | | | | | | X | | | | | | | | X | X | X | X | | | | | | | | | | | | | | | |\n| 8 | 8 |  |  |  |  |  | X | | | | | | | X | | X | | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | | X | X | X | X | X | X | X | | | | | | | | |\n| 9 | 7 |  |  |  |  |  | X | | | | | | | X | | X | | X | | X | | X | | | | | | | | | | X | | X | | | | | | | | | | | | | | | | | | | X | | X | | | | | | | X | X | X | X | X | X | X | X |"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version\n\n\n| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | bandeau | cleavage | collarbone | hadanugi\\_dousa | medium\\_breasts | open\\_kimono | solo | hair\\_ribbon | simple\\_background | gloves | looking\\_at\\_viewer | pleated\\_skirt | white\\_background | black\\_skirt | smile | blush | brown\\_hair | twitter\\_username | bow\\_(weapon) | partially\\_fingerless\\_gloves | single\\_glove | upper\\_body | hakama\\_short\\_skirt | black\\_hakama | thighhighs | white\\_kimono | dated | oil-paper\\_umbrella | kimono | skirt | rain | holding\\_umbrella | 2girls | hachimaki | hakama\\_skirt | open\\_mouth | high\\_ponytail | holding | wide\\_sleeves | japanese\\_clothes | |\\_| | aged\\_down | shorts | bikini | navel | cowboy\\_shot | large\\_breasts | long\\_sleeves | serafuku | alternate\\_costume | neckerchief | black\\_sailor\\_collar | black\\_thighhighs | white\\_shirt | enmaided | black\\_dress | white\\_apron | maid\\_apron | maid\\_headdress | frilled\\_apron | one-hour\\_drawing\\_challenge | puffy\\_sleeves |\n|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:----------|:-----------|:-------------|:-----------------|:-----------------|:--------------|:-------|:--------------|:--------------------|:---------|:--------------------|:----------------|:-------------------|:--------------|:--------|:--------|:-------------|:-------------------|:---------------|:------------------------------|:---------------|:-------------|:---------------------|:---------------|:-------------|:---------------|:--------|:---------------------|:---------|:--------|:-------|:-------------------|:---------|:------------|:---------------|:-------------|:----------------|:----------|:---------------|:-------------------|:------|:------------|:---------|:---------|:--------|:--------------|:----------------|:---------------|:-----------|:--------------------|:--------------|:----------------------|:-------------------|:--------------|:-----------|:--------------|:--------------|:-------------|:-----------------|:----------------|:-----------------------------|:----------------|\n| 0 | 7 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |\n| 1 | 6 |  |  |  |  |  | X | X | X | | X | X | X | X | X | | | | X | | X | X | | | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |\n| 2 | 6 |  |  |  |  |  | X | X | X | | X | | X | X | | X | | | | X | | X | X | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |\n| 3 | 13 |  |  |  |  |  | X | X | | | X | | X | X | | X | | | X | X | X | X | X | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |\n| 4 | 12 |  |  |  |  |  | X | | | | | | | X | | | | X | | | | X | X | | | | | | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |\n| 5 | 5 |  |  |  |  |  | | | | | | | | | | X | | | | X | X | | X | X | | | | | | | X | X | | | | | | | | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | |\n| 6 | 6 |  |  |  |  |  | | | | | | | | | | X | | | | X | | | X | | | | | | | | | | | | | | X | | | X | X | | | X | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | |\n| 7 | 13 |  |  |  |  |  | X | | | X | | X | | X | | X | | X | | X | | X | X | | | | | | | | | | | | | | | | | | | | X | | | | | | | | X | X | X | X | | | | | | | | | | | | | | | |\n| 8 | 8 |  |  |  |  |  | X | | | | | | | X | | X | | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | | X | X | X | X | X | X | X | | | | | | | | |\n| 9 | 7 |  |  |  |  |  | X | | | | | | | X | | X | | X | | X | | X | | | | | | | | | | X | | X | | | | | | | | | | | | | | | | | | | X | | X | | | | | | | X | X | X | X | X | X | X | X |"
] |
[
44,
61,
5,
2834
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version"
] |
d233132d932a75bb823e93a22758f6a97fee88d2
|
# Dataset Card for "scrapbook-dataset"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
Cloud9High5/scrapbook-dataset
|
[
"region:us"
] |
2023-08-22T01:37:45+00:00
|
{"dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "text", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 4494894.0, "num_examples": 108}], "download_size": 2574669, "dataset_size": 4494894.0}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-22T01:38:17+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "scrapbook-dataset"
More Information needed
|
[
"# Dataset Card for \"scrapbook-dataset\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"scrapbook-dataset\"\n\nMore Information needed"
] |
[
6,
16
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"scrapbook-dataset\"\n\nMore Information needed"
] |
a5984d2e7c9268ea7bab70c2cf45008cd4141691
|
# Dataset of hatsukaze/初風 (Kantai Collection)
This is the dataset of hatsukaze/初風 (Kantai Collection), containing 469 images and their tags.
The core tags of this character are `long_hair, blue_hair, blue_eyes, bangs, blunt_bangs`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:----------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 469 | 345.68 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hatsukaze_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 469 | 249.48 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hatsukaze_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 961 | 484.29 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hatsukaze_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 469 | 325.53 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hatsukaze_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 961 | 602.04 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hatsukaze_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/hatsukaze_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 22 |  |  |  |  |  | 1girl, solo, white_shirt, looking_at_viewer, white_gloves, short_sleeves, simple_background, school_uniform, upper_body, black_vest, white_background, yellow_bowtie, grey_vest, blush, blouse |
| 1 | 8 |  |  |  |  |  | 1girl, school_uniform, solo, vest, white_gloves, looking_at_viewer, hand_on_hip, pleated_skirt |
| 2 | 7 |  |  |  |  |  | 1girl, simple_background, santa_hat, solo, sweater, blush, looking_at_viewer, white_background, black_pantyhose, open_mouth, sailor_collar, thighband_pantyhose |
| 3 | 7 |  |  |  |  |  | 1girl, black_pantyhose, santa_hat, solo, full_body, looking_at_viewer, red_dress, red_footwear, sailor_collar, christmas, fur_trim, red_headwear, boots, fur-trimmed_headwear, long_sleeves, simple_background, sweater_dress, blush, gift_box, official_alternate_costume, santa_costume, thighband_pantyhose, white_background, yellow_neckerchief |
| 4 | 10 |  |  |  |  |  | fake_animal_ears, playboy_bunny, rabbit_ears, 1girl, solo, breasts, looking_at_viewer, black_pantyhose, bowtie, detached_collar, white_gloves, strapless_leotard, black_leotard, wrist_cuffs, blush, simple_background, tail, white_background |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | solo | white_shirt | looking_at_viewer | white_gloves | short_sleeves | simple_background | school_uniform | upper_body | black_vest | white_background | yellow_bowtie | grey_vest | blush | blouse | vest | hand_on_hip | pleated_skirt | santa_hat | sweater | black_pantyhose | open_mouth | sailor_collar | thighband_pantyhose | full_body | red_dress | red_footwear | christmas | fur_trim | red_headwear | boots | fur-trimmed_headwear | long_sleeves | sweater_dress | gift_box | official_alternate_costume | santa_costume | yellow_neckerchief | fake_animal_ears | playboy_bunny | rabbit_ears | breasts | bowtie | detached_collar | strapless_leotard | black_leotard | wrist_cuffs | tail |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:-------|:--------------|:--------------------|:---------------|:----------------|:--------------------|:-----------------|:-------------|:-------------|:-------------------|:----------------|:------------|:--------|:---------|:-------|:--------------|:----------------|:------------|:----------|:------------------|:-------------|:----------------|:----------------------|:------------|:------------|:---------------|:------------|:-----------|:---------------|:--------|:-----------------------|:---------------|:----------------|:-----------|:-----------------------------|:----------------|:---------------------|:-------------------|:----------------|:--------------|:----------|:---------|:------------------|:--------------------|:----------------|:--------------|:-------|
| 0 | 22 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 8 |  |  |  |  |  | X | X | | X | X | | | X | | | | | | | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 7 |  |  |  |  |  | X | X | | X | | | X | | | | X | | | X | | | | | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 7 |  |  |  |  |  | X | X | | X | | | X | | | | X | | | X | | | | | X | | X | | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | |
| 4 | 10 |  |  |  |  |  | X | X | | X | X | | X | | | | X | | | X | | | | | | | X | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/hatsukaze_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T01:44:09+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T14:35:21+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of hatsukaze/初風 (Kantai Collection)
===========================================
This is the dataset of hatsukaze/初風 (Kantai Collection), containing 469 images and their tags.
The core tags of this character are 'long\_hair, blue\_hair, blue\_eyes, bangs, blunt\_bangs', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
59d47277596197f8e32c71aefb83d782d81193e9
|
# Dataset Card for "test1"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
gmltnwwkd/test1
|
[
"region:us"
] |
2023-08-22T01:45:48+00:00
|
{"dataset_info": {"features": [{"name": "path", "dtype": "string"}, {"name": "sentence", "dtype": "string"}, {"name": "audio", "dtype": "audio"}], "splits": [{"name": "train", "num_bytes": 1439737561.5255475, "num_examples": 287}, {"name": "test", "num_bytes": 553424360.4744525, "num_examples": 124}], "download_size": 1911438374, "dataset_size": 1993161922.0}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "test", "path": "data/test-*"}]}]}
|
2023-08-22T01:52:30+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "test1"
More Information needed
|
[
"# Dataset Card for \"test1\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"test1\"\n\nMore Information needed"
] |
[
6,
12
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"test1\"\n\nMore Information needed"
] |
04da3acbc89855e967a52f25122bebe72cd0d3a4
|
# Dataset Card for "omni3d_v3"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
ZiAngGu/omni3d_v3
|
[
"region:us"
] |
2023-08-22T01:52:13+00:00
|
{"dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "conditioning_image", "dtype": "image"}, {"name": "text", "dtype": "string"}, {"name": "label", "sequence": "string"}, {"name": "box2d_pro", "sequence": {"sequence": {"sequence": "int64"}}}], "splits": [{"name": "train", "num_bytes": 23927821021.36, "num_examples": 220705}], "download_size": 25822293126, "dataset_size": 23927821021.36}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-23T01:44:44+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "omni3d_v3"
More Information needed
|
[
"# Dataset Card for \"omni3d_v3\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"omni3d_v3\"\n\nMore Information needed"
] |
[
6,
17
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"omni3d_v3\"\n\nMore Information needed"
] |
fee9c9df9b41f0a2f3730a6863f3ce3ffd24bc46
|
# Dataset Card for "annas-archive-index"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
P1ayer-1/annas-archive-index
|
[
"region:us"
] |
2023-08-22T01:54:28+00:00
|
{"dataset_info": {"features": [{"name": "zlibrary_id", "dtype": "int64"}, {"name": "date_added", "dtype": "string"}, {"name": "date_modified", "dtype": "string"}, {"name": "extension", "dtype": "string"}, {"name": "filesize", "dtype": "int64"}, {"name": "filesize_reported", "dtype": "int64"}, {"name": "md5", "dtype": "string"}, {"name": "md5_reported", "dtype": "string"}, {"name": "title", "dtype": "string"}, {"name": "author", "dtype": "string"}, {"name": "publisher", "dtype": "string"}, {"name": "language", "dtype": "string"}, {"name": "series", "dtype": "string"}, {"name": "volume", "dtype": "string"}, {"name": "edition", "dtype": "string"}, {"name": "year", "dtype": "string"}, {"name": "pages", "dtype": "string"}, {"name": "description", "dtype": "string"}, {"name": "cover_url", "dtype": "string"}, {"name": "in_libgen", "dtype": "int64"}, {"name": "pilimi_torrent", "dtype": "string"}, {"name": "unavailable", "dtype": "int64"}], "splits": [{"name": "train", "num_bytes": 8721445697, "num_examples": 11783153}], "download_size": 4461593028, "dataset_size": 8721445697}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-22T02:18:01+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "annas-archive-index"
More Information needed
|
[
"# Dataset Card for \"annas-archive-index\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"annas-archive-index\"\n\nMore Information needed"
] |
[
6,
16
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"annas-archive-index\"\n\nMore Information needed"
] |
a8a1085233885bfcda4d64c62a528e09c6ec28d5
|
# Dataset Card for "coderefine"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
dadofalin/coderefine
|
[
"region:us"
] |
2023-08-22T01:56:54+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}], "dataset_info": {"features": [{"name": "validation", "dtype": "string"}, {"name": "validationType", "dtype": "string"}, {"name": "function", "dtype": "string"}, {"name": "author", "dtype": "string"}, {"name": "context", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 615607, "num_examples": 448}], "download_size": 214016, "dataset_size": 615607}}
|
2023-08-22T02:02:29+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "coderefine"
More Information needed
|
[
"# Dataset Card for \"coderefine\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"coderefine\"\n\nMore Information needed"
] |
[
6,
13
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"coderefine\"\n\nMore Information needed"
] |
779b7bcf1e120e8e3a891dc2b5da97cc1c66b64e
|
# AutoTrain Dataset for project: translation-en-zh
## Dataset Description
This dataset has been automatically processed by AutoTrain for project translation-en-zh.
### Languages
The BCP-47 code for the dataset's language is en2zh.
## Dataset Structure
### Data Instances
A sample from this dataset looks as follows:
```json
[
{
"source": "Huang Yau-tai had a tough childhood, one in which musical resources were in short supply. However, he strove to educate himself, motivated by his passion for music and his perseverence. Today, he is the composer of more than 2,000 songs and 20 books on music.",
"target": "\u9ec3\u53cb\u68e3\u5e7c\u6642\u751f\u6d3b\u56f0\u9813\uff0c\u97f3\u6a02\u8cc7\u6e90\u66f4\u662f\u8ca7\u4e4f\uff0c\u6191\u8457\u5c0d\u97f3\u6a02\u7684\u71b1\u611b\u8207\u5805\u6301\uff0c\u52aa\u529b\u81ea\u5b78\uff0c\u81f3\u4eca\u5df2\u5b8c\u6210\u8d85\u904e 2 \u5343\u9996\u6a02\u66f2\u53ca 20 \u672c\u97f3\u6a02\u5c08\u8457\u3002"
},
{
"source": "He also remarked what a shame it was that the West only discovered it so late! Even Bob Dylan, the American singer perhaps second only to Elvis in popularity, praised the book, saying, \"I'm not trying to push it, I don't want to talk about it, but it's the only thing that is amazingly true, period, not just for me. Anybody would know it.",
"target": "\u9023\u9b91\u4f2f\u30fb\u72c4\u502b\uff0c\u9019\u4f4d\u7e7c\u8c93\u738b\u4e4b\u5f8c\u6700\u53d7\u666f\u4ef0\u7684\u7f8e\u570b\u6c11\u8b20\u6b4c\u624b\uff0c\u4e5f\u5f37\u529b\u5411\u8eab\u908a\u6240\u6709\u4eba\u63a8\u85a6\uff1a\u300c\u4f60\u4e00\u5b9a\u89aa\u8eab\u53bb\u9ad4\u6703\u300a\u6613\u7d93\u300b\uff0c\u6211\u4e0d\u60f3\u8b1b\u592a\u591a\uff0c\u53ea\u6709\u4e00\u9ede\uff1a\u4f60\u4e00\u8b80\u9019\u672c\u66f8\uff0c\u99ac\u4e0a\u6703\u5f37\u70c8\u611f\u89ba\u5230\uff0c\u9019\u4e00\u5207\u90fd\u662f\u771f\u7684\uff01\u300d"
}
]
```
### Dataset Fields
The dataset has the following fields (also called "features"):
```json
{
"source": "Value(dtype='string', id=None)",
"target": "Value(dtype='string', id=None)"
}
```
### Dataset Splits
This dataset is split into a train and validation split. The split sizes are as follow:
| Split name | Num samples |
| ------------ | ------------------- |
| train | 800 |
| valid | 200 |
|
neil-code/autotrain-data-translation-en-zh
|
[
"task_categories:translation",
"language:en",
"language:zh",
"region:us"
] |
2023-08-22T02:06:18+00:00
|
{"language": ["en", "zh"], "task_categories": ["translation"]}
|
2023-08-23T08:15:54+00:00
|
[] |
[
"en",
"zh"
] |
TAGS
#task_categories-translation #language-English #language-Chinese #region-us
|
AutoTrain Dataset for project: translation-en-zh
================================================
Dataset Description
-------------------
This dataset has been automatically processed by AutoTrain for project translation-en-zh.
### Languages
The BCP-47 code for the dataset's language is en2zh.
Dataset Structure
-----------------
### Data Instances
A sample from this dataset looks as follows:
### Dataset Fields
The dataset has the following fields (also called "features"):
### Dataset Splits
This dataset is split into a train and validation split. The split sizes are as follow:
|
[
"### Languages\n\n\nThe BCP-47 code for the dataset's language is en2zh.\n\n\nDataset Structure\n-----------------",
"### Data Instances\n\n\nA sample from this dataset looks as follows:",
"### Dataset Fields\n\n\nThe dataset has the following fields (also called \"features\"):",
"### Dataset Splits\n\n\nThis dataset is split into a train and validation split. The split sizes are as follow:"
] |
[
"TAGS\n#task_categories-translation #language-English #language-Chinese #region-us \n",
"### Languages\n\n\nThe BCP-47 code for the dataset's language is en2zh.\n\n\nDataset Structure\n-----------------",
"### Data Instances\n\n\nA sample from this dataset looks as follows:",
"### Dataset Fields\n\n\nThe dataset has the following fields (also called \"features\"):",
"### Dataset Splits\n\n\nThis dataset is split into a train and validation split. The split sizes are as follow:"
] |
[
24,
28,
17,
23,
27
] |
[
"passage: TAGS\n#task_categories-translation #language-English #language-Chinese #region-us \n### Languages\n\n\nThe BCP-47 code for the dataset's language is en2zh.\n\n\nDataset Structure\n-----------------### Data Instances\n\n\nA sample from this dataset looks as follows:### Dataset Fields\n\n\nThe dataset has the following fields (also called \"features\"):### Dataset Splits\n\n\nThis dataset is split into a train and validation split. The split sizes are as follow:"
] |
1aaa07d61d15a8467656b87b8cf97b3d3fc79962
|
# Dataset Card for "FLAN-generative"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
TaylorAI/FLAN-generative
|
[
"region:us"
] |
2023-08-22T02:10:50+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}], "dataset_info": {"features": [{"name": "inputs", "dtype": "string"}, {"name": "targets", "dtype": "string"}, {"name": "task_source", "dtype": "string"}, {"name": "task_name", "dtype": "string"}, {"name": "template_type", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 10654031686.363422, "num_examples": 6193245}], "download_size": 6994742759, "dataset_size": 10654031686.363422}}
|
2023-08-22T03:42:22+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "FLAN-generative"
More Information needed
|
[
"# Dataset Card for \"FLAN-generative\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"FLAN-generative\"\n\nMore Information needed"
] |
[
6,
15
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"FLAN-generative\"\n\nMore Information needed"
] |
6c72df1b1e17d45d2a6e4ae7bb136ad7e9e76081
|
# Dataset of myoukou/妙高/妙高 (Kantai Collection)
This is the dataset of myoukou/妙高/妙高 (Kantai Collection), containing 406 images and their tags.
The core tags of this character are `brown_eyes, hair_ornament, black_hair, hairclip, hair_bun, single_hair_bun, short_hair, breasts, brown_hair, braid, braided_bun`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:--------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 406 | 320.35 MiB | [Download](https://huggingface.co/datasets/CyberHarem/myoukou_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 406 | 223.98 MiB | [Download](https://huggingface.co/datasets/CyberHarem/myoukou_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 840 | 437.42 MiB | [Download](https://huggingface.co/datasets/CyberHarem/myoukou_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 406 | 302.06 MiB | [Download](https://huggingface.co/datasets/CyberHarem/myoukou_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 840 | 558.26 MiB | [Download](https://huggingface.co/datasets/CyberHarem/myoukou_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/myoukou_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 18 |  |  |  |  |  | 1girl, solo, white_gloves, black_skirt, looking_at_viewer, military_uniform, pencil_skirt, white_background, smile, simple_background, white_pantyhose, cowboy_shot, long_sleeves, purple_jacket, belt |
| 1 | 16 |  |  |  |  |  | 1girl, looking_at_viewer, military_uniform, solo, upper_body, simple_background, white_background, long_sleeves, white_gloves, shirt, smile, purple_jacket |
| 2 | 11 |  |  |  |  |  | 1girl, skirt, solo, white_pantyhose, smile, elbow_gloves, looking_at_viewer, white_gloves, blush, medium_breasts, sitting, open_mouth, turret |
| 3 | 7 |  |  |  |  |  | 1girl, long_hair, long_sleeves, looking_at_viewer, solo, white_shirt, dress_shirt, smile, collared_shirt, simple_background, upper_body, black_skirt, large_breasts, open_mouth, thick_eyebrows |
| 4 | 14 |  |  |  |  |  | playboy_bunny, rabbit_ears, 1girl, detached_collar, looking_at_viewer, solo, large_breasts, rabbit_tail, wrist_cuffs, simple_background, cleavage, strapless_leotard, white_background, adapted_costume, black_pantyhose, cowboy_shot, fake_animal_ears, jacket, long_hair, purple_leotard, black_leotard, smile |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | solo | white_gloves | black_skirt | looking_at_viewer | military_uniform | pencil_skirt | white_background | smile | simple_background | white_pantyhose | cowboy_shot | long_sleeves | purple_jacket | belt | upper_body | shirt | skirt | elbow_gloves | blush | medium_breasts | sitting | open_mouth | turret | long_hair | white_shirt | dress_shirt | collared_shirt | large_breasts | thick_eyebrows | playboy_bunny | rabbit_ears | detached_collar | rabbit_tail | wrist_cuffs | cleavage | strapless_leotard | adapted_costume | black_pantyhose | fake_animal_ears | jacket | purple_leotard | black_leotard |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:-------|:---------------|:--------------|:--------------------|:-------------------|:---------------|:-------------------|:--------|:--------------------|:------------------|:--------------|:---------------|:----------------|:-------|:-------------|:--------|:--------|:---------------|:--------|:-----------------|:----------|:-------------|:---------|:------------|:--------------|:--------------|:-----------------|:----------------|:-----------------|:----------------|:--------------|:------------------|:--------------|:--------------|:-----------|:--------------------|:------------------|:------------------|:-------------------|:---------|:-----------------|:----------------|
| 0 | 18 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 16 |  |  |  |  |  | X | X | X | | X | X | | X | X | X | | | X | X | | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 11 |  |  |  |  |  | X | X | X | | X | | | | X | | X | | | | | | | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | |
| 3 | 7 |  |  |  |  |  | X | X | | X | X | | | | X | X | | | X | | | X | | | | | | | X | | X | X | X | X | X | X | | | | | | | | | | | | | |
| 4 | 14 |  |  |  |  |  | X | X | | | X | | | X | X | X | | X | | | | | | | | | | | | | X | | | | X | | X | X | X | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/myoukou_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T02:38:58+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T16:20:45+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of myoukou/妙高/妙高 (Kantai Collection)
============================================
This is the dataset of myoukou/妙高/妙高 (Kantai Collection), containing 406 images and their tags.
The core tags of this character are 'brown\_eyes, hair\_ornament, black\_hair, hairclip, hair\_bun, single\_hair\_bun, short\_hair, breasts, brown\_hair, braid, braided\_bun', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
9650220ac66a88ffe07500954e20576d4e2c1003
|
# Dataset of mochizuki (Kantai Collection)
This is the dataset of mochizuki (Kantai Collection), containing 388 images and their tags.
The core tags of this character are `brown_hair, long_hair, glasses, brown_eyes, red-framed_eyewear, semi-rimless_eyewear, under-rim_eyewear`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:----------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 388 | 282.16 MiB | [Download](https://huggingface.co/datasets/CyberHarem/mochizuki_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 388 | 202.16 MiB | [Download](https://huggingface.co/datasets/CyberHarem/mochizuki_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 847 | 415.65 MiB | [Download](https://huggingface.co/datasets/CyberHarem/mochizuki_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 388 | 264.31 MiB | [Download](https://huggingface.co/datasets/CyberHarem/mochizuki_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 847 | 519.51 MiB | [Download](https://huggingface.co/datasets/CyberHarem/mochizuki_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/mochizuki_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 20 |  |  |  |  |  | 1girl, black_serafuku, solo, looking_at_viewer, black_sailor_collar, crescent_pin, simple_background, white_necktie, neckerchief, white_background, upper_body, long_sleeves, hair_between_eyes, skirt |
| 1 | 7 |  |  |  |  |  | 1girl, black_serafuku, blush, simple_background, solo, white_background, looking_at_viewer, crescent, necktie, pleated_skirt, long_sleeves, twitter_username |
| 2 | 5 |  |  |  |  |  | 1girl, black_serafuku, black_skirt, crescent_pin, long_sleeves, solo, white_necktie, pleated_skirt, white_socks, blush, sailor_collar |
| 3 | 6 |  |  |  |  |  | 1girl, crescent, necktie, skirt, solo, black_serafuku, looking_at_viewer, open_mouth, long_sleeves |
| 4 | 9 |  |  |  |  |  | 1girl, black_serafuku, black_skirt, kneehighs, long_sleeves, solo, white_necktie, crescent_pin, white_socks, black_sailor_collar, full_body, black_shirt, open_mouth, pleated_skirt, simple_background, bangs, brown_footwear, loafers, blush, hair_between_eyes, looking_at_viewer, standing, very_long_hair, white_background |
| 5 | 7 |  |  |  |  |  | 1girl, looking_at_viewer, one-piece_swimsuit, school_swimsuit, solo, crescent, flat_chest, open_mouth, covered_navel, cowboy_shot, twitter_username |
| 6 | 5 |  |  |  |  |  | flat_chest, looking_at_viewer, 1girl, navel, solo, white_bikini, cowboy_shot, side-tie_bikini_bottom, blue_background, cloud, open_mouth, sky, smile |
| 7 | 5 |  |  |  |  |  | black_dress, enmaided, maid_apron, white_apron, 1girl, frilled_apron, looking_at_viewer, maid_headdress, solo, blush, hair_between_eyes, long_sleeves, open_mouth, bangs, chibi, cowboy_shot, crescent_pin, puffy_sleeves, simple_background, smile, white_background |
| 8 | 7 |  |  |  |  |  | 1boy, 1girl, hetero, fellatio, bar_censor, pov, solo_focus, cum_in_mouth, looking_at_viewer, nude, saliva, sweat, tears, veiny_penis, erection, full-face_blush, large_penis, licking, long_sleeves, nipples |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | black_serafuku | solo | looking_at_viewer | black_sailor_collar | crescent_pin | simple_background | white_necktie | neckerchief | white_background | upper_body | long_sleeves | hair_between_eyes | skirt | blush | crescent | necktie | pleated_skirt | twitter_username | black_skirt | white_socks | sailor_collar | open_mouth | kneehighs | full_body | black_shirt | bangs | brown_footwear | loafers | standing | very_long_hair | one-piece_swimsuit | school_swimsuit | flat_chest | covered_navel | cowboy_shot | navel | white_bikini | side-tie_bikini_bottom | blue_background | cloud | sky | smile | black_dress | enmaided | maid_apron | white_apron | frilled_apron | maid_headdress | chibi | puffy_sleeves | 1boy | hetero | fellatio | bar_censor | pov | solo_focus | cum_in_mouth | nude | saliva | sweat | tears | veiny_penis | erection | full-face_blush | large_penis | licking | nipples |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:-----------------|:-------|:--------------------|:----------------------|:---------------|:--------------------|:----------------|:--------------|:-------------------|:-------------|:---------------|:--------------------|:--------|:--------|:-----------|:----------|:----------------|:-------------------|:--------------|:--------------|:----------------|:-------------|:------------|:------------|:--------------|:--------|:-----------------|:----------|:-----------|:-----------------|:---------------------|:------------------|:-------------|:----------------|:--------------|:--------|:---------------|:-------------------------|:------------------|:--------|:------|:--------|:--------------|:-----------|:-------------|:--------------|:----------------|:-----------------|:--------|:----------------|:-------|:---------|:-----------|:-------------|:------|:-------------|:---------------|:-------|:---------|:--------|:--------|:--------------|:-----------|:------------------|:--------------|:----------|:----------|
| 0 | 20 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 7 |  |  |  |  |  | X | X | X | X | | | X | | | X | | X | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 5 |  |  |  |  |  | X | X | X | | | X | | X | | | | X | | | X | | | X | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 6 |  |  |  |  |  | X | X | X | X | | | | | | | | X | | X | | X | X | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 9 |  |  |  |  |  | X | X | X | X | X | X | X | X | | X | | X | X | | X | | | X | | X | X | | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 7 |  |  |  |  |  | X | | X | X | | | | | | | | | | | | X | | | X | | | | X | | | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 6 | 5 |  |  |  |  |  | X | | X | X | | | | | | | | | | | | | | | | | | | X | | | | | | | | | | | X | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | |
| 7 | 5 |  |  |  |  |  | X | | X | X | | X | X | | | X | | X | X | | X | | | | | | | | X | | | | X | | | | | | | | | X | | | | | | | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | |
| 8 | 7 |  |  |  |  |  | X | | | X | | | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/mochizuki_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T02:50:16+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-16T07:11:12+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of mochizuki (Kantai Collection)
========================================
This is the dataset of mochizuki (Kantai Collection), containing 388 images and their tags.
The core tags of this character are 'brown\_hair, long\_hair, glasses, brown\_eyes, red-framed\_eyewear, semi-rimless\_eyewear, under-rim\_eyewear', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
a727ddb0c8469be20ee0605ea23821fed14b31b5
|
# Dataset Card for "movie_discriminator_v2"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
satvikp/movie_discriminator_v2
|
[
"region:us"
] |
2023-08-22T03:36:06+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}], "dataset_info": {"features": [{"name": "text", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 59699, "num_examples": 303}], "download_size": 24235, "dataset_size": 59699}}
|
2023-08-22T03:37:43+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "movie_discriminator_v2"
More Information needed
|
[
"# Dataset Card for \"movie_discriminator_v2\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"movie_discriminator_v2\"\n\nMore Information needed"
] |
[
6,
18
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"movie_discriminator_v2\"\n\nMore Information needed"
] |
286a04adfd51926cea99484f33a1b9a663c93000
|
Its this data set in evol intruct:
https://huggingface.co/datasets/garage-bAInd/Open-Platypus
|
rombodawg/Platypus_Evol
|
[
"license:other",
"region:us"
] |
2023-08-22T03:40:04+00:00
|
{"license": "other"}
|
2023-08-22T03:41:17+00:00
|
[] |
[] |
TAGS
#license-other #region-us
|
Its this data set in evol intruct:
URL
|
[] |
[
"TAGS\n#license-other #region-us \n"
] |
[
11
] |
[
"passage: TAGS\n#license-other #region-us \n"
] |
077e887f9cd3e98472d8688741bbd4d449921363
|
# Dataset Card for "sci-llm-raw"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
SUSTech/sci-llm-raw
|
[
"region:us"
] |
2023-08-22T03:51:53+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "test", "path": "data/test-*"}]}], "dataset_info": {"features": [{"name": "prompt", "dtype": "string"}, {"name": "chosen", "dtype": "string"}, {"name": "A", "dtype": "string"}, {"name": "B", "dtype": "string"}, {"name": "C", "dtype": "string"}, {"name": "D", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 16076587, "num_examples": 35895}, {"name": "test", "num_bytes": 182405, "num_examples": 200}], "download_size": 9778395, "dataset_size": 16258992}}
|
2023-08-23T15:07:41+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "sci-llm-raw"
More Information needed
|
[
"# Dataset Card for \"sci-llm-raw\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"sci-llm-raw\"\n\nMore Information needed"
] |
[
6,
16
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"sci-llm-raw\"\n\nMore Information needed"
] |
da68690ae6b8451edcc68dbb44317f4bc27aaa6f
|
# Dataset Card for "FLAN-longer-400k"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
TaylorAI/FLAN-longer-400k
|
[
"region:us"
] |
2023-08-22T03:52:34+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}], "dataset_info": {"features": [{"name": "inputs", "dtype": "string"}, {"name": "targets", "dtype": "string"}, {"name": "task_source", "dtype": "string"}, {"name": "task_name", "dtype": "string"}, {"name": "template_type", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 688106586.2153635, "num_examples": 400000}], "download_size": 451942436, "dataset_size": 688106586.2153635}}
|
2023-08-22T03:58:31+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "FLAN-longer-400k"
More Information needed
|
[
"# Dataset Card for \"FLAN-longer-400k\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"FLAN-longer-400k\"\n\nMore Information needed"
] |
[
6,
17
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"FLAN-longer-400k\"\n\nMore Information needed"
] |
b17ace154d3a98887e3e742d5abd72dd64a2777e
|
# Dataset Card for "tartan10"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
krishi/tartan10
|
[
"region:us"
] |
2023-08-22T03:53:43+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}], "dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "text", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 18507396.0, "num_examples": 10}], "download_size": 18509661, "dataset_size": 18507396.0}}
|
2023-08-22T03:53:51+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "tartan10"
More Information needed
|
[
"# Dataset Card for \"tartan10\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"tartan10\"\n\nMore Information needed"
] |
[
6,
13
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"tartan10\"\n\nMore Information needed"
] |
2ad772f2062b1ba1161ca668deabee6aa2cec18e
|
# Dataset of zara/ザラ (Kantai Collection)
This is the dataset of zara/ザラ (Kantai Collection), containing 406 images and their tags.
The core tags of this character are `long_hair, blonde_hair, braid, wavy_hair, breasts, french_braid, hat, large_breasts, mini_hat, brown_eyes, hair_between_eyes`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:-----------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 406 | 421.31 MiB | [Download](https://huggingface.co/datasets/CyberHarem/zara_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 406 | 270.69 MiB | [Download](https://huggingface.co/datasets/CyberHarem/zara_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 906 | 560.44 MiB | [Download](https://huggingface.co/datasets/CyberHarem/zara_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 406 | 385.17 MiB | [Download](https://huggingface.co/datasets/CyberHarem/zara_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 906 | 747.05 MiB | [Download](https://huggingface.co/datasets/CyberHarem/zara_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/zara_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 7 |  |  |  |  |  | 1girl, long_sleeves, looking_at_viewer, red_ascot, solo, upper_body, bare_shoulders, corset, white_shirt, blush, side_braid, simple_background, smile, white_background, clothing_cutout, open_mouth, one-hour_drawing_challenge, one_eye_closed, twitter_username, yellow_eyes |
| 1 | 5 |  |  |  |  |  | 1girl, corset, one-hour_drawing_challenge, red_ascot, red_skirt, simple_background, solo, twitter_username, white_background, white_shirt, clothing_cutout, side_braid, bangs, bare_shoulders, blush, cowboy_shot, long_sleeves, looking_at_viewer, open_mouth, dated, purple_eyes |
| 2 | 6 |  |  |  |  |  | 1girl, ascot, long_sleeves, looking_at_viewer, red_skirt, solo, white_shirt, corset, miniskirt, smile, bare_shoulders |
| 3 | 6 |  |  |  |  |  | 1girl, ascot, bare_shoulders, simple_background, solo, white_background, white_shirt, blush, long_sleeves, upper_body, looking_at_viewer, purple_eyes |
| 4 | 10 |  |  |  |  |  | 1girl, bare_shoulders, solo, miniskirt, looking_at_viewer, open_mouth, purple_eyes, smile, black_pantyhose, twitter_username |
| 5 | 6 |  |  |  |  |  | 1girl, blush, cleavage, collarbone, looking_at_viewer, navel, solo, bangs, side_braid, simple_background, cowboy_shot, white_background, red_bikini |
| 6 | 9 |  |  |  |  |  | 1girl, fake_animal_ears, looking_at_viewer, rabbit_ears, solo, wrist_cuffs, alternate_costume, blush, cleavage, playboy_bunny, simple_background, white_background, detached_collar, rabbit_tail, strapless, black_pantyhose, cowboy_shot, red_bowtie, black_leotard, twitter_username |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | long_sleeves | looking_at_viewer | red_ascot | solo | upper_body | bare_shoulders | corset | white_shirt | blush | side_braid | simple_background | smile | white_background | clothing_cutout | open_mouth | one-hour_drawing_challenge | one_eye_closed | twitter_username | yellow_eyes | red_skirt | bangs | cowboy_shot | dated | purple_eyes | ascot | miniskirt | black_pantyhose | cleavage | collarbone | navel | red_bikini | fake_animal_ears | rabbit_ears | wrist_cuffs | alternate_costume | playboy_bunny | detached_collar | rabbit_tail | strapless | red_bowtie | black_leotard |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:---------------|:--------------------|:------------|:-------|:-------------|:-----------------|:---------|:--------------|:--------|:-------------|:--------------------|:--------|:-------------------|:------------------|:-------------|:-----------------------------|:-----------------|:-------------------|:--------------|:------------|:--------|:--------------|:--------|:--------------|:--------|:------------|:------------------|:-----------|:-------------|:--------|:-------------|:-------------------|:--------------|:--------------|:--------------------|:----------------|:------------------|:--------------|:------------|:-------------|:----------------|
| 0 | 7 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 5 |  |  |  |  |  | X | X | X | X | X | | X | X | X | X | X | X | | X | X | X | X | | X | | X | X | X | X | X | | | | | | | | | | | | | | | | | |
| 2 | 6 |  |  |  |  |  | X | X | X | | X | | X | X | X | | | | X | | | | | | | | X | | | | | X | X | | | | | | | | | | | | | | | |
| 3 | 6 |  |  |  |  |  | X | X | X | | X | X | X | | X | X | | X | | X | | | | | | | | | | | X | X | | | | | | | | | | | | | | | | |
| 4 | 10 |  |  |  |  |  | X | | X | | X | | X | | | | | | X | | | X | | | X | | | | | | X | | X | X | | | | | | | | | | | | | | |
| 5 | 6 |  |  |  |  |  | X | | X | | X | | | | | X | X | X | | X | | | | | | | | X | X | | | | | | X | X | X | X | | | | | | | | | | |
| 6 | 9 |  |  |  |  |  | X | | X | | X | | | | | X | | X | | X | | | | | X | | | | X | | | | | X | X | | | | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/zara_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T03:58:12+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T22:05:08+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of zara/ザラ (Kantai Collection)
======================================
This is the dataset of zara/ザラ (Kantai Collection), containing 406 images and their tags.
The core tags of this character are 'long\_hair, blonde\_hair, braid, wavy\_hair, breasts, french\_braid, hat, large\_breasts, mini\_hat, brown\_eyes, hair\_between\_eyes', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
8d2a87df4529fc767205a5f8aabc76adef3ef6ae
|
Uploaded saree-rembg images
---
Uploaded metadata.jsonl
---
|
shrimantasatpati/Saree-NIFT-Style
|
[
"license:cc-by-nc-sa-4.0",
"region:us"
] |
2023-08-22T04:18:22+00:00
|
{"license": "cc-by-nc-sa-4.0"}
|
2023-08-22T04:23:30+00:00
|
[] |
[] |
TAGS
#license-cc-by-nc-sa-4.0 #region-us
|
Uploaded saree-rembg images
---
Uploaded URL
---
|
[] |
[
"TAGS\n#license-cc-by-nc-sa-4.0 #region-us \n"
] |
[
19
] |
[
"passage: TAGS\n#license-cc-by-nc-sa-4.0 #region-us \n"
] |
1db27d92f445439d0cbfa36c25735b06e209ae88
|
# Dataset of minegumo (Kantai Collection)
This is the dataset of minegumo (Kantai Collection), containing 421 images and their tags.
The core tags of this character are `long_hair, braid, twin_braids, light_brown_hair, red_eyes, breasts, gradient_hair, multicolored_hair, brown_eyes, bow, red_bow, large_breasts, plaid_bow`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:---------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 421 | 404.36 MiB | [Download](https://huggingface.co/datasets/CyberHarem/minegumo_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 421 | 254.92 MiB | [Download](https://huggingface.co/datasets/CyberHarem/minegumo_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 960 | 536.08 MiB | [Download](https://huggingface.co/datasets/CyberHarem/minegumo_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 421 | 367.63 MiB | [Download](https://huggingface.co/datasets/CyberHarem/minegumo_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 960 | 709.24 MiB | [Download](https://huggingface.co/datasets/CyberHarem/minegumo_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/minegumo_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 13 |  |  |  |  |  | 1girl, arm_warmers, grey_skirt, looking_at_viewer, plaid_bowtie, pleated_skirt, red_bowtie, school_uniform, short_sleeves, simple_background, solo, suspender_skirt, white_shirt, cowboy_shot, smile, white_background, low_twin_braids, open_mouth, dated |
| 1 | 11 |  |  |  |  |  | 1girl, cleavage, solo, open_mouth, blue_bra, collarbone, looking_at_viewer, medium_breasts, navel, underwear_only, blue_panties, blush, cowboy_shot |
| 2 | 11 |  |  |  |  |  | 1girl, looking_at_viewer, solo, upper_body, blush, smile, turtleneck, brown_sweater, long_sleeves, simple_background, red_sweater, alternate_costume, white_background, low_twin_braids, one-hour_drawing_challenge |
| 3 | 8 |  |  |  |  |  | 1girl, dress, long_sleeves, solo, blush, black_pantyhose, simple_background, white_background, beans, brown_sweater, cloud_print, full_body, looking_at_viewer, masu, open_mouth, box, setsubun, shoes, smile, black_footwear, red_sweater |
| 4 | 24 |  |  |  |  |  | 1girl, solo, looking_at_viewer, blush, collarbone, simple_background, white_background, cleavage, open_mouth, cowboy_shot, bikini, one-hour_drawing_challenge, navel, twitter_username, blue_one-piece_swimsuit, smile |
| 5 | 10 |  |  |  |  |  | 1girl, looking_at_viewer, solo, white_apron, enmaided, frilled_apron, maid_headdress, waist_apron, simple_background, white_background, cowboy_shot, one-hour_drawing_challenge, cleavage, dated, red_bowtie, white_thighhighs, black_dress, low_twin_braids, skirt, white_shirt, wrist_cuffs |
| 6 | 6 |  |  |  |  |  | 1girl, alternate_costume, cheerleader, holding_pom_poms, midriff, navel, open_mouth, pleated_skirt, sleeveless_shirt, smile, solo, blush, looking_at_viewer, crop_top_overhang, simple_background, white_background, bike_shorts, black_shorts, cowboy_shot, one-hour_drawing_challenge, shorts_under_skirt, white_skirt |
| 7 | 5 |  |  |  |  |  | 1girl, cleavage, detached_collar, playboy_bunny, rabbit_ears, simple_background, strapless_leotard, white_background, black_leotard, brown_pantyhose, fake_animal_ears, looking_at_viewer, solo, wrist_cuffs, alternate_costume, blush, red_bowtie, artist_logo, black_pantyhose, dated, low_twin_braids, medium_breasts, open_mouth, rabbit_tail |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | arm_warmers | grey_skirt | looking_at_viewer | plaid_bowtie | pleated_skirt | red_bowtie | school_uniform | short_sleeves | simple_background | solo | suspender_skirt | white_shirt | cowboy_shot | smile | white_background | low_twin_braids | open_mouth | dated | cleavage | blue_bra | collarbone | medium_breasts | navel | underwear_only | blue_panties | blush | upper_body | turtleneck | brown_sweater | long_sleeves | red_sweater | alternate_costume | one-hour_drawing_challenge | dress | black_pantyhose | beans | cloud_print | full_body | masu | box | setsubun | shoes | black_footwear | bikini | twitter_username | blue_one-piece_swimsuit | white_apron | enmaided | frilled_apron | maid_headdress | waist_apron | white_thighhighs | black_dress | skirt | wrist_cuffs | cheerleader | holding_pom_poms | midriff | sleeveless_shirt | crop_top_overhang | bike_shorts | black_shorts | shorts_under_skirt | white_skirt | detached_collar | playboy_bunny | rabbit_ears | strapless_leotard | black_leotard | brown_pantyhose | fake_animal_ears | artist_logo | rabbit_tail |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:--------------|:-------------|:--------------------|:---------------|:----------------|:-------------|:-----------------|:----------------|:--------------------|:-------|:------------------|:--------------|:--------------|:--------|:-------------------|:------------------|:-------------|:--------|:-----------|:-----------|:-------------|:-----------------|:--------|:-----------------|:---------------|:--------|:-------------|:-------------|:----------------|:---------------|:--------------|:--------------------|:-----------------------------|:--------|:------------------|:--------|:--------------|:------------|:-------|:------|:-----------|:--------|:-----------------|:---------|:-------------------|:--------------------------|:--------------|:-----------|:----------------|:-----------------|:--------------|:-------------------|:--------------|:--------|:--------------|:--------------|:-------------------|:----------|:-------------------|:--------------------|:--------------|:---------------|:---------------------|:--------------|:------------------|:----------------|:--------------|:--------------------|:----------------|:------------------|:-------------------|:--------------|:--------------|
| 0 | 13 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 11 |  |  |  |  |  | X | | | X | | | | | | | X | | | X | | | | X | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 11 |  |  |  |  |  | X | | | X | | | | | | X | X | | | | X | X | X | | | | | | | | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 8 |  |  |  |  |  | X | | | X | | | | | | X | X | | | | X | X | | X | | | | | | | | | X | | | X | X | X | | | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 24 |  |  |  |  |  | X | | | X | | | | | | X | X | | | X | X | X | | X | | X | | X | | X | | | X | | | | | | | X | | | | | | | | | | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 10 |  |  |  |  |  | X | | | X | | | X | | | X | X | | X | X | | X | X | | X | X | | | | | | | | | | | | | | X | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | |
| 6 | 6 |  |  |  |  |  | X | | | X | | X | | | | X | X | | | X | X | X | | X | | | | | | X | | | X | | | | | | X | X | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | | | | | | | | | |
| 7 | 5 |  |  |  |  |  | X | | | X | | | X | | | X | X | | | | | X | X | X | X | X | | | X | | | | X | | | | | | X | | | X | | | | | | | | | | | | | | | | | | | | X | | | | | | | | | | X | X | X | X | X | X | X | X | X |
|
CyberHarem/minegumo_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T04:50:14+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-16T09:06:48+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of minegumo (Kantai Collection)
=======================================
This is the dataset of minegumo (Kantai Collection), containing 421 images and their tags.
The core tags of this character are 'long\_hair, braid, twin\_braids, light\_brown\_hair, red\_eyes, breasts, gradient\_hair, multicolored\_hair, brown\_eyes, bow, red\_bow, large\_breasts, plaid\_bow', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
a8ba8236c0def43a919ef960b25ca5058c1c18fb
|
**CardioFlex Blood Sugar** is a “_Sudanese sugar secret_” claiming to help users maintain healthy blood glucose levels. How effective is the supplement? How long should you use it? Can people with diabetes use it?
**What is [CardioFlex Blood Sugar](https://lookerstudio.google.com/reporting/cb84cca6-9a7a-4a25-85f2-a9435f3f3469/page/0KSaD) Supplement?**
-------------------------------------------------------------------------------------------------------------------------------------------
CardioFlex Blood Sugar is a blend of doctor-formulated ingredients promising to help users develop healthy blood sugar ranges. It contains ingredients, including "Sudanese secret," to promote healthy glycemic levels naturally. The US-made product is purportedly made in a facility compliant with the cGMP and FDA regulations.
[.png)](https://www.glitco.com/get-cardioFlex)
Each [CardioFlex Blood Sugar](https://sites.google.com/view/cardioflex-blood-sugar/home) capsule delivers 570 mg of a proprietary blend designed to fight the root of erratic blood sugar ranges. The daily supplement helps promote weight loss, glucose metabolism, and energy levels.
CardioFlex Blood Sugar maker suggests using the supplement with an effective "Intermittent Fasting" routine. All the ingredients are clinically backed and in the appropriate amounts. The blood sugar support formula has zero genetically modified organisms, stimulants, and harmful chemicals. It does not cause addiction and is free from side effects.
[Try CardioFlex Blood Sugar now and experience the difference!](https://www.glitco.com/get-cardioFlex)
**How Does it Work?**
---------------------
[CardioFlex Blood Sugar](https://colab.research.google.com/drive/1cybYqWlwMNPwGwsC-ZcuKpbBL1-plKUH#scrollTo=MaSsHwcXi7HX) supplement uses a Sudanese method to regulate the blood sugar ranges. The natural components nourish the body with metabolism-boosting and appetite-regulating nutrients. The supplement eliminates the need for a rigid diet or exercise routine to achieve healthy sugar ranges. How does it work?
### **Improve the GLUT-4 Receptors**
When the blood sugar ranges spike, a healthy person secretes insulin to increase glucose metabolism stabilizing the glycemic range. Glut-4 is a natural glucose transporter that helps oxidize the extra glucose to skeletal muscles. CardioFlex Blood Sugar contains unique ingredients that enhance the GLUT-4 receptors encouraging glucose metabolism.
### **Regulate Appetite**
Managing hunger and cravings can control calorie intake and expenditure. CardioFlex Blood Sugar can regulate the hunger hormones and support intermittent fasting. It can help users to eat at specific intervals encouraging healthy glucose and fat metabolism. CardioFlex Blood Sugar diminishes hunger and stress-related eating, allowing users to manage healthy sugar ranges naturally.
### **Increase Metabolic Rates**
[CardioFlex Blood Sugar](https://groups.google.com/g/cardioflex-blood-sugar/c/AnGO8eoNPkI) contains metabolic-boosting nutrients, including green tea and cinnamon, to elevate natural metabolic rates. High metabolic rates increase glucose oxidation balancing the glycemic index. The supplement helps bring the fatty acids to the mitochondria surging energy production and glucose oxidation.
### **Combat Unhealthy Inflammation**
CardioFlex Blood Sugar can regulate systematic inflammation. It is rich in cinnamon and TeaCrine to fight unwanted inflammation and increase metabolism. The blend of nutrients can keep blood sugar ranges within normal.
### **Support Insulin Sensitivity**
Chromium is among the active ingredients in CardioFlex Blood Sugar designed to promote insulin sensitivity. The cells must utilize the sugar-balancing hormone to metabolize the glucose. Insulin sensitivity ensures more dells convert the glucose to energy keeping the glycemic index within normal ranges.
All CardioFlex Blood Sugar ingredients use a holistic approach to regulate the blood sugar ranges. The natural nutrients surge insulin sensitivity, reduce intestinal absorption of glucose, boost metabolic rates, encourage healthy inflammations, improve GLUT-4 receptors, and curb appetite in a joint effort to stabilize the glycemic ranges.
[.png)](https://www.glitco.com/get-cardioFlex)
[Click here to learn more at the official website >>>](https://www.glitco.com/get-cardioFlex)
**[CardioFlex Blood Sugar](https://cardioflex-blood-sugar.blogspot.com/2023/08/cardioflex-blood-sugar-reviews-doctors.html) Ingredients**
-----------------------------------------------------------------------------------------------------------------------------------------
CardioFlex Blood Sugar contains six clinically-backed ingredients to optimize blood sugar levels. The creator insists all the components are doctor-formulated, from reportable sources, and safe. The active nutrients include:
**Sukre**. Sukre is the secret ingredient the Sudanese use to regulate blood sugar ranges. It is a unique anti-diabetic sugar that promotes insulin sensitivity and healthy glucose metabolism. The nutrient helps the cells to respond to insulin increasing overall glucose oxidation. CardioFlex Blood Sugar contains Sukre, which offers special antioxidants and anti-inflammatory compounds that may boost pancreatic health. It may also fight inflammation affecting insulin release and utilization. Sukre works with other CardioFlex Blood Sugar to fight unhealthy cravings and support intermittent fasting. It can aid consumers in eating regularly, forcing the body to burn the available glucose and fats.
[Click Here to Get CardioFlex Blood Sugar At Discounted Price!!!](https://www.glitco.com/get-cardioFlex)
**TeaCrine**. TeaCrine comes from a distinct Chinese tea leaf (Kucha.) CardioFlex Blood Sugar maker asserts that the ingredient is the "new coffee" that can improve physical and mental performance. In ancient Chinese medicine, TeaCrine is used to cure respiratory infections and prolong life. The active constituent in TeaCrine is theacrine, clinically proven to stimulate the central nervous system without elevating blood pressure. It can support liver function and offer analgesic support. Early research shows that consuming TeaCrine can improve energy levels boosting mental concentration and physical performance. It may reduce fatigue, combat brain fog, and accelerate recovery after physical activities. CardioFlex Blood Sugar states that the anti-aging nutrient can boost cellular health.
**Chromium**, CardioFlex Blood Sugar contains chromium that supports insulin sensitivity enabling people with diabetes to enjoy healthy blood sugar ranges. Several clinical studies suggest that using the mineral regularly can keep the glycemic index within optimal ranges. One clinical analysis showed that taking 200 mg of chromium for 16 weeks can lower glycemic levels and support insulin sensitivity. Additional studies indicate that consuming chromium daily can minimize the possibility of acquiring diabetes by 21%. CardioFlex Blood Sugar can manage a healthy weight by battling intense food cravings. An 8-week study involving healthy but obese women indicated that consuming 1000 mg of chromium regularly reduces overall food intake and suppresses hunger. The metallic element can enhance lipid, carb, and protein metabolism. Combined with other CardioFlex Blood Sugar ingredients, it can reduce glucose absorption in the intestines while increasing fat oxidation. Regular intake of chromium can reduce overall body mass index.
**Green Tea**. The nutrient is among the market's most research-backed fat-loss compounds. It contains pure caffeine and EGCG elements to boost weight loss and raise energy levels naturally. EGCG and caffeine support natural fat-burning and minimize glucose absorption. A 2022 scientific study indicates that the nutrient can improve how the body metabolizes fat. In the study, consuming green tea before workouts boost overall athletic performance and recovery. Green tea nourishes the body with Theanine and caffeine, enhancing cognitive functions. It can enhance moods, learning, and concentration and reduce brain fog. A 2020 clinical analysis suggests that green tea can lower the chances of cognitive issues in middle-aged and older adults by 64%. Green tea can improve cellular health. It has catechins and other natural antioxidants to prevent oxidative damage. EGCG can also lower the risk of developing infections.
[Click here to order while supplies last!](https://www.glitco.com/get-cardioFlex)
**Cinnamon**. Cinnamon has a high nutrient profile containing antioxidants and anti-inflammatory and antimicrobial compounds. The prized medicinal spice is common in traditional Chinese and Asian medicine. Cinnamon is full of antioxidants and cinnamaldehydes to offer multiple health benefits. Studies indicate it can elevate polyphenol levels in the bloodstream, reducing C-reactive protein levels and other inflammatory markers. Consuming cinnamon with other spices combats systematic inflammations increasing the natural body’s response to tissue damage and infections. Cinnamon can regulate metabolism and energy use. It works by increasing the transport of blood sugar from the bloodstream to the cells for optimal metabolism. Cinnamon prevents insulin resistance and metabolic syndrome. It can enable the body to utilize the glucose and fat reserves effectively. Cinnamon has blood sugar-lowering properties. It works by altering the digestive enzymes reducing glucose absorption after digestion. Additionally, it mimics insulin snowballing glucose transport to cells for oxidation. Consuming cinnamon lowers fasting blood glucose ranges and augments hemoglobin A1c markers.
**Gymnema**. Gymnema is a climbing shrub that can fight sugar cravings and stabilize the glycemic index. Gymnema has gymnemic acid clinically proven to block the sugar receptors in the tongue. Studies indicate it can make sweet foods less tempting, reducing overall intake. Gymnema has anti-diabetic properties and can adjust the glycemic index. Clinical studies suggest that consuming 200-400 mg of Gymnema delivers enough gymnemic acid to inhibit blood sugar absorption in the intestines. It can therefore reduce blood sugar spikes after meals. Various studies show that Gymnema can expand cell regeneration and insulin secretion, encouraging healthy glycemic levels. It fortifies the islets cells promoting insulin production on command. Gymnema supports heart health by augmenting triglycerides and cholesterol levels. Animal studies suggest that it lowers bad cholesterol minimizing heart disease risks.
Multiple clinical studies and peer-reviewed publications suggest that five of the six active ingredients in CardioFlex Blood Sugar can support healthy blood sugar ranges. Chromium, cinnamon, Gymnema, green tea, and TeaCrine incurs insulin sensitivity and glucose metabolism. Moreover, the nutrients offer antimicrobial, antioxidant, and anti-inflammatory support, allowing the body to oxidize blood sugar naturally.
[Click here to claim your discount!](https://www.glitco.com/get-cardioFlex)
**Scientific Evidence for [CardioFlex Blood Sugar](https://www.facebook.com/people/CardioFlex-Blood-Sugar/61550201561023/) Supplement**
---------------------------------------------------------------------------------------------------------------------------------------
CardioFlex Blood Sugar maker cites various reference pages, peer-reviewed research, news articles, and blogs to prove the supplement works.
Sukre is among the active components in CardioFlex Blood Sugar. There is minimal information about the supposedly “Sudanese secret” online. Still, CardioFlex Blood Sugar maker claims the anti-diabetic ingredients improve the GLUT-4 receptors bolstering glucose metabolism at cellular levels.
Cinnamon is a natural spice and metabolic-boosting ingredient. It contains compounds that can purportedly help regulate blood sugar ranges. CardioFlex Blood Sugar cites a publication indicating that consuming 1-6 grams of cinnamon daily can benefit people with type two diabetes and may reverse or restore healthy blood sugar levels.
CardioFlex Blood Sugar has not indicated the exact amount of cinnamon in each serving. However, it can help manage healthy blood sugar, fight chronic pain, elevate immunity, and support healthy blood circulation.
CardioFlex Blood Sugar has TeaCrine, a proprietary form of theacrine plant extract. According to the citation on the official website, theacrine from the Kucha plant can elevate metabolic rates and even blood sugar ranges. TeaCrine can manage non-alcoholic fatty liver disease, raise glucose metabolism, and improve overall liver functions.
Chromium is among the best sugar-balancing mineral. Numerous peer-reviewed studies and placebo-controlled analyses prove chromium can support healthy glycemic levels and weight loss. Animal and test-tube studies prove chromium raises metabolic rates and may enhance insulin sensitivity. Chromium supplements can elevate fat oxidation, improve brain health, regulate appetite, and strengthen immunity.
[Click here to order CardioFlex Blood Sugar and experience the benefits!](https://www.glitco.com/get-cardioFlex)
**CardioFlex Blood Sugar Benefits**
-----------------------------------
CardioFlex Blood Sugar can offer multiple health benefits and maintain blood glucose that is already within the normal range when used correctly. The official website suggests combining the formula with intermittent fasting and a healthy diet for maximum benefits. The perks of using CardioFlex Blood Sugar include the following:
* CardioFlex Blood Sugar can reduce unhealthy food urges, chronic fatigue, and poor cognition
* It can elevate energy levels
* CardioFlex Blood Sugar can support fat breakdown, enabling users to lose weight and achieve desired body mass index.
* It can help maintain healthy sugar ranges.
* It can prevent damage to the GLUT-4 receptors, thus increasing insulin sensitivity.
* It may encourage a healthy lifestyle
* It can improve cognitive health
* It can support sleep
**Dosage and Side Effects**
---------------------------
Customers should follow the recommended one capsule daily serving before or after a meal. Each serving delivers 570 mg of a proprietary blend to support optimal glucose hemostasis. The blood sugar-balancing supplement is purportedly devoid of harmful chemicals and allergens. CardioFlex Blood Sugar is unlikely to cause side effects when taken in precise dosages.
CardioFlex Blood Sugar is marketed for adults only. Pregnant and nursing mothers should not use the supplementation. Also, individuals under medication should seek medical guidance before using CardioFlex Blood Sugar.
[.png)](https://www.glitco.com/get-cardioFlex)
Customers should not use CardioFlex Blood Sugar as a treatment, curative, diagnostic, or preventative regimen.
**Conclusion**
--------------
Erratic glycemic ranges are detrimental to your health. Experts suggest dieting and regular workouts to achieve a healthy blood sugar balance. CardioFlex Blood Sugar is a daily supplement containing six active ingredients to encourage healthy glucose hemostasis. It works by surging insulin sensitivity, reducing sugar cravings, and speeding up metabolic rates.
[.png)](https://www.glitco.com/get-cardioFlex)
CardioFlex Blood Sugar promotes weight loss, encourages healthy living, and helps maintain healthy blood sugar ranges. The CardioFlex Blood Sugar formula is made from 100% natural plant extracts from pure sources and is GMO-free, vegan-friendly, and side effects-free.
[(Limited Supply) Order CardioFlex Blood Sugar Before Supplies Run Out!!](https://www.glitco.com/get-cardioFlex)
|
cardioflexbloodsugar/CardioFlex
|
[
"region:us"
] |
2023-08-22T04:56:38+00:00
|
{}
|
2023-08-22T04:57:29+00:00
|
[] |
[] |
TAGS
#region-us
|
CardioFlex Blood Sugar is a “_Sudanese sugar secret_” claiming to help users maintain healthy blood glucose levels. How effective is the supplement? How long should you use it? Can people with diabetes use it?
What is CardioFlex Blood Sugar Supplement?
-------------------------------------------------------------------------------------------------------------------------------------------
CardioFlex Blood Sugar is a blend of doctor-formulated ingredients promising to help users develop healthy blood sugar ranges. It contains ingredients, including "Sudanese secret," to promote healthy glycemic levels naturally. The US-made product is purportedly made in a facility compliant with the cGMP and FDA regulations.
](URL
Click here to learn more at the official website >>>
CardioFlex Blood Sugar Ingredients
-----------------------------------------------------------------------------------------------------------------------------------------
CardioFlex Blood Sugar contains six clinically-backed ingredients to optimize blood sugar levels. The creator insists all the components are doctor-formulated, from reportable sources, and safe. The active nutrients include:
Sukre. Sukre is the secret ingredient the Sudanese use to regulate blood sugar ranges. It is a unique anti-diabetic sugar that promotes insulin sensitivity and healthy glucose metabolism. The nutrient helps the cells to respond to insulin increasing overall glucose oxidation. CardioFlex Blood Sugar contains Sukre, which offers special antioxidants and anti-inflammatory compounds that may boost pancreatic health. It may also fight inflammation affecting insulin release and utilization. Sukre works with other CardioFlex Blood Sugar to fight unhealthy cravings and support intermittent fasting. It can aid consumers in eating regularly, forcing the body to burn the available glucose and fats.
Click Here to Get CardioFlex Blood Sugar At Discounted Price!!!
TeaCrine. TeaCrine comes from a distinct Chinese tea leaf (Kucha.) CardioFlex Blood Sugar maker asserts that the ingredient is the "new coffee" that can improve physical and mental performance. In ancient Chinese medicine, TeaCrine is used to cure respiratory infections and prolong life. The active constituent in TeaCrine is theacrine, clinically proven to stimulate the central nervous system without elevating blood pressure. It can support liver function and offer analgesic support. Early research shows that consuming TeaCrine can improve energy levels boosting mental concentration and physical performance. It may reduce fatigue, combat brain fog, and accelerate recovery after physical activities. CardioFlex Blood Sugar states that the anti-aging nutrient can boost cellular health.
Chromium, CardioFlex Blood Sugar contains chromium that supports insulin sensitivity enabling people with diabetes to enjoy healthy blood sugar ranges. Several clinical studies suggest that using the mineral regularly can keep the glycemic index within optimal ranges. One clinical analysis showed that taking 200 mg of chromium for 16 weeks can lower glycemic levels and support insulin sensitivity. Additional studies indicate that consuming chromium daily can minimize the possibility of acquiring diabetes by 21%. CardioFlex Blood Sugar can manage a healthy weight by battling intense food cravings. An 8-week study involving healthy but obese women indicated that consuming 1000 mg of chromium regularly reduces overall food intake and suppresses hunger. The metallic element can enhance lipid, carb, and protein metabolism. Combined with other CardioFlex Blood Sugar ingredients, it can reduce glucose absorption in the intestines while increasing fat oxidation. Regular intake of chromium can reduce overall body mass index.
Green Tea. The nutrient is among the market's most research-backed fat-loss compounds. It contains pure caffeine and EGCG elements to boost weight loss and raise energy levels naturally. EGCG and caffeine support natural fat-burning and minimize glucose absorption. A 2022 scientific study indicates that the nutrient can improve how the body metabolizes fat. In the study, consuming green tea before workouts boost overall athletic performance and recovery. Green tea nourishes the body with Theanine and caffeine, enhancing cognitive functions. It can enhance moods, learning, and concentration and reduce brain fog. A 2020 clinical analysis suggests that green tea can lower the chances of cognitive issues in middle-aged and older adults by 64%. Green tea can improve cellular health. It has catechins and other natural antioxidants to prevent oxidative damage. EGCG can also lower the risk of developing infections.
Click here to order while supplies last!
Cinnamon. Cinnamon has a high nutrient profile containing antioxidants and anti-inflammatory and antimicrobial compounds. The prized medicinal spice is common in traditional Chinese and Asian medicine. Cinnamon is full of antioxidants and cinnamaldehydes to offer multiple health benefits. Studies indicate it can elevate polyphenol levels in the bloodstream, reducing C-reactive protein levels and other inflammatory markers. Consuming cinnamon with other spices combats systematic inflammations increasing the natural body’s response to tissue damage and infections. Cinnamon can regulate metabolism and energy use. It works by increasing the transport of blood sugar from the bloodstream to the cells for optimal metabolism. Cinnamon prevents insulin resistance and metabolic syndrome. It can enable the body to utilize the glucose and fat reserves effectively. Cinnamon has blood sugar-lowering properties. It works by altering the digestive enzymes reducing glucose absorption after digestion. Additionally, it mimics insulin snowballing glucose transport to cells for oxidation. Consuming cinnamon lowers fasting blood glucose ranges and augments hemoglobin A1c markers.
Gymnema. Gymnema is a climbing shrub that can fight sugar cravings and stabilize the glycemic index. Gymnema has gymnemic acid clinically proven to block the sugar receptors in the tongue. Studies indicate it can make sweet foods less tempting, reducing overall intake. Gymnema has anti-diabetic properties and can adjust the glycemic index. Clinical studies suggest that consuming 200-400 mg of Gymnema delivers enough gymnemic acid to inhibit blood sugar absorption in the intestines. It can therefore reduce blood sugar spikes after meals. Various studies show that Gymnema can expand cell regeneration and insulin secretion, encouraging healthy glycemic levels. It fortifies the islets cells promoting insulin production on command. Gymnema supports heart health by augmenting triglycerides and cholesterol levels. Animal studies suggest that it lowers bad cholesterol minimizing heart disease risks.
Multiple clinical studies and peer-reviewed publications suggest that five of the six active ingredients in CardioFlex Blood Sugar can support healthy blood sugar ranges. Chromium, cinnamon, Gymnema, green tea, and TeaCrine incurs insulin sensitivity and glucose metabolism. Moreover, the nutrients offer antimicrobial, antioxidant, and anti-inflammatory support, allowing the body to oxidize blood sugar naturally.
Click here to claim your discount!
Scientific Evidence for CardioFlex Blood Sugar Supplement
---------------------------------------------------------------------------------------------------------------------------------------
CardioFlex Blood Sugar maker cites various reference pages, peer-reviewed research, news articles, and blogs to prove the supplement works.
Sukre is among the active components in CardioFlex Blood Sugar. There is minimal information about the supposedly “Sudanese secret” online. Still, CardioFlex Blood Sugar maker claims the anti-diabetic ingredients improve the GLUT-4 receptors bolstering glucose metabolism at cellular levels.
Cinnamon is a natural spice and metabolic-boosting ingredient. It contains compounds that can purportedly help regulate blood sugar ranges. CardioFlex Blood Sugar cites a publication indicating that consuming 1-6 grams of cinnamon daily can benefit people with type two diabetes and may reverse or restore healthy blood sugar levels.
CardioFlex Blood Sugar has not indicated the exact amount of cinnamon in each serving. However, it can help manage healthy blood sugar, fight chronic pain, elevate immunity, and support healthy blood circulation.
CardioFlex Blood Sugar has TeaCrine, a proprietary form of theacrine plant extract. According to the citation on the official website, theacrine from the Kucha plant can elevate metabolic rates and even blood sugar ranges. TeaCrine can manage non-alcoholic fatty liver disease, raise glucose metabolism, and improve overall liver functions.
Chromium is among the best sugar-balancing mineral. Numerous peer-reviewed studies and placebo-controlled analyses prove chromium can support healthy glycemic levels and weight loss. Animal and test-tube studies prove chromium raises metabolic rates and may enhance insulin sensitivity. Chromium supplements can elevate fat oxidation, improve brain health, regulate appetite, and strengthen immunity.
Click here to order CardioFlex Blood Sugar and experience the benefits!
CardioFlex Blood Sugar Benefits
-----------------------------------
CardioFlex Blood Sugar can offer multiple health benefits and maintain blood glucose that is already within the normal range when used correctly. The official website suggests combining the formula with intermittent fasting and a healthy diet for maximum benefits. The perks of using CardioFlex Blood Sugar include the following:
* CardioFlex Blood Sugar can reduce unhealthy food urges, chronic fatigue, and poor cognition
* It can elevate energy levels
* CardioFlex Blood Sugar can support fat breakdown, enabling users to lose weight and achieve desired body mass index.
* It can help maintain healthy sugar ranges.
* It can prevent damage to the GLUT-4 receptors, thus increasing insulin sensitivity.
* It may encourage a healthy lifestyle
* It can improve cognitive health
* It can support sleep
Dosage and Side Effects
---------------------------
Customers should follow the recommended one capsule daily serving before or after a meal. Each serving delivers 570 mg of a proprietary blend to support optimal glucose hemostasis. The blood sugar-balancing supplement is purportedly devoid of harmful chemicals and allergens. CardioFlex Blood Sugar is unlikely to cause side effects when taken in precise dosages.
CardioFlex Blood Sugar is marketed for adults only. Pregnant and nursing mothers should not use the supplementation. Also, individuals under medication should seek medical guidance before using CardioFlex Blood Sugar.
](URL
CardioFlex Blood Sugar promotes weight loss, encourages healthy living, and helps maintain healthy blood sugar ranges. The CardioFlex Blood Sugar formula is made from 100% natural plant extracts from pure sources and is GMO-free, vegan-friendly, and side effects-free.
(Limited Supply) Order CardioFlex Blood Sugar Before Supplies Run Out!!
|
[
"### Improve the GLUT-4 Receptors\n\nWhen the blood sugar ranges spike, a healthy person secretes insulin to increase glucose metabolism stabilizing the glycemic range. Glut-4 is a natural glucose transporter that helps oxidize the extra glucose to skeletal muscles. CardioFlex Blood Sugar contains unique ingredients that enhance the GLUT-4 receptors encouraging glucose metabolism.",
"### Regulate Appetite\n\nManaging hunger and cravings can control calorie intake and expenditure. CardioFlex Blood Sugar can regulate the hunger hormones and support intermittent fasting. It can help users to eat at specific intervals encouraging healthy glucose and fat metabolism. CardioFlex Blood Sugar diminishes hunger and stress-related eating, allowing users to manage healthy sugar ranges naturally.",
"### Increase Metabolic Rates\n\nCardioFlex Blood Sugar contains metabolic-boosting nutrients, including green tea and cinnamon, to elevate natural metabolic rates. High metabolic rates increase glucose oxidation balancing the glycemic index. The supplement helps bring the fatty acids to the mitochondria surging energy production and glucose oxidation.",
"### Combat Unhealthy Inflammation\n\nCardioFlex Blood Sugar can regulate systematic inflammation. It is rich in cinnamon and TeaCrine to fight unwanted inflammation and increase metabolism. The blend of nutrients can keep blood sugar ranges within normal.",
"### Support Insulin Sensitivity\n\nChromium is among the active ingredients in CardioFlex Blood Sugar designed to promote insulin sensitivity. The cells must utilize the sugar-balancing hormone to metabolize the glucose. Insulin sensitivity ensures more dells convert the glucose to energy keeping the glycemic index within normal ranges.\n\nAll CardioFlex Blood Sugar ingredients use a holistic approach to regulate the blood sugar ranges. The natural nutrients surge insulin sensitivity, reduce intestinal absorption of glucose, boost metabolic rates, encourage healthy inflammations, improve GLUT-4 receptors, and curb appetite in a joint effort to stabilize the glycemic ranges.\n\n CardioFlex Blood Sugar maker asserts that the ingredient is the \"new coffee\" that can improve physical and mental performance. In ancient Chinese medicine, TeaCrine is used to cure respiratory infections and prolong life. The active constituent in TeaCrine is theacrine, clinically proven to stimulate the central nervous system without elevating blood pressure. It can support liver function and offer analgesic support. Early research shows that consuming TeaCrine can improve energy levels boosting mental concentration and physical performance. It may reduce fatigue, combat brain fog, and accelerate recovery after physical activities. CardioFlex Blood Sugar states that the anti-aging nutrient can boost cellular health.\n\nChromium, CardioFlex Blood Sugar contains chromium that supports insulin sensitivity enabling people with diabetes to enjoy healthy blood sugar ranges. Several clinical studies suggest that using the mineral regularly can keep the glycemic index within optimal ranges. One clinical analysis showed that taking 200 mg of chromium for 16 weeks can lower glycemic levels and support insulin sensitivity. Additional studies indicate that consuming chromium daily can minimize the possibility of acquiring diabetes by 21%. CardioFlex Blood Sugar can manage a healthy weight by battling intense food cravings. An 8-week study involving healthy but obese women indicated that consuming 1000 mg of chromium regularly reduces overall food intake and suppresses hunger. The metallic element can enhance lipid, carb, and protein metabolism. Combined with other CardioFlex Blood Sugar ingredients, it can reduce glucose absorption in the intestines while increasing fat oxidation. Regular intake of chromium can reduce overall body mass index.\n\nGreen Tea. The nutrient is among the market's most research-backed fat-loss compounds. It contains pure caffeine and EGCG elements to boost weight loss and raise energy levels naturally. EGCG and caffeine support natural fat-burning and minimize glucose absorption. A 2022 scientific study indicates that the nutrient can improve how the body metabolizes fat. In the study, consuming green tea before workouts boost overall athletic performance and recovery. Green tea nourishes the body with Theanine and caffeine, enhancing cognitive functions. It can enhance moods, learning, and concentration and reduce brain fog. A 2020 clinical analysis suggests that green tea can lower the chances of cognitive issues in middle-aged and older adults by 64%. Green tea can improve cellular health. It has catechins and other natural antioxidants to prevent oxidative damage. EGCG can also lower the risk of developing infections.\n\nClick here to order while supplies last!\n\nCinnamon. Cinnamon has a high nutrient profile containing antioxidants and anti-inflammatory and antimicrobial compounds. The prized medicinal spice is common in traditional Chinese and Asian medicine. Cinnamon is full of antioxidants and cinnamaldehydes to offer multiple health benefits. Studies indicate it can elevate polyphenol levels in the bloodstream, reducing C-reactive protein levels and other inflammatory markers. Consuming cinnamon with other spices combats systematic inflammations increasing the natural body’s response to tissue damage and infections. Cinnamon can regulate metabolism and energy use. It works by increasing the transport of blood sugar from the bloodstream to the cells for optimal metabolism. Cinnamon prevents insulin resistance and metabolic syndrome. It can enable the body to utilize the glucose and fat reserves effectively. Cinnamon has blood sugar-lowering properties. It works by altering the digestive enzymes reducing glucose absorption after digestion. Additionally, it mimics insulin snowballing glucose transport to cells for oxidation. Consuming cinnamon lowers fasting blood glucose ranges and augments hemoglobin A1c markers.\n\nGymnema. Gymnema is a climbing shrub that can fight sugar cravings and stabilize the glycemic index. Gymnema has gymnemic acid clinically proven to block the sugar receptors in the tongue. Studies indicate it can make sweet foods less tempting, reducing overall intake. Gymnema has anti-diabetic properties and can adjust the glycemic index. Clinical studies suggest that consuming 200-400 mg of Gymnema delivers enough gymnemic acid to inhibit blood sugar absorption in the intestines. It can therefore reduce blood sugar spikes after meals. Various studies show that Gymnema can expand cell regeneration and insulin secretion, encouraging healthy glycemic levels. It fortifies the islets cells promoting insulin production on command. Gymnema supports heart health by augmenting triglycerides and cholesterol levels. Animal studies suggest that it lowers bad cholesterol minimizing heart disease risks.\n\nMultiple clinical studies and peer-reviewed publications suggest that five of the six active ingredients in CardioFlex Blood Sugar can support healthy blood sugar ranges. Chromium, cinnamon, Gymnema, green tea, and TeaCrine incurs insulin sensitivity and glucose metabolism. Moreover, the nutrients offer antimicrobial, antioxidant, and anti-inflammatory support, allowing the body to oxidize blood sugar naturally.\n\nClick here to claim your discount!\n\nScientific Evidence for CardioFlex Blood Sugar Supplement\n---------------------------------------------------------------------------------------------------------------------------------------\n\nCardioFlex Blood Sugar maker cites various reference pages, peer-reviewed research, news articles, and blogs to prove the supplement works.\n\nSukre is among the active components in CardioFlex Blood Sugar. There is minimal information about the supposedly “Sudanese secret” online. Still, CardioFlex Blood Sugar maker claims the anti-diabetic ingredients improve the GLUT-4 receptors bolstering glucose metabolism at cellular levels.\n\nCinnamon is a natural spice and metabolic-boosting ingredient. It contains compounds that can purportedly help regulate blood sugar ranges. CardioFlex Blood Sugar cites a publication indicating that consuming 1-6 grams of cinnamon daily can benefit people with type two diabetes and may reverse or restore healthy blood sugar levels.\n\nCardioFlex Blood Sugar has not indicated the exact amount of cinnamon in each serving. However, it can help manage healthy blood sugar, fight chronic pain, elevate immunity, and support healthy blood circulation.\n\nCardioFlex Blood Sugar has TeaCrine, a proprietary form of theacrine plant extract. According to the citation on the official website, theacrine from the Kucha plant can elevate metabolic rates and even blood sugar ranges. TeaCrine can manage non-alcoholic fatty liver disease, raise glucose metabolism, and improve overall liver functions.\n\nChromium is among the best sugar-balancing mineral. Numerous peer-reviewed studies and placebo-controlled analyses prove chromium can support healthy glycemic levels and weight loss. Animal and test-tube studies prove chromium raises metabolic rates and may enhance insulin sensitivity. Chromium supplements can elevate fat oxidation, improve brain health, regulate appetite, and strengthen immunity.\n\nClick here to order CardioFlex Blood Sugar and experience the benefits!\n\nCardioFlex Blood Sugar Benefits\n-----------------------------------\n\nCardioFlex Blood Sugar can offer multiple health benefits and maintain blood glucose that is already within the normal range when used correctly. The official website suggests combining the formula with intermittent fasting and a healthy diet for maximum benefits. The perks of using CardioFlex Blood Sugar include the following:\n\n* CardioFlex Blood Sugar can reduce unhealthy food urges, chronic fatigue, and poor cognition\n* It can elevate energy levels\n* CardioFlex Blood Sugar can support fat breakdown, enabling users to lose weight and achieve desired body mass index.\n* It can help maintain healthy sugar ranges.\n* It can prevent damage to the GLUT-4 receptors, thus increasing insulin sensitivity.\n* It may encourage a healthy lifestyle\n* It can improve cognitive health\n* It can support sleep\n\nDosage and Side Effects\n---------------------------\n\nCustomers should follow the recommended one capsule daily serving before or after a meal. Each serving delivers 570 mg of a proprietary blend to support optimal glucose hemostasis. The blood sugar-balancing supplement is purportedly devoid of harmful chemicals and allergens. CardioFlex Blood Sugar is unlikely to cause side effects when taken in precise dosages.\n\nCardioFlex Blood Sugar is marketed for adults only. Pregnant and nursing mothers should not use the supplementation. Also, individuals under medication should seek medical guidance before using CardioFlex Blood Sugar.\n\n](URL\n\nCardioFlex Blood Sugar promotes weight loss, encourages healthy living, and helps maintain healthy blood sugar ranges. The CardioFlex Blood Sugar formula is made from 100% natural plant extracts from pure sources and is GMO-free, vegan-friendly, and side effects-free.\n\n(Limited Supply) Order CardioFlex Blood Sugar Before Supplies Run Out!!"
] |
[
"TAGS\n#region-us \n",
"### Improve the GLUT-4 Receptors\n\nWhen the blood sugar ranges spike, a healthy person secretes insulin to increase glucose metabolism stabilizing the glycemic range. Glut-4 is a natural glucose transporter that helps oxidize the extra glucose to skeletal muscles. CardioFlex Blood Sugar contains unique ingredients that enhance the GLUT-4 receptors encouraging glucose metabolism.",
"### Regulate Appetite\n\nManaging hunger and cravings can control calorie intake and expenditure. CardioFlex Blood Sugar can regulate the hunger hormones and support intermittent fasting. It can help users to eat at specific intervals encouraging healthy glucose and fat metabolism. CardioFlex Blood Sugar diminishes hunger and stress-related eating, allowing users to manage healthy sugar ranges naturally.",
"### Increase Metabolic Rates\n\nCardioFlex Blood Sugar contains metabolic-boosting nutrients, including green tea and cinnamon, to elevate natural metabolic rates. High metabolic rates increase glucose oxidation balancing the glycemic index. The supplement helps bring the fatty acids to the mitochondria surging energy production and glucose oxidation.",
"### Combat Unhealthy Inflammation\n\nCardioFlex Blood Sugar can regulate systematic inflammation. It is rich in cinnamon and TeaCrine to fight unwanted inflammation and increase metabolism. The blend of nutrients can keep blood sugar ranges within normal.",
"### Support Insulin Sensitivity\n\nChromium is among the active ingredients in CardioFlex Blood Sugar designed to promote insulin sensitivity. The cells must utilize the sugar-balancing hormone to metabolize the glucose. Insulin sensitivity ensures more dells convert the glucose to energy keeping the glycemic index within normal ranges.\n\nAll CardioFlex Blood Sugar ingredients use a holistic approach to regulate the blood sugar ranges. The natural nutrients surge insulin sensitivity, reduce intestinal absorption of glucose, boost metabolic rates, encourage healthy inflammations, improve GLUT-4 receptors, and curb appetite in a joint effort to stabilize the glycemic ranges.\n\n CardioFlex Blood Sugar maker asserts that the ingredient is the \"new coffee\" that can improve physical and mental performance. In ancient Chinese medicine, TeaCrine is used to cure respiratory infections and prolong life. The active constituent in TeaCrine is theacrine, clinically proven to stimulate the central nervous system without elevating blood pressure. It can support liver function and offer analgesic support. Early research shows that consuming TeaCrine can improve energy levels boosting mental concentration and physical performance. It may reduce fatigue, combat brain fog, and accelerate recovery after physical activities. CardioFlex Blood Sugar states that the anti-aging nutrient can boost cellular health.\n\nChromium, CardioFlex Blood Sugar contains chromium that supports insulin sensitivity enabling people with diabetes to enjoy healthy blood sugar ranges. Several clinical studies suggest that using the mineral regularly can keep the glycemic index within optimal ranges. One clinical analysis showed that taking 200 mg of chromium for 16 weeks can lower glycemic levels and support insulin sensitivity. Additional studies indicate that consuming chromium daily can minimize the possibility of acquiring diabetes by 21%. CardioFlex Blood Sugar can manage a healthy weight by battling intense food cravings. An 8-week study involving healthy but obese women indicated that consuming 1000 mg of chromium regularly reduces overall food intake and suppresses hunger. The metallic element can enhance lipid, carb, and protein metabolism. Combined with other CardioFlex Blood Sugar ingredients, it can reduce glucose absorption in the intestines while increasing fat oxidation. Regular intake of chromium can reduce overall body mass index.\n\nGreen Tea. The nutrient is among the market's most research-backed fat-loss compounds. It contains pure caffeine and EGCG elements to boost weight loss and raise energy levels naturally. EGCG and caffeine support natural fat-burning and minimize glucose absorption. A 2022 scientific study indicates that the nutrient can improve how the body metabolizes fat. In the study, consuming green tea before workouts boost overall athletic performance and recovery. Green tea nourishes the body with Theanine and caffeine, enhancing cognitive functions. It can enhance moods, learning, and concentration and reduce brain fog. A 2020 clinical analysis suggests that green tea can lower the chances of cognitive issues in middle-aged and older adults by 64%. Green tea can improve cellular health. It has catechins and other natural antioxidants to prevent oxidative damage. EGCG can also lower the risk of developing infections.\n\nClick here to order while supplies last!\n\nCinnamon. Cinnamon has a high nutrient profile containing antioxidants and anti-inflammatory and antimicrobial compounds. The prized medicinal spice is common in traditional Chinese and Asian medicine. Cinnamon is full of antioxidants and cinnamaldehydes to offer multiple health benefits. Studies indicate it can elevate polyphenol levels in the bloodstream, reducing C-reactive protein levels and other inflammatory markers. Consuming cinnamon with other spices combats systematic inflammations increasing the natural body’s response to tissue damage and infections. Cinnamon can regulate metabolism and energy use. It works by increasing the transport of blood sugar from the bloodstream to the cells for optimal metabolism. Cinnamon prevents insulin resistance and metabolic syndrome. It can enable the body to utilize the glucose and fat reserves effectively. Cinnamon has blood sugar-lowering properties. It works by altering the digestive enzymes reducing glucose absorption after digestion. Additionally, it mimics insulin snowballing glucose transport to cells for oxidation. Consuming cinnamon lowers fasting blood glucose ranges and augments hemoglobin A1c markers.\n\nGymnema. Gymnema is a climbing shrub that can fight sugar cravings and stabilize the glycemic index. Gymnema has gymnemic acid clinically proven to block the sugar receptors in the tongue. Studies indicate it can make sweet foods less tempting, reducing overall intake. Gymnema has anti-diabetic properties and can adjust the glycemic index. Clinical studies suggest that consuming 200-400 mg of Gymnema delivers enough gymnemic acid to inhibit blood sugar absorption in the intestines. It can therefore reduce blood sugar spikes after meals. Various studies show that Gymnema can expand cell regeneration and insulin secretion, encouraging healthy glycemic levels. It fortifies the islets cells promoting insulin production on command. Gymnema supports heart health by augmenting triglycerides and cholesterol levels. Animal studies suggest that it lowers bad cholesterol minimizing heart disease risks.\n\nMultiple clinical studies and peer-reviewed publications suggest that five of the six active ingredients in CardioFlex Blood Sugar can support healthy blood sugar ranges. Chromium, cinnamon, Gymnema, green tea, and TeaCrine incurs insulin sensitivity and glucose metabolism. Moreover, the nutrients offer antimicrobial, antioxidant, and anti-inflammatory support, allowing the body to oxidize blood sugar naturally.\n\nClick here to claim your discount!\n\nScientific Evidence for CardioFlex Blood Sugar Supplement\n---------------------------------------------------------------------------------------------------------------------------------------\n\nCardioFlex Blood Sugar maker cites various reference pages, peer-reviewed research, news articles, and blogs to prove the supplement works.\n\nSukre is among the active components in CardioFlex Blood Sugar. There is minimal information about the supposedly “Sudanese secret” online. Still, CardioFlex Blood Sugar maker claims the anti-diabetic ingredients improve the GLUT-4 receptors bolstering glucose metabolism at cellular levels.\n\nCinnamon is a natural spice and metabolic-boosting ingredient. It contains compounds that can purportedly help regulate blood sugar ranges. CardioFlex Blood Sugar cites a publication indicating that consuming 1-6 grams of cinnamon daily can benefit people with type two diabetes and may reverse or restore healthy blood sugar levels.\n\nCardioFlex Blood Sugar has not indicated the exact amount of cinnamon in each serving. However, it can help manage healthy blood sugar, fight chronic pain, elevate immunity, and support healthy blood circulation.\n\nCardioFlex Blood Sugar has TeaCrine, a proprietary form of theacrine plant extract. According to the citation on the official website, theacrine from the Kucha plant can elevate metabolic rates and even blood sugar ranges. TeaCrine can manage non-alcoholic fatty liver disease, raise glucose metabolism, and improve overall liver functions.\n\nChromium is among the best sugar-balancing mineral. Numerous peer-reviewed studies and placebo-controlled analyses prove chromium can support healthy glycemic levels and weight loss. Animal and test-tube studies prove chromium raises metabolic rates and may enhance insulin sensitivity. Chromium supplements can elevate fat oxidation, improve brain health, regulate appetite, and strengthen immunity.\n\nClick here to order CardioFlex Blood Sugar and experience the benefits!\n\nCardioFlex Blood Sugar Benefits\n-----------------------------------\n\nCardioFlex Blood Sugar can offer multiple health benefits and maintain blood glucose that is already within the normal range when used correctly. The official website suggests combining the formula with intermittent fasting and a healthy diet for maximum benefits. The perks of using CardioFlex Blood Sugar include the following:\n\n* CardioFlex Blood Sugar can reduce unhealthy food urges, chronic fatigue, and poor cognition\n* It can elevate energy levels\n* CardioFlex Blood Sugar can support fat breakdown, enabling users to lose weight and achieve desired body mass index.\n* It can help maintain healthy sugar ranges.\n* It can prevent damage to the GLUT-4 receptors, thus increasing insulin sensitivity.\n* It may encourage a healthy lifestyle\n* It can improve cognitive health\n* It can support sleep\n\nDosage and Side Effects\n---------------------------\n\nCustomers should follow the recommended one capsule daily serving before or after a meal. Each serving delivers 570 mg of a proprietary blend to support optimal glucose hemostasis. The blood sugar-balancing supplement is purportedly devoid of harmful chemicals and allergens. CardioFlex Blood Sugar is unlikely to cause side effects when taken in precise dosages.\n\nCardioFlex Blood Sugar is marketed for adults only. Pregnant and nursing mothers should not use the supplementation. Also, individuals under medication should seek medical guidance before using CardioFlex Blood Sugar.\n\n](URL\n\nCardioFlex Blood Sugar promotes weight loss, encourages healthy living, and helps maintain healthy blood sugar ranges. The CardioFlex Blood Sugar formula is made from 100% natural plant extracts from pure sources and is GMO-free, vegan-friendly, and side effects-free.\n\n(Limited Supply) Order CardioFlex Blood Sugar Before Supplies Run Out!!"
] |
[
6,
86,
97,
84,
58,
2600
] |
[
"passage: TAGS\n#region-us \n### Improve the GLUT-4 Receptors\n\nWhen the blood sugar ranges spike, a healthy person secretes insulin to increase glucose metabolism stabilizing the glycemic range. Glut-4 is a natural glucose transporter that helps oxidize the extra glucose to skeletal muscles. CardioFlex Blood Sugar contains unique ingredients that enhance the GLUT-4 receptors encouraging glucose metabolism.### Regulate Appetite\n\nManaging hunger and cravings can control calorie intake and expenditure. CardioFlex Blood Sugar can regulate the hunger hormones and support intermittent fasting. It can help users to eat at specific intervals encouraging healthy glucose and fat metabolism. CardioFlex Blood Sugar diminishes hunger and stress-related eating, allowing users to manage healthy sugar ranges naturally.### Increase Metabolic Rates\n\nCardioFlex Blood Sugar contains metabolic-boosting nutrients, including green tea and cinnamon, to elevate natural metabolic rates. High metabolic rates increase glucose oxidation balancing the glycemic index. The supplement helps bring the fatty acids to the mitochondria surging energy production and glucose oxidation.### Combat Unhealthy Inflammation\n\nCardioFlex Blood Sugar can regulate systematic inflammation. It is rich in cinnamon and TeaCrine to fight unwanted inflammation and increase metabolism. The blend of nutrients can keep blood sugar ranges within normal."
] |
f3202223a02c96d85aba8bf57be187d79673fb3f
|
# Dataset of harukaze/春風 (Kantai Collection)
This is the dataset of harukaze/春風 (Kantai Collection), containing 436 images and their tags.
The core tags of this character are `brown_hair, drill_hair, twin_drills, bow, hair_bow, red_eyes, red_bow, long_hair, breasts`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:---------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 436 | 356.92 MiB | [Download](https://huggingface.co/datasets/CyberHarem/harukaze_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 436 | 252.50 MiB | [Download](https://huggingface.co/datasets/CyberHarem/harukaze_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 920 | 503.72 MiB | [Download](https://huggingface.co/datasets/CyberHarem/harukaze_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 436 | 334.04 MiB | [Download](https://huggingface.co/datasets/CyberHarem/harukaze_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 920 | 623.34 MiB | [Download](https://huggingface.co/datasets/CyberHarem/harukaze_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/harukaze_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 9 |  |  |  |  |  | 2girls, hakama_skirt, meiji_schoolgirl_uniform, red_hakama, solo_focus, pink_kimono, looking_at_viewer, white_background, pink_hakama, smile |
| 1 | 19 |  |  |  |  |  | 1girl, hakama_skirt, looking_at_viewer, meiji_schoolgirl_uniform, pink_kimono, red_hakama, solo, white_background, simple_background, smile |
| 2 | 5 |  |  |  |  |  | 1girl, hakama_skirt, meiji_schoolgirl_uniform, pink_kimono, red_hakama, smile, solo, cowboy_shot, looking_at_viewer |
| 3 | 16 |  |  |  |  |  | 1girl, hakama_skirt, meiji_schoolgirl_uniform, oil-paper_umbrella, red_hakama, solo, looking_at_viewer, pink_kimono, smile, red_umbrella, holding_umbrella |
| 4 | 7 |  |  |  |  |  | 1girl, full_body, hakama_skirt, high_heel_boots, lace-up_boots, looking_at_viewer, meiji_schoolgirl_uniform, pink_kimono, red_hakama, simple_background, smile, solo, standing, white_background, brown_footwear, oil-paper_umbrella, closed_umbrella |
| 5 | 15 |  |  |  |  |  | 1girl, looking_at_viewer, solo, navel, medium_breasts, simple_background, smile, white_background, cleavage, pink_bikini, blush, collarbone, hair_between_eyes |
| 6 | 6 |  |  |  |  |  | 1girl, blue_sky, cloud, day, outdoors, cowboy_shot, looking_at_viewer, ocean, solo, bikini, medium_breasts, standing, beach, water |
| 7 | 6 |  |  |  |  |  | 1girl, cosplay, sailor_collar, looking_at_viewer, solo, blush, gloves, neckerchief, open_mouth, sleeveless_shirt, smile, white_serafuku, white_skirt |
| 8 | 7 |  |  |  |  |  | 1girl, crop_top, elbow_gloves, shimakaze_(kancolle)_(cosplay), white_gloves, black_panties, highleg_panties, navel, serafuku, solo, striped_thighhighs, looking_at_viewer, black_hairband, blue_skirt, blush, medium_breasts, microskirt, smile, thong, black_neckerchief, blue_sailor_collar, large_breasts |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 2girls | hakama_skirt | meiji_schoolgirl_uniform | red_hakama | solo_focus | pink_kimono | looking_at_viewer | white_background | pink_hakama | smile | 1girl | solo | simple_background | cowboy_shot | oil-paper_umbrella | red_umbrella | holding_umbrella | full_body | high_heel_boots | lace-up_boots | standing | brown_footwear | closed_umbrella | navel | medium_breasts | cleavage | pink_bikini | blush | collarbone | hair_between_eyes | blue_sky | cloud | day | outdoors | ocean | bikini | beach | water | cosplay | sailor_collar | gloves | neckerchief | open_mouth | sleeveless_shirt | white_serafuku | white_skirt | crop_top | elbow_gloves | shimakaze_(kancolle)_(cosplay) | white_gloves | black_panties | highleg_panties | serafuku | striped_thighhighs | black_hairband | blue_skirt | microskirt | thong | black_neckerchief | blue_sailor_collar | large_breasts |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:---------|:---------------|:---------------------------|:-------------|:-------------|:--------------|:--------------------|:-------------------|:--------------|:--------|:--------|:-------|:--------------------|:--------------|:---------------------|:---------------|:-------------------|:------------|:------------------|:----------------|:-----------|:-----------------|:------------------|:--------|:-----------------|:-----------|:--------------|:--------|:-------------|:--------------------|:-----------|:--------|:------|:-----------|:--------|:---------|:--------|:--------|:----------|:----------------|:---------|:--------------|:-------------|:-------------------|:-----------------|:--------------|:-----------|:---------------|:---------------------------------|:---------------|:----------------|:------------------|:-----------|:---------------------|:-----------------|:-------------|:-------------|:--------|:--------------------|:---------------------|:----------------|
| 0 | 9 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 19 |  |  |  |  |  | | X | X | X | | X | X | X | | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 5 |  |  |  |  |  | | X | X | X | | X | X | | | X | X | X | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 16 |  |  |  |  |  | | X | X | X | | X | X | | | X | X | X | | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 7 |  |  |  |  |  | | X | X | X | | X | X | X | | X | X | X | X | | X | | | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 15 |  |  |  |  |  | | | | | | | X | X | | X | X | X | X | | | | | | | | | | | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 6 | 6 |  |  |  |  |  | | | | | | | X | | | | X | X | | X | | | | | | | X | | | | X | | | | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | |
| 7 | 6 |  |  |  |  |  | | | | | | | X | | | X | X | X | | | | | | | | | | | | | | | | X | | | | | | | | | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | |
| 8 | 7 |  |  |  |  |  | | | | | | | X | | | X | X | X | | | | | | | | | | | | X | X | | | X | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/harukaze_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T04:57:01+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T20:41:22+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of harukaze/春風 (Kantai Collection)
==========================================
This is the dataset of harukaze/春風 (Kantai Collection), containing 436 images and their tags.
The core tags of this character are 'brown\_hair, drill\_hair, twin\_drills, bow, hair\_bow, red\_eyes, red\_bow, long\_hair, breasts', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
fd010cb4c1c7c230db34c5cfe26d18bd95654f9c
|
# Dataset Card for "shilla-clothing-text-and-image-dataset"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
nojiyoon/shilla-clothing-text-and-image-dataset
|
[
"region:us"
] |
2023-08-22T05:14:55+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}], "dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "caption", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 79876939.0, "num_examples": 207}], "download_size": 79818809, "dataset_size": 79876939.0}}
|
2023-08-23T00:15:58+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "shilla-clothing-text-and-image-dataset"
More Information needed
|
[
"# Dataset Card for \"shilla-clothing-text-and-image-dataset\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"shilla-clothing-text-and-image-dataset\"\n\nMore Information needed"
] |
[
6,
24
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"shilla-clothing-text-and-image-dataset\"\n\nMore Information needed"
] |
2f3d303426c5316b7654d0dc86281dd9feac2c74
|
# Dataset Card for "test2"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
gmltnwwkd/test2
|
[
"region:us"
] |
2023-08-22T05:32:05+00:00
|
{"dataset_info": {"features": [{"name": "path", "dtype": "string"}, {"name": "sentence", "dtype": "string"}, {"name": "audio", "dtype": "audio"}], "splits": [{"name": "train", "num_bytes": 1483093139.5255475, "num_examples": 287}, {"name": "test", "num_bytes": 510068782.47445256, "num_examples": 124}], "download_size": 1911539171, "dataset_size": 1993161922.0}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "test", "path": "data/test-*"}]}]}
|
2023-08-22T05:38:50+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "test2"
More Information needed
|
[
"# Dataset Card for \"test2\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"test2\"\n\nMore Information needed"
] |
[
6,
12
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"test2\"\n\nMore Information needed"
] |
76c70a516e1978971a4d14a7101596e9d1eb008f
|
# Dataset Card for "180ed6b5"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
results-sd-v1-5-sd-v2-1-if-v1-0-karlo/180ed6b5
|
[
"region:us"
] |
2023-08-22T05:47:52+00:00
|
{"dataset_info": {"features": [{"name": "result", "dtype": "string"}, {"name": "id", "dtype": "int64"}], "splits": [{"name": "train", "num_bytes": 184, "num_examples": 10}], "download_size": 1339, "dataset_size": 184}}
|
2023-08-22T05:47:53+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "180ed6b5"
More Information needed
|
[
"# Dataset Card for \"180ed6b5\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"180ed6b5\"\n\nMore Information needed"
] |
[
6,
15
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"180ed6b5\"\n\nMore Information needed"
] |
33b63394c6e04141270835c852cb2b0e19198163
|
# Dataset of nisshin (Kantai Collection)
This is the dataset of nisshin (Kantai Collection), containing 206 images and their tags.
The core tags of this character are `black_hair, long_hair, brown_eyes, very_long_hair, high_ponytail, short_eyebrows, thick_eyebrows, multi-tied_hair, red_ribbon, ribbon, headgear, hair_ornament`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:--------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 206 | 190.80 MiB | [Download](https://huggingface.co/datasets/CyberHarem/nisshin_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 206 | 137.31 MiB | [Download](https://huggingface.co/datasets/CyberHarem/nisshin_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 498 | 283.69 MiB | [Download](https://huggingface.co/datasets/CyberHarem/nisshin_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 206 | 180.22 MiB | [Download](https://huggingface.co/datasets/CyberHarem/nisshin_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 498 | 351.52 MiB | [Download](https://huggingface.co/datasets/CyberHarem/nisshin_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/nisshin_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 10 |  |  |  |  |  | 1girl, alternate_costume, long_sleeves, solo, hair_tie, looking_at_viewer, white_shirt, ascot, white_background, collared_shirt, food, dated, holding, simple_background, bag, black_pantyhose, blush, open_mouth, red_footwear, red_skirt, shoes, smile, suspender_skirt |
| 1 | 23 |  |  |  |  |  | 1girl, long_sleeves, miko, red_hakama, solo, wide_sleeves, kariginu, ribbon-trimmed_sleeves, hair_tie, hakama_skirt, looking_at_viewer, open_mouth, folding_fan, hair_ribbon, smile, simple_background, holding, white_background |
| 2 | 11 |  |  |  |  |  | 1girl, solo, blush, looking_at_viewer, cowboy_shot, navel, open_mouth, small_breasts, outdoors, red_bikini, day, smile, sky, holding, side-tie_bikini_bottom, beach, collarbone, fang, palm_tree, wet |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | alternate_costume | long_sleeves | solo | hair_tie | looking_at_viewer | white_shirt | ascot | white_background | collared_shirt | food | dated | holding | simple_background | bag | black_pantyhose | blush | open_mouth | red_footwear | red_skirt | shoes | smile | suspender_skirt | miko | red_hakama | wide_sleeves | kariginu | ribbon-trimmed_sleeves | hakama_skirt | folding_fan | hair_ribbon | cowboy_shot | navel | small_breasts | outdoors | red_bikini | day | sky | side-tie_bikini_bottom | beach | collarbone | fang | palm_tree | wet |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:--------------------|:---------------|:-------|:-----------|:--------------------|:--------------|:--------|:-------------------|:-----------------|:-------|:--------|:----------|:--------------------|:------|:------------------|:--------|:-------------|:---------------|:------------|:--------|:--------|:------------------|:-------|:-------------|:---------------|:-----------|:-------------------------|:---------------|:--------------|:--------------|:--------------|:--------|:----------------|:-----------|:-------------|:------|:------|:-------------------------|:--------|:-------------|:-------|:------------|:------|
| 0 | 10 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | |
| 1 | 23 |  |  |  |  |  | X | | X | X | X | X | | | X | | | | X | X | | | | X | | | | X | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | |
| 2 | 11 |  |  |  |  |  | X | | | X | | X | | | | | | | X | | | | X | X | | | | X | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/nisshin_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T05:53:29+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-16T07:32:31+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of nisshin (Kantai Collection)
======================================
This is the dataset of nisshin (Kantai Collection), containing 206 images and their tags.
The core tags of this character are 'black\_hair, long\_hair, brown\_eyes, very\_long\_hair, high\_ponytail, short\_eyebrows, thick\_eyebrows, multi-tied\_hair, red\_ribbon, ribbon, headgear, hair\_ornament', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
6a626b7266f7c84fd2d2421ad695ffb34b8f9d69
|
# CMATH
## Introduction
We present the Chinese Elementary School Math Word Problems (CMATH) dataset, comprising 1.7k elementary school-level math word problems with detailed annotations, source from actual Chinese workbooks and exams. This dataset aims to provide a benchmark tool for assessing the following question: to what grade level of elementary school math do the abilities of popular large language models (LLMs) correspond? We evaluate a variety of popular LLMs, including both commercial and open-source options, and discover that only GPT-4 achieves success (accuracy >= 60%) across all six elementary school grades, while other models falter at different grade levels.
Furthermore, we assess the robustness of LLMs by augmenting the original problems in the CMATH dataset with distracting information. Our findings reveal that GPT-4 is the sole model that maintains robustness, further distinguishing its performance from competing models. We anticipate that our CMATH dataset will expose limitations in LLMs' capabilities and promote their ongoing development and advancement.
## Datasets
### cmath_dev
Initial release of 600 examples from CMATH dataset, with 100 problems from each elementary school grade.
We will release the remaining portion of the dataset by the end of the year.
#### Examples and Annotations

#### Evaluation Results

### distractor
To assess the robustness of LLMs against "irrelevant" information, we manually created a small ``distractor dataset'' comprising 60 examples, 10 for each grade level. Each example consists of an original problem and five associated problems augmented with 1 ~ 5 piece(s) of irrelevant information which we refer to as distractor(s).
#### Examples

#### Evaluation Results

## Script
We provide a script `eval.py` that implements automated evaluation.
## License
CC BY 4.0
## Citation
```
@misc{wei2023cmath,
title={CMATH: Can Your Language Model Pass Chinese Elementary School Math Test?},
author={Tianwen Wei and Jian Luan and Wei Liu and Shuang Dong and Bin Wang},
year={2023},
eprint={2306.16636},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
```
Visit our git [repository](https://github.com/XiaoMi/cmath) for more details.
You may also read our [paper](https://arxiv.org/abs/2306.16636).
|
weitianwen/cmath
|
[
"size_categories:1K<n<10K",
"language:zh",
"license:cc-by-4.0",
"mathematics",
"arxiv:2306.16636",
"region:us"
] |
2023-08-22T05:59:42+00:00
|
{"language": ["zh"], "license": "cc-by-4.0", "size_categories": ["1K<n<10K"], "tags": ["mathematics"]}
|
2023-10-14T06:27:22+00:00
|
[
"2306.16636"
] |
[
"zh"
] |
TAGS
#size_categories-1K<n<10K #language-Chinese #license-cc-by-4.0 #mathematics #arxiv-2306.16636 #region-us
|
# CMATH
## Introduction
We present the Chinese Elementary School Math Word Problems (CMATH) dataset, comprising 1.7k elementary school-level math word problems with detailed annotations, source from actual Chinese workbooks and exams. This dataset aims to provide a benchmark tool for assessing the following question: to what grade level of elementary school math do the abilities of popular large language models (LLMs) correspond? We evaluate a variety of popular LLMs, including both commercial and open-source options, and discover that only GPT-4 achieves success (accuracy >= 60%) across all six elementary school grades, while other models falter at different grade levels.
Furthermore, we assess the robustness of LLMs by augmenting the original problems in the CMATH dataset with distracting information. Our findings reveal that GPT-4 is the sole model that maintains robustness, further distinguishing its performance from competing models. We anticipate that our CMATH dataset will expose limitations in LLMs' capabilities and promote their ongoing development and advancement.
## Datasets
### cmath_dev
Initial release of 600 examples from CMATH dataset, with 100 problems from each elementary school grade.
We will release the remaining portion of the dataset by the end of the year.
#### Examples and Annotations
!Examples
#### Evaluation Results
!Model Performance
### distractor
To assess the robustness of LLMs against "irrelevant" information, we manually created a small ''distractor dataset'' comprising 60 examples, 10 for each grade level. Each example consists of an original problem and five associated problems augmented with 1 ~ 5 piece(s) of irrelevant information which we refer to as distractor(s).
#### Examples
!Examples
#### Evaluation Results
!Model Performance
## Script
We provide a script 'URL' that implements automated evaluation.
## License
CC BY 4.0
Visit our git repository for more details.
You may also read our paper.
|
[
"# CMATH",
"## Introduction\nWe present the Chinese Elementary School Math Word Problems (CMATH) dataset, comprising 1.7k elementary school-level math word problems with detailed annotations, source from actual Chinese workbooks and exams. This dataset aims to provide a benchmark tool for assessing the following question: to what grade level of elementary school math do the abilities of popular large language models (LLMs) correspond? We evaluate a variety of popular LLMs, including both commercial and open-source options, and discover that only GPT-4 achieves success (accuracy >= 60%) across all six elementary school grades, while other models falter at different grade levels.\nFurthermore, we assess the robustness of LLMs by augmenting the original problems in the CMATH dataset with distracting information. Our findings reveal that GPT-4 is the sole model that maintains robustness, further distinguishing its performance from competing models. We anticipate that our CMATH dataset will expose limitations in LLMs' capabilities and promote their ongoing development and advancement.",
"## Datasets",
"### cmath_dev\nInitial release of 600 examples from CMATH dataset, with 100 problems from each elementary school grade. \nWe will release the remaining portion of the dataset by the end of the year.",
"#### Examples and Annotations\n!Examples",
"#### Evaluation Results\n!Model Performance",
"### distractor\nTo assess the robustness of LLMs against \"irrelevant\" information, we manually created a small ''distractor dataset'' comprising 60 examples, 10 for each grade level. Each example consists of an original problem and five associated problems augmented with 1 ~ 5 piece(s) of irrelevant information which we refer to as distractor(s).",
"#### Examples\n!Examples",
"#### Evaluation Results\n!Model Performance",
"## Script\nWe provide a script 'URL' that implements automated evaluation.",
"## License\nCC BY 4.0\n\nVisit our git repository for more details.\nYou may also read our paper."
] |
[
"TAGS\n#size_categories-1K<n<10K #language-Chinese #license-cc-by-4.0 #mathematics #arxiv-2306.16636 #region-us \n",
"# CMATH",
"## Introduction\nWe present the Chinese Elementary School Math Word Problems (CMATH) dataset, comprising 1.7k elementary school-level math word problems with detailed annotations, source from actual Chinese workbooks and exams. This dataset aims to provide a benchmark tool for assessing the following question: to what grade level of elementary school math do the abilities of popular large language models (LLMs) correspond? We evaluate a variety of popular LLMs, including both commercial and open-source options, and discover that only GPT-4 achieves success (accuracy >= 60%) across all six elementary school grades, while other models falter at different grade levels.\nFurthermore, we assess the robustness of LLMs by augmenting the original problems in the CMATH dataset with distracting information. Our findings reveal that GPT-4 is the sole model that maintains robustness, further distinguishing its performance from competing models. We anticipate that our CMATH dataset will expose limitations in LLMs' capabilities and promote their ongoing development and advancement.",
"## Datasets",
"### cmath_dev\nInitial release of 600 examples from CMATH dataset, with 100 problems from each elementary school grade. \nWe will release the remaining portion of the dataset by the end of the year.",
"#### Examples and Annotations\n!Examples",
"#### Evaluation Results\n!Model Performance",
"### distractor\nTo assess the robustness of LLMs against \"irrelevant\" information, we manually created a small ''distractor dataset'' comprising 60 examples, 10 for each grade level. Each example consists of an original problem and five associated problems augmented with 1 ~ 5 piece(s) of irrelevant information which we refer to as distractor(s).",
"#### Examples\n!Examples",
"#### Evaluation Results\n!Model Performance",
"## Script\nWe provide a script 'URL' that implements automated evaluation.",
"## License\nCC BY 4.0\n\nVisit our git repository for more details.\nYou may also read our paper."
] |
[
44,
3,
235,
4,
48,
12,
8,
82,
8,
8,
16,
22
] |
[
"passage: TAGS\n#size_categories-1K<n<10K #language-Chinese #license-cc-by-4.0 #mathematics #arxiv-2306.16636 #region-us \n# CMATH## Introduction\nWe present the Chinese Elementary School Math Word Problems (CMATH) dataset, comprising 1.7k elementary school-level math word problems with detailed annotations, source from actual Chinese workbooks and exams. This dataset aims to provide a benchmark tool for assessing the following question: to what grade level of elementary school math do the abilities of popular large language models (LLMs) correspond? We evaluate a variety of popular LLMs, including both commercial and open-source options, and discover that only GPT-4 achieves success (accuracy >= 60%) across all six elementary school grades, while other models falter at different grade levels.\nFurthermore, we assess the robustness of LLMs by augmenting the original problems in the CMATH dataset with distracting information. Our findings reveal that GPT-4 is the sole model that maintains robustness, further distinguishing its performance from competing models. We anticipate that our CMATH dataset will expose limitations in LLMs' capabilities and promote their ongoing development and advancement.## Datasets### cmath_dev\nInitial release of 600 examples from CMATH dataset, with 100 problems from each elementary school grade. \nWe will release the remaining portion of the dataset by the end of the year.#### Examples and Annotations\n!Examples#### Evaluation Results\n!Model Performance### distractor\nTo assess the robustness of LLMs against \"irrelevant\" information, we manually created a small ''distractor dataset'' comprising 60 examples, 10 for each grade level. Each example consists of an original problem and five associated problems augmented with 1 ~ 5 piece(s) of irrelevant information which we refer to as distractor(s).#### Examples\n!Examples#### Evaluation Results\n!Model Performance## Script\nWe provide a script 'URL' that implements automated evaluation.## License\nCC BY 4.0\n\nVisit our git repository for more details.\nYou may also read our paper."
] |
314d728f0b68b84549c9e59bd706332dad8df78e
|
## Table of Contents
- [Dataset Description](#dataset-description)
- [Dataset Summary](#dataset-summary)
- [Supported Tasks](#supported-tasks)
- [Languages](#languages)
- [Dataset Structure](#dataset-structure)
- [Data Instances](#data-instances)
- [Data Fields](#data-fields)
- [Data Splits](#data-splits)
- [Dataset Statistics](#dataset-statistics)
- [Usage](#usage)
- [Additional Information](#additional-information)
- [Licensing Information](#licensing-information)
- [Citation Information](#citation-information)
- [Contributions](#contributions)
## Dataset Description
- **Repository:** [FSoft-AI4Code/TheVault](https://github.com/FSoft-AI4Code/TheVault)
- **Paper:** [The Vault: A Comprehensive Multilingual Dataset for Advancing Code Understanding and Generation](https://arxiv.org/abs/2305.06156)
- **Contact:** [email protected]
- **Website:** https://www.fpt-aicenter.com/ai-residency/
<p align="center">
<img src="https://raw.githubusercontent.com/FSoft-AI4Code/TheVault/main/assets/the-vault-4-logo-png.png" width="300px" alt="logo">
</p>
<div align="center">
# The Vault: A Comprehensive Multilingual Dataset for Advancing Code Understanding and Generation
</div>
## Dataset Summary
The Vault dataset is a comprehensive, large-scale, multilingual parallel dataset that features high-quality code-text pairs derived from The Stack, the largest permissively-licensed source code dataset.
We provide The Vault which contains code snippets from 10 popular programming languages such as Java, JavaScript, Python, Ruby, Rust, Golang, C#, C++, C, and PHP. This dataset provides multiple code-snippet levels, metadata, and 11 docstring styles for enhanced usability and versatility.
## Supported Tasks
The Vault can be used for pretraining LLMs or downstream code-text interaction tasks. A number of tasks related to code understanding and geneartion can be constructed using The Vault such as *code summarization*, *text-to-code generation* and *code search*.
## Languages
The natural language text (docstring) is in English.
10 programming languages are supported in The Vault: `Python`, `Java`, `JavaScript`, `PHP`, `C`, `C#`, `C++`, `Go`, `Ruby`, `Rust`
*Note: C and Go are not contained in this repo due to the nonexistence of traditional classes in these languages.*
## Dataset Structure
### Data Instances
```
{
"hexsha": "78b961a6673ec1e12f8d95c33ef081f75561a87c",
"repo": "AIS-Bonn/sl-cutscenes",
"path": "sl_cutscenes/object_models.py",
"license": [
"MIT"
],
"language": "Python",
"identifier": "MeshLoader",
"original_docstring": "\n Class to load the meshes for the objects in a scene.\n ",
"docstring": "Class to load the meshes for the objects in a scene.",
"docstring_tokens": [
"Class",
"to",
"load",
"the",
"meshes",
"for",
"the",
"objects",
"in",
"a",
"scene",
"."
],
"code": "class MeshLoader:\n \"\"\"\n Class to load the meshes for the objects in a scene.\n \"\"\"\n\n def __init__(self):\n \"\"\"Module initializer\"\"\"\n self.base_dir = CONSTANTS.MESH_BASE_DIR\n self.text_dir = CONSTANTS.TEXT_BASE_DIR\n self.reset()\n\n def reset(self):\n self.loaded_meshes = []\n\n def get_meshes(self):\n \"\"\" \"\"\"\n extract_singular = lambda x: x[0] if len(x) == 1 else x\n return [extract_singular(item) for item in self.loaded_meshes]\n\n def load_meshes(self, obj_info: List[object_info.ObjectInfo], **kwargs):\n \"\"\"\n Loads the meshes whose information is given in parameter 'obj_info.\n Each call of this method APPENDS a list to the loaded_meshes attribute.\n :param obj_info: The object information of the meshes to be loaded.\n :param kwargs: additional mesh modifiers such as scale, specified with a leading 'mod_'\n \"\"\"\n paths = []\n for obj in obj_info:\n path = self.text_dir if obj.name.endswith(\"_floor\") or obj.name.endswith(\"_wall\") else self.base_dir\n paths.append((path / obj.mesh_fp).resolve())\n scales = [obj.scale for obj in obj_info]\n class_ids = [obj.class_id for obj in obj_info]\n mod_scales = kwargs.get(\"mod_scale\", [1.0] * len(scales))\n scales = [s * ms for (s, ms) in zip(scales, mod_scales)]\n flags = [mesh_flags(obj) for obj in obj_info]\n meshes = sl.Mesh.load_threaded(filenames=paths, flags=flags)\n\n # Setup class IDs\n for _, (mesh, scale, class_id) in enumerate(zip(meshes, scales, class_ids)):\n pt = torch.eye(4)\n pt[:3, :3] *= scale\n mesh.pretransform = pt\n mesh.class_index = class_id\n\n info_mesh_tuples = list(zip(obj_info, meshes))\n self.loaded_meshes.append(info_mesh_tuples)",
"code_tokens": [
"class",
"MeshLoader",
":",
"def",
"__init__",
"(",
"self",
")",
":",
"\"\"\"Module initializer\"\"\"",
"self",
".",
"base_dir",
"=",
"CONSTANTS",
".",
"MESH_BASE_DIR",
"self",
".",
"text_dir",
"=",
"CONSTANTS",
".",
"TEXT_BASE_DIR",
"self",
".",
"reset",
"(",
")",
"def",
"reset",
"(",
"self",
")",
":",
"self",
".",
"loaded_meshes",
"=",
"[",
"]",
"def",
"get_meshes",
"(",
"self",
")",
":",
"\"\"\" \"\"\"",
"extract_singular",
"=",
"lambda",
"x",
":",
"x",
"[",
"0",
"]",
"if",
"len",
"(",
"x",
")",
"==",
"1",
"else",
"x",
"return",
"[",
"extract_singular",
"(",
"item",
")",
"for",
"item",
"in",
"self",
".",
"loaded_meshes",
"]",
"def",
"load_meshes",
"(",
"self",
",",
"obj_info",
":",
"List",
"[",
"object_info",
".",
"ObjectInfo",
"]",
",",
"**",
"kwargs",
")",
":",
"\"\"\"\n Loads the meshes whose information is given in parameter 'obj_info.\n Each call of this method APPENDS a list to the loaded_meshes attribute.\n :param obj_info: The object information of the meshes to be loaded.\n :param kwargs: additional mesh modifiers such as scale, specified with a leading 'mod_'\n \"\"\"",
"paths",
"=",
"[",
"]",
"for",
"obj",
"in",
"obj_info",
":",
"path",
"=",
"self",
".",
"text_dir",
"if",
"obj",
".",
"name",
".",
"endswith",
"(",
"\"_floor\"",
")",
"or",
"obj",
".",
"name",
".",
"endswith",
"(",
"\"_wall\"",
")",
"else",
"self",
".",
"base_dir",
"paths",
".",
"append",
"(",
"(",
"path",
"/",
"obj",
".",
"mesh_fp",
")",
".",
"resolve",
"(",
")",
")",
"scales",
"=",
"[",
"obj",
".",
"scale",
"for",
"obj",
"in",
"obj_info",
"]",
"class_ids",
"=",
"[",
"obj",
".",
"class_id",
"for",
"obj",
"in",
"obj_info",
"]",
"mod_scales",
"=",
"kwargs",
".",
"get",
"(",
"\"mod_scale\"",
",",
"[",
"1.0",
"]",
"*",
"len",
"(",
"scales",
")",
")",
"scales",
"=",
"[",
"s",
"*",
"ms",
"for",
"(",
"s",
",",
"ms",
")",
"in",
"zip",
"(",
"scales",
",",
"mod_scales",
")",
"]",
"flags",
"=",
"[",
"mesh_flags",
"(",
"obj",
")",
"for",
"obj",
"in",
"obj_info",
"]",
"meshes",
"=",
"sl",
".",
"Mesh",
".",
"load_threaded",
"(",
"filenames",
"=",
"paths",
",",
"flags",
"=",
"flags",
")",
"for",
"_",
",",
"(",
"mesh",
",",
"scale",
",",
"class_id",
")",
"in",
"enumerate",
"(",
"zip",
"(",
"meshes",
",",
"scales",
",",
"class_ids",
")",
")",
":",
"pt",
"=",
"torch",
".",
"eye",
"(",
"4",
")",
"pt",
"[",
":",
"3",
",",
":",
"3",
"]",
"*=",
"scale",
"mesh",
".",
"pretransform",
"=",
"pt",
"mesh",
".",
"class_index",
"=",
"class_id",
"info_mesh_tuples",
"=",
"list",
"(",
"zip",
"(",
"obj_info",
",",
"meshes",
")",
")",
"self",
".",
"loaded_meshes",
".",
"append",
"(",
"info_mesh_tuples",
")"
],
"short_docstring": "Class to load the meshes for the objects in a scene.",
"short_docstring_tokens": [
"Class",
"to",
"load",
"the",
"meshes",
"for",
"the",
"objects",
"in",
"a",
"scene",
"."
],
"comment": [
"\"\"\"\n Class to load the meshes for the objects in a scene.\n \"\"\"",
"\"\"\"Module initializer\"\"\"",
"\"\"\" \"\"\"",
"\"\"\"\n Loads the meshes whose information is given in parameter 'obj_info.\n Each call of this method APPENDS a list to the loaded_meshes attribute.\n :param obj_info: The object information of the meshes to be loaded.\n :param kwargs: additional mesh modifiers such as scale, specified with a leading 'mod_'\n \"\"\"",
"# Setup class IDs"
],
"parameters": [],
"docstring_params": {
"returns": [],
"raises": [],
"params": [],
"outlier_params": [],
"others": []
}
}
```
### Data Fields
Data fields for function level:
- **hexsha** (string): the unique git hash of file
- **repo** (string): the owner/repo
- **path** (string): the full path to the original file
- **license** (list): licenses in the repo
- **language** (string): the programming language
- **identifier** (string): the function or method name
- **original_string** (string): original version of function/class node
- **original_docstring** (string): the raw string before tokenization or parsing
- **code** (string): the part of the original that is code
- **code_tokens** (list): tokenized version of `code`
- **short_docstring** (string): short, brief summarization (first line of the docstring)
- **short_docstring_tokens** (list): tokenized version of `short_docstring
- **docstring** (string): the top-level comment or docstring (docstring version without param’s doc, return, exception fields, etc)
- **docstring_tokens** (list): tokenized version of docstring
- **comment** (list): list of comments (line) inside the function/class
- **parameters** (list): List of parameters and its type (type can be None)
- **docstring_params** (dict): Dictionary of the parsed information from docstring
See [here](https://github.com/FSoft-AI4Code/TheVault/blob/main/data/README.md) for more details and examples.
### Data Splits
In this repo, the class level data is not split, and contained in only train set.
## Dataset Statistics
|Language | Number of samples |
|:-----------|------------------------:|
|Python | 422,187 |
|Java | 4,872,485 |
|JavaScript | 291,479 |
|PHP | 1,173,916 |
|C# | 1,437,800 |
|C++ | 174,370 |
|Ruby | 353,859 |
|Rust | 93,311 |
|C | - |
|Go | - |
|TOTAL | **9,121,300** |
## Usage
You can load The Vault dataset using datasets library: ```pip install datasets```
```python
from datasets import load_dataset
# Load full class level dataset
dataset = load_dataset("Fsoft-AIC/the-vault-class")
# specific language (e.g. Python)
dataset = load_dataset("Fsoft-AIC/the-vault-class", languages=['Python'])
# dataset streaming
data = load_dataset("Fsoft-AIC/the-vault-class", streaming= True)
for sample in iter(data['train']):
print(sample)
```
A back up dataset can be downloaded in azure storage. See [Download The Vault from Azure blob storage](https://github.com/FSoft-AI4Code/TheVault#download-via-link).
## Additional information
### Licensing Information
MIT License
### Citation Information
```
@article{manh2023vault,
title={The Vault: A Comprehensive Multilingual Dataset for Advancing Code Understanding and Generation},
author={Manh, Dung Nguyen and Hai, Nam Le and Dau, Anh TV and Nguyen, Anh Minh and Nghiem, Khanh and Guo, Jin and Bui, Nghi DQ},
journal={arXiv preprint arXiv:2305.06156},
year={2023}
}
```
### Contributions
This dataset is developed by [FSOFT AI4Code team](https://github.com/FSoft-AI4Code).
|
Fsoft-AIC/the-vault-class
|
[
"task_categories:text-generation",
"multilinguality:multiprogramming languages",
"language:code",
"language:en",
"license:mit",
"arxiv:2305.06156",
"region:us"
] |
2023-08-22T06:11:11+00:00
|
{"language": ["code", "en"], "license": "mit", "multilinguality": ["multiprogramming languages"], "task_categories": ["text-generation"], "pretty_name": "The Vault Function", "dataset_info": {"features": [{"name": "identifier", "dtype": "string"}, {"name": "repo", "dtype": "string"}, {"name": "path", "dtype": "string"}, {"name": "language", "dtype": "string"}, {"name": "code", "dtype": "string"}, {"name": "code_tokens", "dtype": "string"}, {"name": "original_docstring", "dtype": "string"}, {"name": "comment", "dtype": "string"}, {"name": "docstring_tokens", "dtype": "string"}, {"name": "docstring", "dtype": "string"}, {"name": "original_string", "dtype": "string"}]}, "viewer": true}
|
2023-10-11T15:42:43+00:00
|
[
"2305.06156"
] |
[
"code",
"en"
] |
TAGS
#task_categories-text-generation #multilinguality-multiprogramming languages #language-code #language-English #license-mit #arxiv-2305.06156 #region-us
|
Table of Contents
-----------------
* Dataset Description
* Dataset Summary
* Supported Tasks
* Languages
* Dataset Structure
+ Data Instances
+ Data Fields
+ Data Splits
* Dataset Statistics
* Usage
* Additional Information
+ Licensing Information
+ Citation Information
+ Contributions
Dataset Description
-------------------
* Repository: FSoft-AI4Code/TheVault
* Paper: The Vault: A Comprehensive Multilingual Dataset for Advancing Code Understanding and Generation
* Contact: URL@URL
* Website: URL

The Vault: A Comprehensive Multilingual Dataset for Advancing Code Understanding and Generation
===============================================================================================
Dataset Summary
---------------
The Vault dataset is a comprehensive, large-scale, multilingual parallel dataset that features high-quality code-text pairs derived from The Stack, the largest permissively-licensed source code dataset.
We provide The Vault which contains code snippets from 10 popular programming languages such as Java, JavaScript, Python, Ruby, Rust, Golang, C#, C++, C, and PHP. This dataset provides multiple code-snippet levels, metadata, and 11 docstring styles for enhanced usability and versatility.
Supported Tasks
---------------
The Vault can be used for pretraining LLMs or downstream code-text interaction tasks. A number of tasks related to code understanding and geneartion can be constructed using The Vault such as *code summarization*, *text-to-code generation* and *code search*.
Languages
---------
The natural language text (docstring) is in English.
10 programming languages are supported in The Vault: 'Python', 'Java', 'JavaScript', 'PHP', 'C', 'C#', 'C++', 'Go', 'Ruby', 'Rust'
*Note: C and Go are not contained in this repo due to the nonexistence of traditional classes in these languages.*
Dataset Structure
-----------------
### Data Instances
### Data Fields
Data fields for function level:
* hexsha (string): the unique git hash of file
* repo (string): the owner/repo
* path (string): the full path to the original file
* license (list): licenses in the repo
* language (string): the programming language
* identifier (string): the function or method name
* original\_string (string): original version of function/class node
* original\_docstring (string): the raw string before tokenization or parsing
* code (string): the part of the original that is code
* code\_tokens (list): tokenized version of 'code'
* short\_docstring (string): short, brief summarization (first line of the docstring)
* short\_docstring\_tokens (list): tokenized version of 'short\_docstring
* docstring (string): the top-level comment or docstring (docstring version without param’s doc, return, exception fields, etc)
* docstring\_tokens (list): tokenized version of docstring
* comment (list): list of comments (line) inside the function/class
* parameters (list): List of parameters and its type (type can be None)
* docstring\_params (dict): Dictionary of the parsed information from docstring
See here for more details and examples.
### Data Splits
In this repo, the class level data is not split, and contained in only train set.
Dataset Statistics
------------------
Usage
-----
You can load The Vault dataset using datasets library:
A back up dataset can be downloaded in azure storage. See Download The Vault from Azure blob storage.
Additional information
----------------------
### Licensing Information
MIT License
### Contributions
This dataset is developed by FSOFT AI4Code team.
|
[
"### Data Instances",
"### Data Fields\n\n\nData fields for function level:\n\n\n* hexsha (string): the unique git hash of file\n* repo (string): the owner/repo\n* path (string): the full path to the original file\n* license (list): licenses in the repo\n* language (string): the programming language\n* identifier (string): the function or method name\n* original\\_string (string): original version of function/class node\n* original\\_docstring (string): the raw string before tokenization or parsing\n* code (string): the part of the original that is code\n* code\\_tokens (list): tokenized version of 'code'\n* short\\_docstring (string): short, brief summarization (first line of the docstring)\n* short\\_docstring\\_tokens (list): tokenized version of 'short\\_docstring\n* docstring (string): the top-level comment or docstring (docstring version without param’s doc, return, exception fields, etc)\n* docstring\\_tokens (list): tokenized version of docstring\n* comment (list): list of comments (line) inside the function/class\n* parameters (list): List of parameters and its type (type can be None)\n* docstring\\_params (dict): Dictionary of the parsed information from docstring\n\n\nSee here for more details and examples.",
"### Data Splits\n\n\nIn this repo, the class level data is not split, and contained in only train set.\n\n\nDataset Statistics\n------------------\n\n\n\nUsage\n-----\n\n\nYou can load The Vault dataset using datasets library:\n\n\nA back up dataset can be downloaded in azure storage. See Download The Vault from Azure blob storage.\n\n\nAdditional information\n----------------------",
"### Licensing Information\n\n\nMIT License",
"### Contributions\n\n\nThis dataset is developed by FSOFT AI4Code team."
] |
[
"TAGS\n#task_categories-text-generation #multilinguality-multiprogramming languages #language-code #language-English #license-mit #arxiv-2305.06156 #region-us \n",
"### Data Instances",
"### Data Fields\n\n\nData fields for function level:\n\n\n* hexsha (string): the unique git hash of file\n* repo (string): the owner/repo\n* path (string): the full path to the original file\n* license (list): licenses in the repo\n* language (string): the programming language\n* identifier (string): the function or method name\n* original\\_string (string): original version of function/class node\n* original\\_docstring (string): the raw string before tokenization or parsing\n* code (string): the part of the original that is code\n* code\\_tokens (list): tokenized version of 'code'\n* short\\_docstring (string): short, brief summarization (first line of the docstring)\n* short\\_docstring\\_tokens (list): tokenized version of 'short\\_docstring\n* docstring (string): the top-level comment or docstring (docstring version without param’s doc, return, exception fields, etc)\n* docstring\\_tokens (list): tokenized version of docstring\n* comment (list): list of comments (line) inside the function/class\n* parameters (list): List of parameters and its type (type can be None)\n* docstring\\_params (dict): Dictionary of the parsed information from docstring\n\n\nSee here for more details and examples.",
"### Data Splits\n\n\nIn this repo, the class level data is not split, and contained in only train set.\n\n\nDataset Statistics\n------------------\n\n\n\nUsage\n-----\n\n\nYou can load The Vault dataset using datasets library:\n\n\nA back up dataset can be downloaded in azure storage. See Download The Vault from Azure blob storage.\n\n\nAdditional information\n----------------------",
"### Licensing Information\n\n\nMIT License",
"### Contributions\n\n\nThis dataset is developed by FSOFT AI4Code team."
] |
[
49,
6,
306,
82,
8,
18
] |
[
"passage: TAGS\n#task_categories-text-generation #multilinguality-multiprogramming languages #language-code #language-English #license-mit #arxiv-2305.06156 #region-us \n### Data Instances### Data Fields\n\n\nData fields for function level:\n\n\n* hexsha (string): the unique git hash of file\n* repo (string): the owner/repo\n* path (string): the full path to the original file\n* license (list): licenses in the repo\n* language (string): the programming language\n* identifier (string): the function or method name\n* original\\_string (string): original version of function/class node\n* original\\_docstring (string): the raw string before tokenization or parsing\n* code (string): the part of the original that is code\n* code\\_tokens (list): tokenized version of 'code'\n* short\\_docstring (string): short, brief summarization (first line of the docstring)\n* short\\_docstring\\_tokens (list): tokenized version of 'short\\_docstring\n* docstring (string): the top-level comment or docstring (docstring version without param’s doc, return, exception fields, etc)\n* docstring\\_tokens (list): tokenized version of docstring\n* comment (list): list of comments (line) inside the function/class\n* parameters (list): List of parameters and its type (type can be None)\n* docstring\\_params (dict): Dictionary of the parsed information from docstring\n\n\nSee here for more details and examples.### Data Splits\n\n\nIn this repo, the class level data is not split, and contained in only train set.\n\n\nDataset Statistics\n------------------\n\n\n\nUsage\n-----\n\n\nYou can load The Vault dataset using datasets library:\n\n\nA back up dataset can be downloaded in azure storage. See Download The Vault from Azure blob storage.\n\n\nAdditional information\n----------------------### Licensing Information\n\n\nMIT License### Contributions\n\n\nThis dataset is developed by FSOFT AI4Code team."
] |
acc5babc35b919792e732accb3c3ce3d417d959f
|
# newsquadfr_fr_prompt_question_generation_with_answer_and_context
## Summary
**newsquadfr_fr_prompt_question_generation_with_answer_and_context** is a subset of the [**Dataset of French Prompts (DFP)**](https://huggingface.co/datasets/CATIE-AQ/DFP).
It contains **88,410** rows that can be used for a question generation (with answer and context) task.
The original data (without prompts) comes from the dataset [newsquadfr](https://huggingface.co/datasets/lincoln/newsquadfr) and was augmented by questions in SQUAD 2.0 format in the [FrenchQA]( https://huggingface.co/datasets/CATIE-AQ/frenchQA) dataset.
A list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the [xP3](https://huggingface.co/datasets/bigscience/xP3) dataset by Muennighoff et al.
## Prompts used
### List
21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.
```
'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question aurais-tu pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question auriez-vous pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question peut être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question peux-tu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question pouvez-vous poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Sachant la réponse suivante : "'+answer+'"\n Générer une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Génère une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Générez une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouves une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouvez une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Créer une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Crée trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Créez trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecrire une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecris une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecrivez une bonne question pour le texte suivant : "'+context+'"
```
# Splits
- `train` with 69,300 samples
- `valid` with 19,100 samples
- no `test` split
# How to use?
```
from datasets import load_dataset
dataset = load_dataset("CATIE-AQ/newsquadfr_fr_prompt_question_generation_with_answer_and_context")
```
# Citation
## Original data
> Hugging Face repository: https://huggingface.co/datasets/lincoln/newsquadfr
## This Dataset
> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023,
author = { {Centre Aquitain des Technologies de l'Information et Electroniques} },
title = { DFP (Revision 1d24c09) },
year = 2023,
url = { https://huggingface.co/datasets/CATIE-AQ/DFP },
doi = { 10.57967/hf/1200 },
publisher = { Hugging Face }
}
## License
CC BY-NC-SA 4.0
|
CATIE-AQ/newsquadfr_fr_prompt_question_generation_with_answer_and_context
|
[
"task_categories:text-generation",
"annotations_creators:found",
"language_creators:found",
"multilinguality:monolingual",
"size_categories:10K<n<100K",
"source_datasets:newsquadfr",
"language:fr",
"license:cc-by-nc-sa-4.0",
"DFP",
"french prompts",
"region:us"
] |
2023-08-22T06:40:12+00:00
|
{"annotations_creators": ["found"], "language_creators": ["found"], "language": ["fr"], "license": "cc-by-nc-sa-4.0", "multilinguality": ["monolingual"], "size_categories": ["10K<n<100K"], "source_datasets": ["newsquadfr"], "task_categories": ["text-generation"], "tags": ["DFP", "french prompts"]}
|
2023-10-11T11:07:01+00:00
|
[] |
[
"fr"
] |
TAGS
#task_categories-text-generation #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-10K<n<100K #source_datasets-newsquadfr #language-French #license-cc-by-nc-sa-4.0 #DFP #french prompts #region-us
|
# newsquadfr_fr_prompt_question_generation_with_answer_and_context
## Summary
newsquadfr_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP).
It contains 88,410 rows that can be used for a question generation (with answer and context) task.
The original data (without prompts) comes from the dataset newsquadfr and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.
A list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the xP3 dataset by Muennighoff et al.
## Prompts used
### List
21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.
# Splits
- 'train' with 69,300 samples
- 'valid' with 19,100 samples
- no 'test' split
# How to use?
## Original data
> Hugging Face repository: URL
## This Dataset
> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023,
author = { {Centre Aquitain des Technologies de l'Information et Electroniques} },
title = { DFP (Revision 1d24c09) },
year = 2023,
url = { URL },
doi = { 10.57967/hf/1200 },
publisher = { Hugging Face }
}
## License
CC BY-NC-SA 4.0
|
[
"# newsquadfr_fr_prompt_question_generation_with_answer_and_context",
"## Summary\n\nnewsquadfr_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP). \nIt contains 88,410 rows that can be used for a question generation (with answer and context) task. \nThe original data (without prompts) comes from the dataset newsquadfr and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.\nA list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the xP3 dataset by Muennighoff et al.",
"## Prompts used",
"### List\n21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.",
"# Splits\n- 'train' with 69,300 samples\n- 'valid' with 19,100 samples\n- no 'test' split",
"# How to use?",
"## Original data\n> Hugging Face repository: URL",
"## This Dataset\n> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023, \n\tauthor = { {Centre Aquitain des Technologies de l'Information et Electroniques} }, \n\ttitle = { DFP (Revision 1d24c09) }, \n\tyear = 2023, \n\turl = { URL }, \n\tdoi = { 10.57967/hf/1200 }, \n\tpublisher = { Hugging Face } \n}",
"## License\nCC BY-NC-SA 4.0"
] |
[
"TAGS\n#task_categories-text-generation #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-10K<n<100K #source_datasets-newsquadfr #language-French #license-cc-by-nc-sa-4.0 #DFP #french prompts #region-us \n",
"# newsquadfr_fr_prompt_question_generation_with_answer_and_context",
"## Summary\n\nnewsquadfr_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP). \nIt contains 88,410 rows that can be used for a question generation (with answer and context) task. \nThe original data (without prompts) comes from the dataset newsquadfr and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.\nA list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the xP3 dataset by Muennighoff et al.",
"## Prompts used",
"### List\n21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.",
"# Splits\n- 'train' with 69,300 samples\n- 'valid' with 19,100 samples\n- no 'test' split",
"# How to use?",
"## Original data\n> Hugging Face repository: URL",
"## This Dataset\n> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023, \n\tauthor = { {Centre Aquitain des Technologies de l'Information et Electroniques} }, \n\ttitle = { DFP (Revision 1d24c09) }, \n\tyear = 2023, \n\turl = { URL }, \n\tdoi = { 10.57967/hf/1200 }, \n\tpublisher = { Hugging Face } \n}",
"## License\nCC BY-NC-SA 4.0"
] |
[
93,
26,
153,
5,
46,
30,
5,
12,
106,
9
] |
[
"passage: TAGS\n#task_categories-text-generation #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-10K<n<100K #source_datasets-newsquadfr #language-French #license-cc-by-nc-sa-4.0 #DFP #french prompts #region-us \n# newsquadfr_fr_prompt_question_generation_with_answer_and_context## Summary\n\nnewsquadfr_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP). \nIt contains 88,410 rows that can be used for a question generation (with answer and context) task. \nThe original data (without prompts) comes from the dataset newsquadfr and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.\nA list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the xP3 dataset by Muennighoff et al.## Prompts used### List\n21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.# Splits\n- 'train' with 69,300 samples\n- 'valid' with 19,100 samples\n- no 'test' split# How to use?## Original data\n> Hugging Face repository: URL## This Dataset\n> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023, \n\tauthor = { {Centre Aquitain des Technologies de l'Information et Electroniques} }, \n\ttitle = { DFP (Revision 1d24c09) }, \n\tyear = 2023, \n\turl = { URL }, \n\tdoi = { 10.57967/hf/1200 }, \n\tpublisher = { Hugging Face } \n}## License\nCC BY-NC-SA 4.0"
] |
48011bd71007c9271ead06ad3f32b6291d3a3ef0
|
# piaf_fr_prompt_question_generation_with_answer_and_context
## Summary
**piaf_fr_prompt_question_generation_with_answer_and_context** is a subset of the [**Dataset of French Prompts (DFP)**](https://huggingface.co/datasets/CATIE-AQ/DFP).
It contains **387,408** rows that can be used for a question-generation (with answer and context) task.
The original data (without prompts) comes from the dataset [PIAF](https://huggingface.co/datasets/etalab-ia/piaf) and was augmented by questions in SQUAD 2.0 format in the [FrenchQA]( https://huggingface.co/datasets/CATIE-AQ/frenchQA) dataset.
A list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the [xP3](https://huggingface.co/datasets/bigscience/xP3) dataset by Muennighoff et al.
## Prompts used
### List
21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.
```
'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question aurais-tu pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question auriez-vous pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question peut être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question peux-tu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question pouvez-vous poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Sachant la réponse suivante : "'+answer+'"\n Générer une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Génère une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Générez une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouves une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouvez une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Créer une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Crée trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Créez trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecrire une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecris une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecrivez une bonne question pour le texte suivant : "'+context+'"
```
# Splits
- `train` with 387,408 samples
- no `valid` split
- no `test` split
# How to use?
```
from datasets import load_dataset
dataset = load_dataset("CATIE-AQ/piaf_fr_prompt_question_generation_with_answer_and_context")
```
# Citation
## Original data
> @InProceedings{keraron-EtAl:2020:LREC,
author = {Keraron, Rachel and Lancrenon, Guillaume and Bras, Mathilde and Allary, Frédéric and Moyse, Gilles and Scialom, Thomas and Soriano-Morales, Edmundo-Pavel and Staiano, Jacopo},
title = {Project PIAF: Building a Native French Question-Answering Dataset},
booktitle = {Proceedings of The 12th Language Resources and Evaluation Conference},
month = {May},
year = {2020},
address = {Marseille, France},
publisher = {European Language Resources Association},
pages = {5483--5492},
url = {https://www.aclweb.org/anthology/2020.lrec-1.673}
}
## This Dataset
> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023,
author = { {Centre Aquitain des Technologies de l'Information et Electroniques} },
title = { DFP (Revision 1d24c09) },
year = 2023,
url = { https://huggingface.co/datasets/CATIE-AQ/DFP },
doi = { 10.57967/hf/1200 },
publisher = { Hugging Face }
}
## License
MIT
|
CATIE-AQ/piaf_fr_prompt_question_generation_with_answer_and_context
|
[
"task_categories:text-generation",
"annotations_creators:found",
"language_creators:found",
"multilinguality:monolingual",
"size_categories:100K<n<1M",
"source_datasets:etalab-ia/piaf",
"language:fr",
"license:mit",
"DFP",
"french prompts",
"region:us"
] |
2023-08-22T06:40:28+00:00
|
{"annotations_creators": ["found"], "language_creators": ["found"], "language": ["fr"], "license": "mit", "multilinguality": ["monolingual"], "size_categories": ["100K<n<1M"], "source_datasets": ["etalab-ia/piaf"], "task_categories": ["text-generation"], "tags": ["DFP", "french prompts"]}
|
2023-10-11T11:17:09+00:00
|
[] |
[
"fr"
] |
TAGS
#task_categories-text-generation #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-100K<n<1M #source_datasets-etalab-ia/piaf #language-French #license-mit #DFP #french prompts #region-us
|
# piaf_fr_prompt_question_generation_with_answer_and_context
## Summary
piaf_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP).
It contains 387,408 rows that can be used for a question-generation (with answer and context) task.
The original data (without prompts) comes from the dataset PIAF and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.
A list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the xP3 dataset by Muennighoff et al.
## Prompts used
### List
21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.
# Splits
- 'train' with 387,408 samples
- no 'valid' split
- no 'test' split
# How to use?
## Original data
> @InProceedings{keraron-EtAl:2020:LREC,
author = {Keraron, Rachel and Lancrenon, Guillaume and Bras, Mathilde and Allary, Frédéric and Moyse, Gilles and Scialom, Thomas and Soriano-Morales, Edmundo-Pavel and Staiano, Jacopo},
title = {Project PIAF: Building a Native French Question-Answering Dataset},
booktitle = {Proceedings of The 12th Language Resources and Evaluation Conference},
month = {May},
year = {2020},
address = {Marseille, France},
publisher = {European Language Resources Association},
pages = {5483--5492},
url = {URL
}
## This Dataset
> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023,
author = { {Centre Aquitain des Technologies de l'Information et Electroniques} },
title = { DFP (Revision 1d24c09) },
year = 2023,
url = { URL },
doi = { 10.57967/hf/1200 },
publisher = { Hugging Face }
}
## License
MIT
|
[
"# piaf_fr_prompt_question_generation_with_answer_and_context",
"## Summary\n\npiaf_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP). \nIt contains 387,408 rows that can be used for a question-generation (with answer and context) task. \nThe original data (without prompts) comes from the dataset PIAF and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.\nA list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the xP3 dataset by Muennighoff et al.",
"## Prompts used",
"### List\n21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.",
"# Splits\n- 'train' with 387,408 samples\n- no 'valid' split\n- no 'test' split",
"# How to use?",
"## Original data\n> @InProceedings{keraron-EtAl:2020:LREC,\n author = {Keraron, Rachel and Lancrenon, Guillaume and Bras, Mathilde and Allary, Frédéric and Moyse, Gilles and Scialom, Thomas and Soriano-Morales, Edmundo-Pavel and Staiano, Jacopo},\n title = {Project PIAF: Building a Native French Question-Answering Dataset},\n booktitle = {Proceedings of The 12th Language Resources and Evaluation Conference},\n month = {May},\n year = {2020},\n address = {Marseille, France},\n publisher = {European Language Resources Association},\n pages = {5483--5492},\n url = {URL\n}",
"## This Dataset\n> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023, \n\tauthor = { {Centre Aquitain des Technologies de l'Information et Electroniques} }, \n\ttitle = { DFP (Revision 1d24c09) }, \n\tyear = 2023, \n\turl = { URL }, \n\tdoi = { 10.57967/hf/1200 }, \n\tpublisher = { Hugging Face } \n}",
"## License\nMIT"
] |
[
"TAGS\n#task_categories-text-generation #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-100K<n<1M #source_datasets-etalab-ia/piaf #language-French #license-mit #DFP #french prompts #region-us \n",
"# piaf_fr_prompt_question_generation_with_answer_and_context",
"## Summary\n\npiaf_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP). \nIt contains 387,408 rows that can be used for a question-generation (with answer and context) task. \nThe original data (without prompts) comes from the dataset PIAF and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.\nA list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the xP3 dataset by Muennighoff et al.",
"## Prompts used",
"### List\n21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.",
"# Splits\n- 'train' with 387,408 samples\n- no 'valid' split\n- no 'test' split",
"# How to use?",
"## Original data\n> @InProceedings{keraron-EtAl:2020:LREC,\n author = {Keraron, Rachel and Lancrenon, Guillaume and Bras, Mathilde and Allary, Frédéric and Moyse, Gilles and Scialom, Thomas and Soriano-Morales, Edmundo-Pavel and Staiano, Jacopo},\n title = {Project PIAF: Building a Native French Question-Answering Dataset},\n booktitle = {Proceedings of The 12th Language Resources and Evaluation Conference},\n month = {May},\n year = {2020},\n address = {Marseille, France},\n publisher = {European Language Resources Association},\n pages = {5483--5492},\n url = {URL\n}",
"## This Dataset\n> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023, \n\tauthor = { {Centre Aquitain des Technologies de l'Information et Electroniques} }, \n\ttitle = { DFP (Revision 1d24c09) }, \n\tyear = 2023, \n\turl = { URL }, \n\tdoi = { 10.57967/hf/1200 }, \n\tpublisher = { Hugging Face } \n}",
"## License\nMIT"
] |
[
89,
25,
153,
5,
46,
28,
5,
178,
106,
3
] |
[
"passage: TAGS\n#task_categories-text-generation #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-100K<n<1M #source_datasets-etalab-ia/piaf #language-French #license-mit #DFP #french prompts #region-us \n# piaf_fr_prompt_question_generation_with_answer_and_context## Summary\n\npiaf_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP). \nIt contains 387,408 rows that can be used for a question-generation (with answer and context) task. \nThe original data (without prompts) comes from the dataset PIAF and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.\nA list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the xP3 dataset by Muennighoff et al.## Prompts used### List\n21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.# Splits\n- 'train' with 387,408 samples\n- no 'valid' split\n- no 'test' split# How to use?"
] |
3e50e9a56e603357e748f8b9175d0d239e732bdf
|
# fquad_fr_prompt_question_generation_with_answer_and_context
## Summary
**fquad_fr_prompt_question_generation_with_answer_and_context** is a subset of the [**Dataset of French Prompts (DFP)**](https://huggingface.co/datasets/CATIE-AQ/DFP).
It contains **502,299** rows that can be used for a question-generation (with answer and context) task.
The original data (without prompts) comes from the dataset [FQuAD]( https://huggingface.co/datasets/fquad) by d'Hoffschmidt et al. and was augmented by questions in SQUAD 2.0 format in the [FrenchQA]( https://huggingface.co/datasets/CATIE-AQ/frenchQA) dataset.
As FQuAD's license does not allow data to be shared, we simply share the prompts used, so that users can recreate the dataset themselves in the same format as the [xP3](https://huggingface.co/datasets/bigscience/xP3) dataset by Muennighoff et al.
## Prompts used
### List
21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.
```
'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question aurais-tu pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question auriez-vous pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question peut être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question peux-tu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question pouvez-vous poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Sachant la réponse suivante : "'+answer+'"\n Générer une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Génère une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Générez une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouves une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouvez une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Créer une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Crée trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Créez trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecrire une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecris une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecrivez une bonne question pour le texte suivant : "'+context+'"
```
# Splits
- `train` with 435,351 samples
- `valid` with 66,948 samples
- no test split
# How to use?
This repository doesn't contain any data.
# Citation
## Original data
> @ARTICLE{2020arXiv200206071
author = {Martin, d'Hoffschmidt and Maxime, Vidal and Wacim, Belblidia and Tom, Brendlé},
title = "{FQuAD: French Question Answering Dataset}",
journal = {arXiv e-prints},
keywords = {Computer Science - Computation and Language},
year = "2020",
month = "Feb",
eid = {arXiv:2002.06071},
pages = {arXiv:2002.06071},
archivePrefix = {arXiv},
eprint = {2002.06071},
primaryClass = {cs.CL}
}
## This Dataset
> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023,
author = { {Centre Aquitain des Technologies de l'Information et Electroniques} },
title = { DFP (Revision 1d24c09) },
year = 2023,
url = { https://huggingface.co/datasets/CATIE-AQ/DFP },
doi = { 10.57967/hf/1200 },
publisher = { Hugging Face }
}
## License
CC BY-NC-SA 3.0
|
CATIE-AQ/fquad_fr_prompt_question_generation_with_answer_and_context
|
[
"task_categories:text-generation",
"annotations_creators:found",
"language_creators:found",
"multilinguality:monolingual",
"size_categories:100k<n<1M",
"source_datasets:fquad",
"language:fr",
"license:cc-by-nc-sa-3.0",
"DFP",
"french prompts",
"arxiv:2002.06071",
"region:us"
] |
2023-08-22T06:40:39+00:00
|
{"annotations_creators": ["found"], "language_creators": ["found"], "language": ["fr"], "license": ["cc-by-nc-sa-3.0"], "multilinguality": ["monolingual"], "size_categories": ["100k<n<1M"], "source_datasets": ["fquad"], "task_categories": ["text-generation"], "tags": ["DFP", "french prompts"]}
|
2023-10-11T11:17:33+00:00
|
[
"2002.06071"
] |
[
"fr"
] |
TAGS
#task_categories-text-generation #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-100k<n<1M #source_datasets-fquad #language-French #license-cc-by-nc-sa-3.0 #DFP #french prompts #arxiv-2002.06071 #region-us
|
# fquad_fr_prompt_question_generation_with_answer_and_context
## Summary
fquad_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP).
It contains 502,299 rows that can be used for a question-generation (with answer and context) task.
The original data (without prompts) comes from the dataset FQuAD by d'Hoffschmidt et al. and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.
As FQuAD's license does not allow data to be shared, we simply share the prompts used, so that users can recreate the dataset themselves in the same format as the xP3 dataset by Muennighoff et al.
## Prompts used
### List
21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.
# Splits
- 'train' with 435,351 samples
- 'valid' with 66,948 samples
- no test split
# How to use?
This repository doesn't contain any data.
## Original data
> @ARTICLE{2020arXiv200206071
author = {Martin, d'Hoffschmidt and Maxime, Vidal and Wacim, Belblidia and Tom, Brendlé},
title = "{FQuAD: French Question Answering Dataset}",
journal = {arXiv e-prints},
keywords = {Computer Science - Computation and Language},
year = "2020",
month = "Feb",
eid = {arXiv:2002.06071},
pages = {arXiv:2002.06071},
archivePrefix = {arXiv},
eprint = {2002.06071},
primaryClass = {cs.CL}
}
## This Dataset
> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023,
author = { {Centre Aquitain des Technologies de l'Information et Electroniques} },
title = { DFP (Revision 1d24c09) },
year = 2023,
url = { URL },
doi = { 10.57967/hf/1200 },
publisher = { Hugging Face }
}
## License
CC BY-NC-SA 3.0
|
[
"# fquad_fr_prompt_question_generation_with_answer_and_context",
"## Summary\n\nfquad_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP). \nIt contains 502,299 rows that can be used for a question-generation (with answer and context) task. \nThe original data (without prompts) comes from the dataset FQuAD by d'Hoffschmidt et al. and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.\nAs FQuAD's license does not allow data to be shared, we simply share the prompts used, so that users can recreate the dataset themselves in the same format as the xP3 dataset by Muennighoff et al.",
"## Prompts used",
"### List\n21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.",
"# Splits\n- 'train' with 435,351 samples\n- 'valid' with 66,948 samples\n- no test split",
"# How to use?\nThis repository doesn't contain any data.",
"## Original data\n> @ARTICLE{2020arXiv200206071\n author = {Martin, d'Hoffschmidt and Maxime, Vidal and Wacim, Belblidia and Tom, Brendlé},\n title = \"{FQuAD: French Question Answering Dataset}\",\n journal = {arXiv e-prints},\n keywords = {Computer Science - Computation and Language},\n year = \"2020\",\n month = \"Feb\",\n eid = {arXiv:2002.06071},\n pages = {arXiv:2002.06071},\narchivePrefix = {arXiv},\n eprint = {2002.06071},\n primaryClass = {cs.CL}\n}",
"## This Dataset\n> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023, \n\tauthor = { {Centre Aquitain des Technologies de l'Information et Electroniques} }, \n\ttitle = { DFP (Revision 1d24c09) }, \n\tyear = 2023, \n\turl = { URL }, \n\tdoi = { 10.57967/hf/1200 }, \n\tpublisher = { Hugging Face } \n}",
"## License\nCC BY-NC-SA 3.0"
] |
[
"TAGS\n#task_categories-text-generation #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-100k<n<1M #source_datasets-fquad #language-French #license-cc-by-nc-sa-3.0 #DFP #french prompts #arxiv-2002.06071 #region-us \n",
"# fquad_fr_prompt_question_generation_with_answer_and_context",
"## Summary\n\nfquad_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP). \nIt contains 502,299 rows that can be used for a question-generation (with answer and context) task. \nThe original data (without prompts) comes from the dataset FQuAD by d'Hoffschmidt et al. and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.\nAs FQuAD's license does not allow data to be shared, we simply share the prompts used, so that users can recreate the dataset themselves in the same format as the xP3 dataset by Muennighoff et al.",
"## Prompts used",
"### List\n21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.",
"# Splits\n- 'train' with 435,351 samples\n- 'valid' with 66,948 samples\n- no test split",
"# How to use?\nThis repository doesn't contain any data.",
"## Original data\n> @ARTICLE{2020arXiv200206071\n author = {Martin, d'Hoffschmidt and Maxime, Vidal and Wacim, Belblidia and Tom, Brendlé},\n title = \"{FQuAD: French Question Answering Dataset}\",\n journal = {arXiv e-prints},\n keywords = {Computer Science - Computation and Language},\n year = \"2020\",\n month = \"Feb\",\n eid = {arXiv:2002.06071},\n pages = {arXiv:2002.06071},\narchivePrefix = {arXiv},\n eprint = {2002.06071},\n primaryClass = {cs.CL}\n}",
"## This Dataset\n> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023, \n\tauthor = { {Centre Aquitain des Technologies de l'Information et Electroniques} }, \n\ttitle = { DFP (Revision 1d24c09) }, \n\tyear = 2023, \n\turl = { URL }, \n\tdoi = { 10.57967/hf/1200 }, \n\tpublisher = { Hugging Face } \n}",
"## License\nCC BY-NC-SA 3.0"
] |
[
101,
25,
173,
5,
46,
30,
16,
158,
106,
9
] |
[
"passage: TAGS\n#task_categories-text-generation #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-100k<n<1M #source_datasets-fquad #language-French #license-cc-by-nc-sa-3.0 #DFP #french prompts #arxiv-2002.06071 #region-us \n# fquad_fr_prompt_question_generation_with_answer_and_context## Summary\n\nfquad_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP). \nIt contains 502,299 rows that can be used for a question-generation (with answer and context) task. \nThe original data (without prompts) comes from the dataset FQuAD by d'Hoffschmidt et al. and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.\nAs FQuAD's license does not allow data to be shared, we simply share the prompts used, so that users can recreate the dataset themselves in the same format as the xP3 dataset by Muennighoff et al.## Prompts used### List\n21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.# Splits\n- 'train' with 435,351 samples\n- 'valid' with 66,948 samples\n- no test split# How to use?\nThis repository doesn't contain any data."
] |
9f0e30c16d6413cb04890568e7f78597eef5af05
|
# Dataset of richelieu (Kantai Collection)
This is the dataset of richelieu (Kantai Collection), containing 500 images and their tags.
The core tags of this character are `blonde_hair, long_hair, mole, mole_under_eye, mole_under_mouth, hair_between_eyes, blue_eyes, breasts, large_breasts`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:----------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 500 | 583.73 MiB | [Download](https://huggingface.co/datasets/CyberHarem/richelieu_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 500 | 348.97 MiB | [Download](https://huggingface.co/datasets/CyberHarem/richelieu_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 1167 | 710.47 MiB | [Download](https://huggingface.co/datasets/CyberHarem/richelieu_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 500 | 518.29 MiB | [Download](https://huggingface.co/datasets/CyberHarem/richelieu_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 1167 | 974.58 MiB | [Download](https://huggingface.co/datasets/CyberHarem/richelieu_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/richelieu_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 7 |  |  |  |  |  | 1girl, black_pants, solo, alternate_costume, black_footwear, white_coat, black_gloves, long_sleeves, full_body, scarf, hairband, holding_cup, shopping_bag, sitting, white_background |
| 1 | 35 |  |  |  |  |  | 1girl, solo, white_shirt, looking_at_viewer, blue_scarf, high-waist_pants, jeans, alternate_costume, sunglasses, simple_background, smile, red_nails, eyewear_on_head, nail_polish |
| 2 | 6 |  |  |  |  |  | 1girl, alternate_costume, solo, upper_body, white_shirt, collared_shirt, lips, looking_at_viewer, blush, smile |
| 3 | 8 |  |  |  |  |  | 1girl, black_bikini, solo, cleavage, looking_at_viewer, ponytail, see-through, navel, simple_background, white_background, cowboy_shot, frilled_bikini, blush, collarbone, alternate_costume, medium_breasts, twitter_username |
| 4 | 5 |  |  |  |  |  | 1girl, black_bikini, day, navel, outdoors, ponytail, solo, cleavage, cowboy_shot, ocean, blue_sky, cloud, frilled_bikini, side-tie_bikini_bottom, armpits, beach, looking_at_viewer |
| 5 | 18 |  |  |  |  |  | nipples, 1girl, blush, completely_nude, looking_at_viewer, smile, solo, barefoot, navel, full_body, standing, female_pubic_hair |
| 6 | 21 |  |  |  |  |  | 1girl, beret, simple_background, solo, strapless_dress, pom_pom_(clothes), looking_at_viewer, white_background, multicolored_scarf, white_headwear, multicolored_gloves, multicolored_dress, upper_body, belt |
| 7 | 10 |  |  |  |  |  | 1girl, solo, simple_background, looking_at_viewer, strapless_dress, hair_ribbon, collarbone, ponytail, bare_shoulders, blush, upper_body, blue_apron, cleavage, smile, white_background |
| 8 | 5 |  |  |  |  |  | 1girl, solo, cowboy_shot, dress_shirt, looking_at_viewer, navel, open_shirt, white_shirt, medium_breasts, pink_panties, character_name, hairband, long_sleeves, no_bra, pink_bra, speech_bubble |
| 9 | 16 |  |  |  |  |  | 1girl, fake_animal_ears, playboy_bunny, rabbit_ears, solo, strapless_leotard, looking_at_viewer, wrist_cuffs, detached_collar, cleavage, cowboy_shot, smile, alternate_costume, black_pantyhose, blush, black_leotard, bowtie, gloves, necktie, simple_background, white_leotard |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | black_pants | solo | alternate_costume | black_footwear | white_coat | black_gloves | long_sleeves | full_body | scarf | hairband | holding_cup | shopping_bag | sitting | white_background | white_shirt | looking_at_viewer | blue_scarf | high-waist_pants | jeans | sunglasses | simple_background | smile | red_nails | eyewear_on_head | nail_polish | upper_body | collared_shirt | lips | blush | black_bikini | cleavage | ponytail | see-through | navel | cowboy_shot | frilled_bikini | collarbone | medium_breasts | twitter_username | day | outdoors | ocean | blue_sky | cloud | side-tie_bikini_bottom | armpits | beach | nipples | completely_nude | barefoot | standing | female_pubic_hair | beret | strapless_dress | pom_pom_(clothes) | multicolored_scarf | white_headwear | multicolored_gloves | multicolored_dress | belt | hair_ribbon | bare_shoulders | blue_apron | dress_shirt | open_shirt | pink_panties | character_name | no_bra | pink_bra | speech_bubble | fake_animal_ears | playboy_bunny | rabbit_ears | strapless_leotard | wrist_cuffs | detached_collar | black_pantyhose | black_leotard | bowtie | gloves | necktie | white_leotard |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:--------------|:-------|:--------------------|:-----------------|:-------------|:---------------|:---------------|:------------|:--------|:-----------|:--------------|:---------------|:----------|:-------------------|:--------------|:--------------------|:-------------|:-------------------|:--------|:-------------|:--------------------|:--------|:------------|:------------------|:--------------|:-------------|:-----------------|:-------|:--------|:---------------|:-----------|:-----------|:--------------|:--------|:--------------|:-----------------|:-------------|:-----------------|:-------------------|:------|:-----------|:--------|:-----------|:--------|:-------------------------|:----------|:--------|:----------|:------------------|:-----------|:-----------|:--------------------|:--------|:------------------|:--------------------|:---------------------|:-----------------|:----------------------|:---------------------|:-------|:--------------|:-----------------|:-------------|:--------------|:-------------|:---------------|:-----------------|:---------|:-----------|:----------------|:-------------------|:----------------|:--------------|:--------------------|:--------------|:------------------|:------------------|:----------------|:---------|:---------|:----------|:----------------|
| 0 | 7 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 35 |  |  |  |  |  | X | | X | X | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 6 |  |  |  |  |  | X | | X | X | | | | | | | | | | | | X | X | | | | | | X | | | | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 8 |  |  |  |  |  | X | | X | X | | | | | | | | | | | X | | X | | | | | X | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 5 |  |  |  |  |  | X | | X | | | | | | | | | | | | | | X | | | | | | | | | | | | | | X | X | X | | X | X | X | | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 18 |  |  |  |  |  | X | | X | | | | | | X | | | | | | | | X | | | | | | X | | | | | | | X | | | | | X | | | | | | | | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 6 | 21 |  |  |  |  |  | X | | X | | | | | | | | | | | | X | | X | | | | | X | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | |
| 7 | 10 |  |  |  |  |  | X | | X | | | | | | | | | | | | X | | X | | | | | X | X | | | | X | | | X | | X | X | | | | | X | | | | | | | | | | | | | | | | | X | | | | | | | X | X | X | | | | | | | | | | | | | | | | | | | |
| 8 | 5 |  |  |  |  |  | X | | X | | | | | X | | | X | | | | | X | X | | | | | | | | | | | | | | | | | | X | X | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | | | | | | | | | | | | |
| 9 | 16 |  |  |  |  |  | X | | X | X | | | | | | | | | | | | | X | | | | | X | X | | | | | | | X | | X | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/richelieu_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T06:40:51+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-16T04:33:14+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of richelieu (Kantai Collection)
========================================
This is the dataset of richelieu (Kantai Collection), containing 500 images and their tags.
The core tags of this character are 'blonde\_hair, long\_hair, mole, mole\_under\_eye, mole\_under\_mouth, hair\_between\_eyes, blue\_eyes, breasts, large\_breasts', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
a59841951b117d75ca03c5e9ccdc8591e12b9b05
|
# squad_v2_french_translated_fr_prompt_question_generation_with_answer_and_context
## Summary
**squad_v2_french_translated_fr_prompt_question_generation_with_answer_and_context** is a subset of the [**Dataset of French Prompts (DFP)**](https://huggingface.co/datasets/CATIE-AQ/DFP).
It contains **1,112,937** rows that can be used for a question-generation (with answer and context) task.
The original data (without prompts) comes from the dataset [pragnakalp/squad_v2_french_translated](https://huggingface.co/datasets/pragnakalp/squad_v2_french_translated) and was augmented by questions in SQUAD 2.0 format in the [FrenchQA]( https://huggingface.co/datasets/CATIE-AQ/frenchQA) dataset.
A list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the [xP3](https://huggingface.co/datasets/bigscience/xP3) dataset by Muennighoff et al.
## Prompts used
### List
21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.
```
'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question aurais-tu pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question auriez-vous pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question peut être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question peux-tu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question pouvez-vous poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Sachant la réponse suivante : "'+answer+'"\n Générer une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Génère une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Générez une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouves une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouvez une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Créer une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Crée trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Créez trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecrire une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecris une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecrivez une bonne question pour le texte suivant : "'+context+'"
```
# Splits
- `train` with 1,112,937 samples
- no `valid` split
- no `test` split
# How to use?
```
from datasets import load_dataset
dataset = load_dataset("CATIE-AQ/squad_v2_french_translated_fr_prompt_question_generation_with_answer_and_context")
```
# Citation
## Original data
> Hugging Face repository: https://huggingface.co/datasets/pragnakalp/squad_v2_french_translated
## This Dataset
> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023,
author = { {Centre Aquitain des Technologies de l'Information et Electroniques} },
title = { DFP (Revision 1d24c09) },
year = 2023,
url = { https://huggingface.co/datasets/CATIE-AQ/DFP },
doi = { 10.57967/hf/1200 },
publisher = { Hugging Face }
}
## License
apache-2.0
|
CATIE-AQ/squad_v2_french_translated_fr_prompt_question_generation_with_answer_and_context
|
[
"task_categories:text-generation",
"annotations_creators:found",
"language_creators:found",
"multilinguality:monolingual",
"size_categories:1M<n<10M",
"source_datasets:squad_v2_french_translated",
"language:fr",
"license:apache-2.0",
"DFP",
"french prompts",
"region:us"
] |
2023-08-22T06:41:12+00:00
|
{"annotations_creators": ["found"], "language_creators": ["found"], "language": ["fr"], "license": "apache-2.0", "multilinguality": ["monolingual"], "size_categories": ["1M<n<10M"], "source_datasets": ["squad_v2_french_translated"], "task_categories": ["text-generation"], "tags": ["DFP", "french prompts"]}
|
2023-10-11T11:09:11+00:00
|
[] |
[
"fr"
] |
TAGS
#task_categories-text-generation #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-1M<n<10M #source_datasets-squad_v2_french_translated #language-French #license-apache-2.0 #DFP #french prompts #region-us
|
# squad_v2_french_translated_fr_prompt_question_generation_with_answer_and_context
## Summary
squad_v2_french_translated_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP).
It contains 1,112,937 rows that can be used for a question-generation (with answer and context) task.
The original data (without prompts) comes from the dataset pragnakalp/squad_v2_french_translated and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.
A list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the xP3 dataset by Muennighoff et al.
## Prompts used
### List
21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.
# Splits
- 'train' with 1,112,937 samples
- no 'valid' split
- no 'test' split
# How to use?
## Original data
> Hugging Face repository: URL
## This Dataset
> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023,
author = { {Centre Aquitain des Technologies de l'Information et Electroniques} },
title = { DFP (Revision 1d24c09) },
year = 2023,
url = { URL },
doi = { 10.57967/hf/1200 },
publisher = { Hugging Face }
}
## License
apache-2.0
|
[
"# squad_v2_french_translated_fr_prompt_question_generation_with_answer_and_context",
"## Summary\n\nsquad_v2_french_translated_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP). \nIt contains 1,112,937 rows that can be used for a question-generation (with answer and context) task. \nThe original data (without prompts) comes from the dataset pragnakalp/squad_v2_french_translated and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.\nA list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the xP3 dataset by Muennighoff et al.",
"## Prompts used",
"### List\n21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.",
"# Splits\n- 'train' with 1,112,937 samples\n- no 'valid' split\n- no 'test' split",
"# How to use?",
"## Original data\n> Hugging Face repository: URL",
"## This Dataset\n> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023, \n\tauthor = { {Centre Aquitain des Technologies de l'Information et Electroniques} }, \n\ttitle = { DFP (Revision 1d24c09) }, \n\tyear = 2023, \n\turl = { URL }, \n\tdoi = { 10.57967/hf/1200 }, \n\tpublisher = { Hugging Face } \n}",
"## License\napache-2.0"
] |
[
"TAGS\n#task_categories-text-generation #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-1M<n<10M #source_datasets-squad_v2_french_translated #language-French #license-apache-2.0 #DFP #french prompts #region-us \n",
"# squad_v2_french_translated_fr_prompt_question_generation_with_answer_and_context",
"## Summary\n\nsquad_v2_french_translated_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP). \nIt contains 1,112,937 rows that can be used for a question-generation (with answer and context) task. \nThe original data (without prompts) comes from the dataset pragnakalp/squad_v2_french_translated and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.\nA list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the xP3 dataset by Muennighoff et al.",
"## Prompts used",
"### List\n21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.",
"# Splits\n- 'train' with 1,112,937 samples\n- no 'valid' split\n- no 'test' split",
"# How to use?",
"## Original data\n> Hugging Face repository: URL",
"## This Dataset\n> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023, \n\tauthor = { {Centre Aquitain des Technologies de l'Information et Electroniques} }, \n\ttitle = { DFP (Revision 1d24c09) }, \n\tyear = 2023, \n\turl = { URL }, \n\tdoi = { 10.57967/hf/1200 }, \n\tpublisher = { Hugging Face } \n}",
"## License\napache-2.0"
] |
[
98,
36,
180,
5,
46,
29,
5,
12,
106,
6
] |
[
"passage: TAGS\n#task_categories-text-generation #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-1M<n<10M #source_datasets-squad_v2_french_translated #language-French #license-apache-2.0 #DFP #french prompts #region-us \n# squad_v2_french_translated_fr_prompt_question_generation_with_answer_and_context## Summary\n\nsquad_v2_french_translated_fr_prompt_question_generation_with_answer_and_context is a subset of the Dataset of French Prompts (DFP). \nIt contains 1,112,937 rows that can be used for a question-generation (with answer and context) task. \nThe original data (without prompts) comes from the dataset pragnakalp/squad_v2_french_translated and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.\nA list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the xP3 dataset by Muennighoff et al.## Prompts used### List\n21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.# Splits\n- 'train' with 1,112,937 samples\n- no 'valid' split\n- no 'test' split# How to use?## Original data\n> Hugging Face repository: URL"
] |
31fb7cb6523488c653448b13ce552354b04ca470
|
# Dataset Card for "test3"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
gmltnwwkd/test3
|
[
"region:us"
] |
2023-08-22T06:45:25+00:00
|
{"dataset_info": {"features": [{"name": "path", "dtype": "string"}, {"name": "sentence", "dtype": "string"}, {"name": "audio", "dtype": "audio"}], "splits": [{"name": "train", "num_bytes": 1358461786.9367397, "num_examples": 287}, {"name": "test", "num_bytes": 632462116.0632603, "num_examples": 124}], "download_size": 1910304678, "dataset_size": 1990923903.0}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "test", "path": "data/test-*"}]}]}
|
2023-08-22T06:50:59+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "test3"
More Information needed
|
[
"# Dataset Card for \"test3\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"test3\"\n\nMore Information needed"
] |
[
6,
12
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"test3\"\n\nMore Information needed"
] |
6dc46fdde5e2e5a181cb29fe7832380170f9cdf6
|
# Dataset of ark_royal (Kantai Collection)
This is the dataset of ark_royal (Kantai Collection), containing 396 images and their tags.
The core tags of this character are `red_hair, short_hair, bob_cut, bangs, blue_eyes, hairband, blunt_bangs, breasts, ribbon, red_ribbon`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:----------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 396 | 390.26 MiB | [Download](https://huggingface.co/datasets/CyberHarem/ark_royal_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 396 | 255.68 MiB | [Download](https://huggingface.co/datasets/CyberHarem/ark_royal_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 874 | 516.11 MiB | [Download](https://huggingface.co/datasets/CyberHarem/ark_royal_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 396 | 360.57 MiB | [Download](https://huggingface.co/datasets/CyberHarem/ark_royal_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 874 | 684.78 MiB | [Download](https://huggingface.co/datasets/CyberHarem/ark_royal_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/ark_royal_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 14 |  |  |  |  |  | 1girl, bow_(weapon), cleavage_cutout, fingerless_gloves, long_sleeves, solo, tiara, white_pantyhose, white_shorts, corset, holding_weapon, quiver, small_breasts, arrow_(projectile), brown_gloves, overskirt, rigging, looking_at_viewer, red_bow, jacket, red_flower, cowboy_shot, machinery |
| 1 | 5 |  |  |  |  |  | 1girl, belt, bow_(weapon), cleavage_cutout, corset, cowboy_shot, long_sleeves, looking_at_viewer, quiver, rigging, solo, tiara, white_pantyhose, white_shorts, arrow_(projectile), fingerless_gloves, overskirt, red_rose, small_breasts, machinery, holding_weapon, outdoors, sky |
| 2 | 6 |  |  |  |  |  | 1girl, cleavage_cutout, corset, long_sleeves, looking_at_viewer, solo, tiara, white_pantyhose, white_shorts, belt, fingerless_gloves, red_rose, simple_background, white_background, brown_gloves, smile, character_name, cowboy_shot, jacket, medium_breasts |
| 3 | 16 |  |  |  |  |  | 1girl, cleavage_cutout, fingerless_gloves, long_sleeves, looking_at_viewer, solo, tiara, upper_body, brown_gloves, corset, red_rose, simple_background, white_background, smile, small_breasts |
| 4 | 7 |  |  |  |  |  | 1girl, cleavage_cutout, long_sleeves, looking_at_viewer, red_rose, solo, tiara, upper_body, simple_background, corset, medium_breasts, smile, twitter_username, white_background |
| 5 | 8 |  |  |  |  |  | 1girl, detached_collar, looking_at_viewer, playboy_bunny, rabbit_ears, simple_background, solo, cowboy_shot, fake_animal_ears, white_background, white_leotard, wrist_cuffs, medium_breasts, strapless_leotard, black_pantyhose, dated, red_bowtie, tiara, hand_on_hip, rabbit_tail, red_rose, twitter_username, white_pantyhose |
| 6 | 6 |  |  |  |  |  | blush, tiara, hetero, mosaic_censoring, penis, solo_focus, 1boy, 1girl, all_fours, ass, sweat, anus, bed_sheet, completely_nude, doggystyle, fellatio, looking_at_viewer, pov, pussy, sex_from_behind, vaginal |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | bow_(weapon) | cleavage_cutout | fingerless_gloves | long_sleeves | solo | tiara | white_pantyhose | white_shorts | corset | holding_weapon | quiver | small_breasts | arrow_(projectile) | brown_gloves | overskirt | rigging | looking_at_viewer | red_bow | jacket | red_flower | cowboy_shot | machinery | belt | red_rose | outdoors | sky | simple_background | white_background | smile | character_name | medium_breasts | upper_body | twitter_username | detached_collar | playboy_bunny | rabbit_ears | fake_animal_ears | white_leotard | wrist_cuffs | strapless_leotard | black_pantyhose | dated | red_bowtie | hand_on_hip | rabbit_tail | blush | hetero | mosaic_censoring | penis | solo_focus | 1boy | all_fours | ass | sweat | anus | bed_sheet | completely_nude | doggystyle | fellatio | pov | pussy | sex_from_behind | vaginal |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:---------------|:------------------|:--------------------|:---------------|:-------|:--------|:------------------|:---------------|:---------|:-----------------|:---------|:----------------|:---------------------|:---------------|:------------|:----------|:--------------------|:----------|:---------|:-------------|:--------------|:------------|:-------|:-----------|:-----------|:------|:--------------------|:-------------------|:--------|:-----------------|:-----------------|:-------------|:-------------------|:------------------|:----------------|:--------------|:-------------------|:----------------|:--------------|:--------------------|:------------------|:--------|:-------------|:--------------|:--------------|:--------|:---------|:-------------------|:--------|:-------------|:-------|:------------|:------|:--------|:-------|:------------|:------------------|:-------------|:-----------|:------|:--------|:------------------|:----------|
| 0 | 14 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 5 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | X | X | X | | | | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 6 |  |  |  |  |  | X | | X | X | X | X | X | X | X | X | | | | | X | | | X | | X | | X | | X | X | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 16 |  |  |  |  |  | X | | X | X | X | X | X | | | X | | | X | | X | | | X | | | | | | | X | | | X | X | X | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 7 |  |  |  |  |  | X | | X | | X | X | X | | | X | | | | | | | | X | | | | | | | X | | | X | X | X | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 8 |  |  |  |  |  | X | | | | | X | X | X | | | | | | | | | | X | | | | X | | | X | | | X | X | | | X | | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | |
| 6 | 6 |  |  |  |  |  | X | | | | | | X | | | | | | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/ark_royal_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T06:53:07+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-16T05:43:00+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of ark\_royal (Kantai Collection)
=========================================
This is the dataset of ark\_royal (Kantai Collection), containing 396 images and their tags.
The core tags of this character are 'red\_hair, short\_hair, bob\_cut, bangs, blue\_eyes, hairband, blunt\_bangs, breasts, ribbon, red\_ribbon', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
2e15a7801e58cab322386255bf2561bc5a8827d9
|
# Dataset Card for Dataset of French Prompts (DFP)
This dataset of prompts in French contains **113,129,978 rows** but for licensing reasons we can only share 107,796,041 rows (`train`: 102,720,891 samples, `validation`: 2,584,400 samples, `test`: 2,490,750 samples). It presents data for **30 different NLP tasks**.
**724 prompts** were written, including requests in imperative, tutoiement and vouvoiement form in an attempt to have as much coverage as possible of the pre-training data used by the model that will use these data and which are unknown to us.
This dataset contains four columns:
- inputs (string)
- targets (string)
- dataset (string)
- task (string)
The `inputs` and `targets` columns follow the same format as the [xP3](https://huggingface.co/datasets/bigscience/xP3) dataset by Muennighoff et al.
The `dataset` column allows the user to filter the datasets he wants to keep for his work.
The `task` column allows the user to filter the tasks he wants to keep for his work.
The dataset was created from 34 other datasets each with its own license. We invite you to consult them.
The 724 prompts are licensed under the `cc-by-4.0` license, so you're free to apply them to your own datasets.
The dataset is the concatenation of 74 prompts datasets that you can find [here](https://huggingface.co/collections/CATIE-AQ/french-prompts-datasets-6508208ad55dd4e15cd67f8b).
The nomenclature adopted for these datasets is `original dataset name` + `_fr_prompt_` + `task name`.
Below, you'll find for each of the 30 tasks, the list of prompts used for each, an example of a line, the list of original datasets to which the prompts were applied and the list of datasets with prompts then created, and for each their license.
<details>
<summary><h1>Sentence similarity</h1></summary>
Sentence similarity is the task of determining how similar two texts are.
In our case, the target/output is a score between 0 (the two sentences are semantically distant) and 1 (the two sentences are semantically close).
## 18 prompts
<code>
'Déterminer le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"', <br>
'Déterminez le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"', <br>
'Détermine le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"', <br>
'Indiquer le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"', <br>
'Indiquez le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"', <br>
'Indique le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"', <br>
'Donner le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"', <br>
'Donnez le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"', <br>
'Donne le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"', <br>
'Déterminer le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ', <br>
'Déterminez le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ', <br>
'Détermine le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ', <br>
'Indiquer le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ', <br>
'Indiquez le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ', <br>
'Indique le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ', <br>
'Donner le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ', <br>
'Donnez le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ', <br>
'Donne le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ',
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Déterminer le score de similarité entre les deux phrases suivantes. Phrase 1 : "Une femme prend et tient un bébé kangourou."<br>Phrase 2 : "Une femme prend et tient un bébé kangourou dans ses bras." | 0.92 |
## Datasets
### stsb_multi_mt
**Original**: https://huggingface.co/datasets/stsb_multi_mt
Note: only the French portion of this multilingual dataset is kept for our use.
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
> @InProceedings{huggingface:dataset:stsb_multi_mt,
title = {Machine translated multilingual STS benchmark dataset.},
author={Philip May},
year={2021},
url={https://github.com/PhilipMay/stsb-multi-mt}}
#### License
https://github.com/PhilipMay/stsb-multi-mt/blob/main/LICENSE
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/stsb_multi_mt_fr_prompt_sentence_similarity
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `stsb_multi_mt_fr_prompt_sentence_similarity` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Paraphrase detection</h1></summary>
Paraphrase detection consists in indicating whether two sentences have the same meaning or not.
In our case, the target/output is "Oui" or "Non".
## 22 prompts
<code>
'Puis-je remplacer la phrase "'+sentence1+'" par la phrase "'+sentence2+'" et que cela garde la même signification ?',<br>
'Peut-on remplacer la phrase "'+sentence1+'" par la phrase "'+sentence2+'" et que cela garde la même signification ?', <br>
'Les deux phrases suivantes signifient-elles la même chose ? \n "'+sentence1+'"\n "'+sentence2+'"', <br>
'Je veux savoir si les deux phrases suivantes signifient la même chose. \n "'+sentence1+'"\n "'+sentence2+'"\n Le sont-elles ?', <br>
'On veut savoir si les deux phrases suivantes signifient la même chose. \n "'+sentence1+'"\n "'+sentence2+'"\n Le sont-elles ?', <br>
'Nous voulons savoir si les deux phrases suivantes signifient la même chose. \n "'+sentence1+'"\n "'+sentence2+'"\n Le sont-elles ?', <br>
'La phrase "'+sentence1+'" paraphrase-t-elle (= signifie-t-elle la même chose que) cette phrase ? "'+sentence2+'"', <br>
'Les deux phrases suivantes sont-elles équivalentes ou non équivalentes ? "'+ sentence1+'"\n"'+sentence2+'"', <br>
'Déterminer si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : "'+sentence1+'\n Phrase 2 : "'+sentence2+'"', <br>
'Déterminez si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : "'+sentence1+'\n Phrase 2 : "'+sentence2+'"', <br>
'Détermine si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : "'+sentence1+'\n Phrase 2 : "'+sentence2+'"', <br>
'"'+sentence1+'" Est-ce une paraphrase de la phrase suivante ? "'+sentence2+'"', <br>
'"'+sentence1+'" Est-ce une paraphrase de la phrase suivante ? "'+sentence2+'" Oui ou Non ?', <br>
'"'+sentence1+'" Question : "'+sentence2+'" est une paraphrase ou non ?', <br>
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : La phrase 1 et la phrase 2 expriment-elles le même sens ?', <br>
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : La phrase 1 et la phrase 2 expriment-elles le même sens ? Oui ou Non ?', <br>
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : Peut-on réécrire la phrase 1 en phrase 2 ?' , <br>
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : Puis-je réécrire la phrase 1 en phrase 2 ?' , <br>
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : Peut-on réécrire la phrase 1 en phrase 2 ? Oui ou Non ?', <br>
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : Puis-je réécrire la phrase 1 en phrase 2 ? Oui ou Non ?', <br>
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : La phrase 1 paraphrase-t-elle la phrase 2 ?', <br>
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : La phrase 1 paraphrase-t-elle la phrase 2 ? Oui ou Non ?'
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Puis-je remplacer la phrase "À Paris, en octobre 1560, il rencontra secrètement l'ambassadeur d'Angleterre, Nicolas Throckmorton, lui demandant un passeport pour retourner en Angleterre en passant par l'Écosse." par la phrase "En octobre 1560, il rencontra secrètement l'ambassadeur d'Angleterre, Nicolas Throckmorton, à Paris, et lui demanda un passeport pour retourner en Écosse par l'Angleterre." et que cela garde la même signification ? | Non |
## Datasets
### paws-x
**Original**: https://huggingface.co/datasets/paws-x
Note: only the French portion of this multilingual dataset is kept for our use.
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
> @InProceedings{pawsx2019emnlp,
title = {{PAWS-X: A Cross-lingual Adversarial Dataset for Paraphrase Identification}},
author = {Yang, Yinfei and Zhang, Yuan and Tar, Chris and Baldridge, Jason},
booktitle = {Proc. of EMNLP},
year = {2019}}
#### License
The dataset may be freely used for any purpose, although acknowledgement of Google LLC ("Google") as the data source would be appreciated. The dataset is provided "AS IS" without any warranty, express or implied. Google disclaims all liability for any damages, direct or indirect, resulting from the use of the dataset.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/paws-x_fr_prompt_paraphrase_detection
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `paws-x_fr_prompt_paraphrase_detection` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Paraphrase generation</h1></summary>
Paraphrase generation consists to generate a sentence semantically similar to a given sentence.
## 24 prompts
<code>
'Générer une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',<br>
'Génère une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"', <br>
'Générez une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"', <br>
'Paraphraser la phrase suivante : "'+sentence1+'"', <br>
'Paraphrase la phrase suivante : "'+sentence1+'"', <br>
'Paraphrasez la phrase suivante : "'+sentence1+'"', <br>
'Créer une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',<br>
'Crée une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"', <br>
'Créez une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"', <br>
'Créer une paraphrase de la phrase suivante : "'+sentence1+'"', <br>
'Crée une paraphrase de la phrase suivante : "'+sentence1+'"', <br>
'Créez une paraphrase de la phrase suivante : "'+sentence1+'"', <br>
'Ecrire une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"', <br>
'Ecris une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"', <br>
'Ecrivez une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"', <br>
'Ecrire une paraphrase de la phrase suivante : "'+sentence1+'"', <br>
'Ecris une paraphrase de la phrase suivante : "'+sentence1+'"', <br>
'Ecrivez une paraphrase de la phrase suivante : "'+sentence1+'"', <br>
'Rédiger une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"', <br>
'Rédige une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"', <br>
'Rédigez une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"', <br>
'Rédiger une paraphrase de la phrase suivante : "'+sentence1+'"', <br>
'Rédige une paraphrase de la phrase suivante : "'+sentence1+'"', <br>
'Rédigez une paraphrase de la phrase suivante : "'+sentence1+'"'
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Générer une phrase qui signifie la même chose que celle-ci : "La saison NBA 1975 - 76 était la 30e saison de la National Basketball Association." | La saison 1975-1976 de la National Basketball Association était la 30e saison de la NBA. |
## Datasets
### paws-x
**Original**: https://huggingface.co/datasets/paws-x
Note: only the French portion of this multilingual dataset is kept for our use.
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/paws-x_fr_prompt_paraphrase_generation
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `paws-x_fr_prompt_paraphrase_generation` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Textual entailment</h1></summary>
This task consists of indicating whether a hypothesis applied to a sentence is true, false or unsure.
In our case, the target/output is "vrai", "faux" or "incertain".
## 22 prompts
<code>
"""Prendre l'énoncé suivant comme vrai : " """+premise+""" "\n Alors l'énoncé suivant : " """+hypothesis+""" " est "vrai", "faux", ou "incertain" ?""",<br>
"""Prends l'énoncé suivant comme vrai : " """+premise+""" "\n Alors l'énoncé suivant : " """+hypothesis+""" " est "vrai", "faux", ou "incertain" ?""", <br>
"""Prenez l'énoncé suivant comme vrai : " """+premise+""" "\n Alors l'énoncé suivant : " """+hypothesis+""" " est "vrai", "faux", ou "incertain" ?""", <br>
'"'+premise+'"\nQuestion : Cela implique-t-il que "'+hypothesis+'" ? "vrai", "faux", ou "incertain" ?', <br>
'"'+premise+'"\nQuestion : "'+hypothesis+'" est "vrai", "faux", ou "peut-être" ?', <br>
""" " """+premise+""" "\n D'après le passage précédent, est-il vrai que " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""", <br>
""" " """+premise+""" "\nSur la base de ces informations, l'énoncé est-il : " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""", <br>
""" " """+premise+""" "\nEn gardant à l'esprit le texte ci-dessus, considérez : " """+hypothesis+""" "\n Est-ce que c'est "vrai", "faux", ou "incertain" ?""", <br>
""" " """+premise+""" "\nEn gardant à l'esprit le texte ci-dessus, considére : " """+hypothesis+""" "\n Est-ce que c'est "vrai", "faux", ou "peut-être" ?""", <br>
""" " """+premise+""" "\nEn utilisant uniquement la description ci-dessus et ce que vous savez du monde, " """+hypothesis+""" " est-ce "vrai", "faux", ou "incertain" ?""", <br>
""" " """+premise+""" "\nEn utilisant uniquement la description ci-dessus et ce que tu sais du monde, " """+hypothesis+""" " est-ce "vrai", "faux", ou "incertain" ?""", <br>
"""Étant donné que " """+premise+""" ", s'ensuit-il que " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""", <br>
"""Étant donné que " """+premise+""" ", est-il garanti que " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""", <br>
'Étant donné '+premise+', doit-on supposer que '+hypothesis+' est "vrai", "faux", ou "incertain" ?', <br>
'Étant donné '+premise+', dois-je supposer que '+hypothesis+' est "vrai", "faux", ou "incertain" ?', <br>
'Sachant que '+premise+', doit-on supposer que '+hypothesis+' est "vrai", "faux", ou "incertain" ?', <br>
'Sachant que '+premise+', dois-je supposer que '+hypothesis+' est "vrai", "faux", ou "incertain" ?', <br>
'Étant donné que '+premise+', il doit donc être vrai que '+hypothesis+' ? "vrai", "faux", ou "incertain" ?', <br>
"""Supposons que " """+premise+""" ", pouvons-nous déduire que " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""", <br>
"""Supposons que " """+premise+""" ", puis-je déduire que " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""", <br>
"""Supposons qu'il est vrai que " """+premise+""" ". Alors, est-ce que " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""", <br>
"""Supposons qu'il soit vrai que " """+premise+""" ",\n Donc, " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?"""
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Prendre l'énoncé suivant comme vrai : "Diorama est le quatrième album studio du groupe australien de rock alternatif Silverchair. Sorti le 31 mars 2002 par Atlantic/. Il a remporté le ARIA Music Award 2002 du meilleur groupe et du meilleur album rock. L'album a été coproduit par Daniel Johns et David Bottrill. Alors que Bottrill avait travaillé sur des albums pour une variété d'autres groupes, "Diorama" a marqué le premier crédit de production pour le chanteur Johns." Alors l'énoncé suivant : "Daniel Johns et David Bottrill n'ont jamais travaillé ensemble" est "vrai", "faux", ou "incertain" ? | faux |
## Datasets
### xnli
**Original**: https://huggingface.co/datasets/xnli
Note: only the French portion of this multilingual dataset is kept for our use.
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
> @InProceedings{conneau2018xnli,
author = {Conneau, Alexis and Rinott, Ruty and Lample, Guillaume and Williams, Adina and Bowman, Samuel R. and Schwenk, Holger and Stoyanov, Veselin},
title = {XNLI: Evaluating Cross-lingual Sentence Representations},
booktitle = {Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing},
year = {2018},
publisher = {Association for Computational Linguistics},
location = {Brussels, Belgium},}
#### License
The majority of the corpus sentences are released under the OANC’s license which allows all content to be freely used, modified, and shared under permissive terms. The data in the Fiction genre from Captain Blood are in the public domain in the United States (but may be licensed differently elsewhere).
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/xnli_fr_prompt_textual_entailment
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `xnli_fr_prompt_textual_entailment` dataset has the same license as the original dataset from which it is derived.
</details>
#### Citation
### MoritzLaurer/multilingual-NLI-26lang-2mil7
**Original**: https://huggingface.co/datasets/MoritzLaurer/multilingual-NLI-26lang-2mil7
Note: only the French portion of this multilingual dataset is kept for our use. These are the `fr_anli`, `fr_fever`, `fr_ling`, `fr_mnli` and `fr_wanli` splits.
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
> @article{laurer_less_2022,
title = {Less {Annotating}, {More} {Classifying} – {Addressing} the {Data} {Scarcity} {Issue} of {Supervised} {Machine} {Learning} with {Deep} {Transfer} {Learning} and {BERT} - {NLI}},
url = {https://osf.io/74b8k},
language = {en-us},
urldate = {2022-07-28},
journal = {Preprint},
author = {Laurer, Moritz and Atteveldt, Wouter van and Casas, Andreu Salleras and Welbers, Kasper},
month = jun,
year = {2022},
note = {Publisher: Open Science Framework},
}
#### License
The `fr_anli` and `fr_wanli` splits are licensed under cc-by-nc-4.0.
The `fr_fever`, `fr_ling` and `fr_mnli` splits are licensed under MIT.
</details>
**With prompts**:
https://huggingface.co/datasets/CATIE-AQ/anli_fr_prompt_textual_entailment
https://huggingface.co/datasets/CATIE-AQ/fever_fr_prompt_textual_entailment
https://huggingface.co/datasets/CATIE-AQ/ling_fr_prompt_textual_entailment
https://huggingface.co/datasets/CATIE-AQ/mnli_fr_prompt_textual_entailment
https://huggingface.co/datasets/CATIE-AQ/wanli_fr_prompt_textual_entailment
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `anli_fr_prompt_textual_entailment`, `fever_fr_prompt_textual_entailment`, `ling_fr_prompt_textual_entailment`, `mnli_fr_prompt_textual_entailment`, `wanli_fr_prompt_textual_entailment` datasets have the same license as the original dataset from which they are derived.
</details>
</details>
<details>
<summary><h1>Textual simplification</h1></summary>
This task involves cutting a very long sentence into two smaller ones to simplify reading.
## 20 prompts
<code>
'Simplifier la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ',<br>
'Simplifie la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ', <br>
'Simplifiez la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ', <br>
'Alléger la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ', <br>
'Allège la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ', <br>
'Allégez la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ', <br>
'Clarifier la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ', <br>
'Clarifie la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ', <br>
'Clarifiez la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ', <br>
'"'+source+'" La phrase ci-dessus est trop compliquée. Fournir une version simplifiée composée de plusieurs phrases : ', <br>
'"'+source+'" La phrase ci-dessus est trop compliquée. Fournis une version simplifiée composée de plusieurs phrases : ', <br>
'"'+source+'" La phrase ci-dessus est trop compliquée. Fournissez une version simplifiée composée de plusieurs phrases : ', <br>
'"'+source+'" Cette phrase est difficile à comprendre. Une version plus simple avec une signification équivalente est la suivante : ', <br>
'"'+source+'" Cette phrase est difficile à comprendre. Une version moins complexe avec une signification équivalente est la suivante : ', <br>
'"'+source+'" Cette phrase est difficile à comprendre. Une version plus légère avec une signification équivalente est la suivante : ', <br>
'"'+source+'" Cette phrase est difficile à comprendre. Une version épurée avec une signification équivalente est la suivante : ', <br>
'"'+source+'" Cette phrase est lourde. Une version plus simple avec une signification équivalente est la suivante : ', <br>
'"'+source+'" Cette phrase est lourde. Une version moins complexe avec une signification équivalente est la suivante : ', <br>
'"'+source+'" Cette phrase est lourde. Une version plus légère avec une signification équivalente est la suivante : ', <br>
'"'+source+'" Cette phrase est lourde. Une version épurée avec une signification équivalente est la suivante : '
</code>
An example:
| inputs | targets |
| -------- | ------- |
| "N'ayez pas peur de poser des questions, il vaut mieux prendre quelques minutes pour poser les questions, puis passer le double du temps à corriger un problème ultérieur." Cette phrase est lourde. Une version plus légère avec une signification équivalente est la suivante : | Il ne faut pas avoir peur de poser des questions. Il vaut mieux prendre 5 minutes pour poser une question que de passer le double du temps à réparer les erreurs futures. |
## Datasets
### GEM/BiSECT
**Original**: https://huggingface.co/datasets/GEM/BiSECT
Note: only the French portion of this multilingual dataset is kept for our use.
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
> @inproceedings{bisect2021,
title={BiSECT: Learning to Split and Rephrase Sentences with Bitexts},
author={Kim, Joongwon and Maddela, Mounica and Kriz, Reno and Xu, Wei and Callison-Burch, Chris},
booktitle={Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP)},
year={2021}}
#### License
cc-by-nc-4.0
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/bisect_fr_prompt_textual_simplification
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `bisect_fr_prompt_textual_simplification` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Textual merging</h1></summary>
This task involves merging two short sentences into a single longer one.
## 21 prompts
<code>
'Fusionner les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version fusionnée : ', <br>
'Fusionne les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version fusionnée : ', <br>
'Fusionnez les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version fusionnée : ', <br>
'Combiner les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version combinée : ', <br>
'Combine les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version combinée : ', <br>
'Combinez les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version combinée : ', <br>
'Réunir les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version réunie : ', <br>
'Réunis les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version réunie : ', <br>
'Réunissez les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version réunie : ', <br>
'"'+source+' Fournir une version synonyme en une phrase des deux phrases précédentes : ', <br>
'"'+source+' Fournis une version synonyme en une phrase des deux phrases précédentes : ', <br>
'"'+source+' Fournissez une version synonyme en une phrase des deux phrases précédentes : ', <br>
'"'+source+' Ecrire une version synonyme en une phrase des deux phrases précédentes : ', <br>
'"'+source+' Ecris une version synonyme en une phrase des deux phrases précédentes : ', <br>
'"'+source+' Ecrivez une version synonyme en une phrase des deux phrases précédentes : ', <br>
'"'+source+' Rédiger une version synonyme en une phrase des deux phrases précédentes : ', <br>
'"'+source+' Rédige une version synonyme en une phrase des deux phrases précédentes : ', <br>
'"'+source+' Rédigez une version synonyme en une phrase des deux phrases précédentes : ', <br>
'"'+source+' Générer une version synonyme en une phrase des deux phrases précédentes : ', <br>
'"'+source+' Génère une version synonyme en une phrase des deux phrases précédentes : ', <br>
'"'+source+' Générez une version synonyme en une phrase des deux phrases précédentes : '
</code>
An example:
| inputs | targets |
| -------- | ------- |
| "Il ne faut pas avoir peur de poser des questions. Il vaut mieux prendre 5 minutes pour poser une question que de passer le double du temps à réparer les erreurs futures. Rédigez une version synonyme en une phrase des deux phrases précédentes : | N'ayez pas peur de poser des questions, il vaut mieux prendre quelques minutes pour poser les questions, puis passer le double du temps à corriger un problème ultérieur. |
## Datasets
### GEM/BiSECT
**Original**: https://huggingface.co/datasets/GEM/BiSECT
Note: only the French portion of this multilingual dataset is kept for our use.
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/bisect_fr_prompt_textual_merging
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `bisect_fr_prompt_textual_merging` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Coreference</h1></summary>
A Winograd schema is a pair of sentences that differ by only one or two words and contain an ambiguity that is resolved in opposite ways in both sentences, requiring the use of world knowledge and reasoning for its resolution.
## 10 prompts
<code>
'"'+sentence+'"\nRemplacer le "_" dans la phrase ci-dessus par la bonne option :\n- "'+option1+'"\n- "'+option2+'"', <br>
'"'+sentence+'"\nRemplace le "_" dans la phrase ci-dessus par la bonne option :\n- "'+option1+'"\n- "'+option2+'"', <br>
'"'+sentence+'"\nRemplacez le "_" dans la phrase ci-dessus par la bonne option :\n- "'+option1+'"\n- "'+option2+'"', <br>
'"'+sentence+'" Dans la phrase précédente, "_" fait-il référence à "'+option1+'" ou "'+option2+'" ?', <br>
'"'+sentence+'" À quoi le "_" dans la phrase ci-dessus fait-il référence ? "'+option1+'" ou "'+option2+'" ?',<br>
'"'+sentence+'" Le "_" dans la phrase ci-dessous fait référence à "'+option1+'"\n- "'+option2+'" ?', <br>
'Remplisser le "_" de la phrase suivante : "'+sentence+ '"\nChoix :\n- "'+option1+'"\n- "'+option2+'"\nRéponse :', <br>
'Remplis le "_" de la phrase suivante : "'+sentence+ '"\nChoix :\n- "'+option1+'"\n- "'+option2+'"\nRéponse :', <br>
'Remplissez le "_" de la phrase suivante : "'+sentence+ '"\nChoix :\n- "'+option1+'"\n- "'+option2+'"\nRéponse :', <br>
'Dans la phrase ci-dessous, le "_" renvoie-t-il à "'+option1+'" ou "'+option2+'" ? : '+sentence,
</code>
| inputs | targets |
| -------- | ------- |
| "La coupe n'entre pas dans la valise marron, car _ est trop grande." Remplacer le "_" dans la phrase ci-dessus par la bonne option : <br>- "La coupe" <br>- "la valise" | La coupe |
## Datasets
### Muennighoff/xwinograd
**Original**: https://huggingface.co/datasets/Muennighoff/xwinograd
Note: only the French portion of this multilingual dataset is kept for our use.
<details>
<summary>Citation and License</summary>
#### Citation
> @misc{muennighoff2022crosslingual,
title={Crosslingual Generalization through Multitask Finetuning},
author={Niklas Muennighoff and Thomas Wang and Lintang Sutawika and Adam Roberts and Stella Biderman and Teven Le Scao and M Saiful Bari and Sheng Shen and Zheng-Xin Yong and Hailey Schoelkopf and Xiangru Tang and Dragomir Radev and Alham Fikri Aji and Khalid Almubarak and Samuel Albanie and Zaid Alyafeai and Albert Webson and Edward Raff and Colin Raffel},
year={2022},
eprint={2211.01786},
archivePrefix={arXiv},
primaryClass={cs.CL}}
#### License
cc-by-nc-4.0
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/xwinograd_fr_prompt_coreference
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/xwinograd_fr_prompt_coreference` dataset has the same license as the original dataset from which it is derived.
</details>
### demelin/wino_x
**Original**: https://huggingface.co/datasets/demelin/wino_x
Note: only the French portion of this multilingual dataset is kept for our use.
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
> @inproceedings{Emelin2021WinoXMW, title={Wino-X: Multilingual Winograd Schemas for Commonsense Reasoning and Coreference Resolution}, author={Denis Emelin and Rico Sennrich}, booktitle={EMNLP}, year={2021} }
#### License
MIT
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/wino_x_fr_prompt_coreference
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/wino_x_fr_prompt_coreference` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Sentiment analysis</h1></summary>
The goal is to classify a text into one of two categories: positive or negative.
In our case, the target/output is "pos" (for positive) or "neg" (for negative).
## 28 prompts
<code>
'Commentaire : "'+review+'" Le commentaire est-il positif ou négatif ?', <br>
"""Avis : " """+review+""" " L'avis est-il positif ou négatif ?""", <br>
'Critique : "'+review+'" La critique est-elle positive ou négative ?', <br>
"""Evaluation : " """+review+""" " L'évaluation est-elle positive ou négative ?""", <br>
'Ce commentaire sur le produit est-il positif ou négatif ? \nCommentaire : "'+review+'"\nRéponse :', <br>
'Cet avis sur le produit est-il positif ou négatif ? \nAvis : "'+review+'"\nRéponse :', <br>
'Cette critique sur le produit est-elle positive ou négative ? \nCritique : "'+review+'"\nRéponse :', <br>
'Cette évaluation sur le produit est-elle positive ou négative ? \nEvaluation : "'+review+'"\nRéponse :', <br>
'Commentaire : "'+review+'"\n Ce commentaire sur le produit exprime-t-il un sentiment négatif ou positif ?', <br>
'Avis : "'+review+'"\n Cet avis sur le produit exprime-t-il un sentiment négatif ou positif ?', <br>
'Critique : "'+review+'"\n Cette critique sur le produit exprime-t-il un sentiment négatif ou positif ?', <br>
'Evaluation : "'+review+'"\n Cette évaluation sur le produit exprime-t-il un sentiment négatif ou positif ?', <br>
'Ce commentaire sur le produit a-t-il un ton négatif ou positif ? \n Commentaire : "'+review+'"\n Réponse :', <br>
'Cet avis sur le produit a-t-il un ton négatif ou positif ? \n Avis : "'+review+'"\n Réponse :', <br>
'Cette critique sur le produit a-t-il un ton négatif ou positif ? \n Evaluation : "'+review+'"\n Réponse :', <br>
'Cette évaluation sur le produit a-t-il un ton négatif ou positif ? \n Avis : "'+review+'"\n Réponse :', <br>
"""Voici un commentaire laissé par un client sur un produit. Diriez-vous qu'il est négatif ou positif ? \nCommentaire : """+review, <br>
"""Voici un avis laissé par un client sur un produit. Diriez-vous qu'il est négatif ou positif ? \nAvis : """+review, <br>
"""Voici une critique laissée par un client sur un produit. Diriez-vous qu'elle est négative ou positive ? \nCritique : """+review, <br>
"""Voici une évaluation laissée par un client sur un produit. Diriez-vous qu'elle est négative ou positive ? \nEvaluation : """+review, <br>
'Commentaire du produit : "'+review+'" Ce commentaire dépeint le produit sous un angle négatif ou positif ?', <br>
'Avis du produit : "'+review+'" Cet avis dépeint le produit sous un angle négatif ou positif ?', <br>
'Critique du produit : "'+review+'" Cette critique dépeint le produit sous un angle négatif ou positif ?', <br>
'Evaluation du produit : "'+review+'" Cette évaluation dépeint le produit sous un angle négatif ou positif ?', <br>
'Le commentaire suivant exprime quel sentiment ?\n Commentaire' +review, <br>
"""L'avis suivant exprime quel sentiment ?\n Avis""" +review, <br>
'La critique suivante exprime quel sentiment ?\n Critique' +review, <br>
"""L'évaluation suivante exprime quel sentiment ?\n Evaluation""" +review
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Evaluation : " Alors franchement pour le moment c'est le meilleur films de Noël pour moi, et les acteurs sont plutôt bon, et l'histoire et vraiment cool, je le conseil vraiment il est cool. " L'évaluation est-elle positive ou négative ?|pos|
## Datasets
### Abirate/french_book_reviews
**Original**: https://huggingface.co/datasets/Abirate/french_book_reviews
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
> @misc {abir_eltaief_2023,
author = { {Abir ELTAIEF} },
title = { french_book_reviews (Revision 534725e) },
year = 2023,
url = { https://huggingface.co/datasets/Abirate/french_book_reviews },
doi = { 10.57967/hf/1052 },
publisher = { Hugging Face }}
#### License
CC0: Public Domain
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/french_book_reviews_fr_prompt_sentiment_analysis
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/french_book_reviews_fr_prompt_sentiment_analysis` dataset has the same license as the original dataset from which it is derived.
</details>
### allocine
**Original**: https://huggingface.co/datasets/allocine
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
> Théophile Blard, French sentiment analysis with BERT, (2020), GitHub repository, https://github.com/TheophileBlard/french-sentiment-analysis-with-bert
#### License
MIT
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/allocine_fr_prompt_sentiment_analysis
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/allocine_fr_prompt_sentiment_analysis` dataset has the same license as the original dataset from which it is derived.
</details>
### amazon_reviews_multi
**Original**: https://huggingface.co/datasets/amazon_reviews_multi
Note: only the French portion of this multilingual dataset is kept for our use.
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
> @inproceedings{marc_reviews,
title={The Multilingual Amazon Reviews Corpus},
author={Keung, Phillip and Lu, Yichao and Szarvas, György and Smith, Noah A.},
booktitle={Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing},
year={2020}}
#### License
https://docs.opendata.aws/amazon-reviews-ml/license.txt
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_sentiment_analysis
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_sentiment_analysis` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Question Answering</h1></summary>
In the (extractive) Question Answering task, the model answers a question based on an associated contextual text.
Note that here we handle cases where the answer is indeed in the text provided, but also the case where the answer may not be present in the text.
## 42 prompts
<code>
# SQUAD 1.0 format<br>
'Question : "'+question+'"\nContexte : "'+context+'" Réponse :', <br>
'La réponse à la question "'+question+'" se trouve dans "'+context+'" Pouvez-vous me la dire ?', <br>
'La réponse à la question "'+question+'" se trouve dans "'+context+'" Peux-tu me la dire ?', <br>
'Extraire la réponse à la question à partir du contexte suivant.\n Question : "'+question+'" Contexte : "'+context+'"', <br>
'Extrais la réponse à la question à partir du contexte suivant.\n Question : "'+question+'" Contexte : "'+context+'"', <br>
'Extrayez la réponse à la question à partir du contexte suivant.\n Question : "'+question+'" Contexte : "'+context+'"', <br>
'Étant donné le passage suivant : "'+context+'"\n Répondre à la question suivante sachant que la réponse est présente dans le texte.\n Question : "'+question+'"', <br>
'Étant donné le passage suivant : "'+context+'"\n Réponds à la question suivante sachant que la réponse est présente dans le texte.\n Question : "'+question+'"', <br>
'Étant donné le passage suivant : "'+context+'"\n Répondez à la question suivante sachant que la réponse est présente dans le texte.\n Question : "'+question+'"', <br>
"""La réponse à la question : " """+question+""" " se trouve dans le texte : " """+context+""" "\n Peux-tu l'indiquer ?""", <br>
"""La réponse à la question : " """+question+""" " se trouve dans le texte : " """+context+""" "\n Pouvez-vous l'indiquer ?""", <br>
"""La réponse à la question : " """+question+""" " se trouve dans le texte : " """+context+""" "\n Qu'elle est-elle ?""", <br>
# SQUAD 2.0 format <br>
'"'+question+'"\n Répondre à la question ci-dessus en se basant sur le contexte suivant : "'+context+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'"'+question+'"\n Réponds à la question ci-dessus en te basant sur le contexte suivant : "'+context+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".', <br>
'"'+question+'"\n Répondez à la question ci-dessus en vous basant sur le contexte suivant : "'+context+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'Utiliser le texte suivant pour répondre à la question : '+question+ '\n\n "'+context+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'Utilise le texte suivant pour répondre à la question : '+question+ '\n\n "'+context+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".', <br>
'Utilisez le texte suivant pour répondre à la question : '+question+ '\n\n "'+context+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'Lire le texte suivant et extraire la réponse à la question : "'+question+'"\n\n "'+context+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'Lis le texte suivant et extrais la réponse à la question : "'+question+'"\n\n "'+context+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".', <br>
'Lisez le texte suivant et extrayez la réponse à la question : "'+question+'"\n\n "'+context+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'"'+context+'"\n\nSur la base du texte ci-dessus, répondre correctement à la question suivante : \n\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'"'+context+'"\n\nSur la base du texte ci-dessus, réponds correctement à la question suivante : \n\n "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".', <br>
'"'+context+'"\n\nSur la base du texte ci-dessus, répondez répondre correctement à la question suivante : \n\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'Contexte : '+ context +'\n Compte tenu du texte ci-dessus, répondre correctement à la question suivante : "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'Contexte : '+ context +'\n Compte tenu du texte ci-dessus, réponds correctement à la question suivante : "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".', <br>
'Contexte : '+ context +'\n Compte tenu du texte ci-dessus, répondez correctement à la question suivante : "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'"'+context+'"\n Extraire du passage la réponse à la question suivante : "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'"'+context+'"\n Extrais du passage la réponse à la question suivante : "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".', <br>
'"'+context+'"\n Extrayez du passage la réponse à la question suivante : "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'Compte tenu du passage suivant, répondre à la question qui suit : "'+context+'"\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'Compte tenu du passage suivant, réponds à la question qui suit : "'+context+'"\n "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".', <br>
'Compte tenu du passage suivant, répondez à la question qui suit : "'+context+'"\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'Après avoir lu le paragraphe, répondre à la question suivante : "'+context+'"\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'Après avoir lu le paragraphe, réponds à la question suivante : "'+context+'"\n "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".', <br>
'Après avoir lu le paragraphe, répondez à la question suivante : "'+context+'"\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'Se référer au passage ci-dessous et répondre à la question suivante:\n Passage : "'+context+'"Question : "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'Référe-toi au passage ci-dessous et réponds à la question suivante:\n Passage : "'+context+'"Question : "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".', <br>
'Référez-vous au passage ci-dessous et répondez à la question suivante:\n Passage : "'+context+'"Question : "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'Lire le passage suivant et répondez à la question qui suit : \n "'+context+'"\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".', <br>
'Lis le passage suivant et répondez à la question qui suit : \n "'+context+'"\n "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".', <br>
'Lisez le passage suivant et répondez à la question qui suit : \n "'+context+'"\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Question : "Quand Beyonce a-t-elle commencé à devenir populaire ?" Contexte : "Beyoncé Giselle Knowles-Carter (/ biːˈjɒnseɪ / bee-YON-say) (née le 4 septembre 1981) est une chanteuse, compositrice, productrice de disques et actrice américaine. Née et élevée à Houston, au Texas, elle a joué dans divers chant et danse enfant, et est devenu célèbre à la fin des années 1990 en tant que chanteuse du groupe de filles R&B Destiny's Child. Géré par son père, Mathew Knowles, le groupe est devenu l'un des groupes de filles les plus vendus au monde de tous les temps. a vu la sortie du premier album de Beyoncé, Dangerously in Love (2003), qui l'a établie en tant qu'artiste solo dans le monde entier, a remporté cinq Grammy Awards et a présenté les singles numéro un du Billboard Hot 100 Crazy in Love et Baby Boy." Réponse :|à la fin des années 1990|
## Datasets
### pragnakalp/squad_v2_french_translated
**Original**: https://huggingface.co/datasets/pragnakalp/squad_v2_french_translated
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
> Hugging Face repository: https://huggingface.co/datasets/pragnakalp/squad_v2_french_translated
#### License
apache-2.0
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/squad_v2_french_translated_fr_prompt_qa
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `squad_v2_french_translated_fr_prompt_qa` dataset has the same license as the original dataset from which it is derived.
</details>
### fquad
**Original**: https://huggingface.co/datasets/fquad
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
> @ARTICLE{2020arXiv200206071
author = {Martin, d'Hoffschmidt and Maxime, Vidal and Wacim, Belblidia and Tom, Brendlé},
title = "{FQuAD: French Question Answering Dataset}",
journal = {arXiv e-prints},
keywords = {Computer Science - Computation and Language},
year = "2020",
month = "Feb",
eid = {arXiv:2002.06071},
pages = {arXiv:2002.06071},
archivePrefix = {arXiv},
eprint = {2002.06071},
primaryClass = {cs.CL}}
#### License
CC BY-NC-SA 3.0
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/fquad_fr_prompt_qa
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `fquad_fr_prompt_qa` dataset has the same license as the original dataset from which it is derived.
</details>
### etalab-ia/piaf
**Original**: https://huggingface.co/datasets/etalab-ia/piaf
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
> @InProceedings{keraron-EtAl:2020:LREC,
author = {Keraron, Rachel and Lancrenon, Guillaume and Bras, Mathilde and Allary, Frédéric and Moyse, Gilles and Scialom, Thomas and Soriano-Morales, Edmundo-Pavel and Staiano, Jacopo},
title = {Project PIAF: Building a Native French Question-Answering Dataset},
booktitle = {Proceedings of The 12th Language Resources and Evaluation Conference},
month = {May},
year = {2020},
address = {Marseille, France},
publisher = {European Language Resources Association},
pages = {5483--5492},
url = {https://www.aclweb.org/anthology/2020.lrec-1.673}
}
#### License
MIT
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/piaf_fr_prompt_qa
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `piaf_fr_prompt_qa` dataset has the same license as the original dataset from which it is derived.
</details>
### lincoln/newsquadfr
**Original**: https://huggingface.co/datasets/lincoln/newsquadfr
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
> Hugging Face repository: https://huggingface.co/datasets/lincoln/newsquadfr
#### License
CC BY-NC-SA 4.0
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/newsquadfr_fr_prompt_qa
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `newsquadfr_fr_prompt_qa` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Context generation with answer and question</h1></summary>
Text generation task where we use the answer and the question in a QA dataset to generate a context.
## 24 prompts
<code>
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", écrire un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", écris un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", écrivez un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", rédiger un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", rédige un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", rédigez un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", générer un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", génère un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", générez un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", créer un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", crée un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", créez un texte explicatif.\nTexte : ', <br>
'Ecrire un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ', <br>
'Ecris un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ', <br>
'Ecrivez un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ', <br>
'Rédiger un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ', <br>
'Rédige un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ', <br>
'Rédigez un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ', <br>
'Générer un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ', <br>
'Génère un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ', <br>
'Générez un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ', <br>
'Créer un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ', <br>
'Crée un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ', <br>
'Créez un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : '
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Étant donné la réponse "100 000" à la question "Combien de personnes travaillent au ministère des sports", écrire un texte explicatif. Texte : | Les dépenses des ménages représentent plus de 50 % de ces montants (14,2 milliards d'euros en 2003 et 12 milliards d'euros en 2019), contre 7,9 milliards d'euros pour les collectivités locales, 3,2 pour l'État, et 2,2 pour les entreprises. Parmi les dépenses sportives des ménages en 2003, 3,7 milliards sont consacrés aux vêtements de sport et chaussures, 2 aux biens durables, 2,7 aux autres biens et 5,8 aux services. Le Ministère de la Jeunesse et des Sports estime à 100 000 (58 % d'hommes pour 42 % de femmes) le nombre de salariés travaillant pour le secteur sportif en France pour quelque 20 000 employeurs.|
## Datasets
### pragnakalp/squad_v2_french_translated
**Original**: https://huggingface.co/datasets/pragnakalp/squad_v2_french_translated
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/squad_v2_french_translated_fr_prompt_context_generation_with_answer_and_question
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `squad_v2_french_translated_fr_prompt_context_generation_with_answer_and_question` dataset has the same license as the original dataset from which it is derived.
</details>
### fquad
**Original**: https://huggingface.co/datasets/fquad
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/fquad_fr_prompt_context_generation_with_answer_and_question
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `fquad_fr_prompt_context_generation_with_answer_and_question` dataset has the same license as the original dataset from which it is derived.
</details>
### etalab-ia/piaf
**Original**: https://huggingface.co/datasets/etalab-ia/piaf
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/piaf_fr_prompt_context_generation_with_answer_and_question
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `piaf_fr_prompt_context_generation_with_answer_and_question` dataset has the same license as the original dataset from which it is derived.
</details>
### lincoln/newsquadfr
**Original**: https://huggingface.co/datasets/lincoln/newsquadfr
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/newsquadfr_fr_prompt_context_generation_with_answer_and_question
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `newsquadfr_fr_prompt_context_generation_with_answer_and_question` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Question generation with answer and context</h1></summary>
Text generation task where we use the answer and the context in a QA dataset to generate a question.
## 21 prompts
<code>
'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', <br>
'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', <br>
'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', <br>
'Quelle question aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', <br>
'Quelle question aurais-tu pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', <br>
'Quelle question auriez-vous pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', <br>
'Quelle question peut être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', <br>
'Quelle question peux-tu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', <br>
'Quelle question pouvez-vous poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', <br>
'Sachant la réponse suivante : "'+answer+'"\n Générer une bonne question pour le texte suivant : "'+context+'"', <br>
'Sachant la réponse suivante : "'+answer+'"\n Génère une bonne question pour le texte suivant : "'+context+'"', <br>
'Sachant la réponse suivante : "'+answer+'"\n Générez une bonne question pour le texte suivant : "'+context+'"', <br>
'Sachant la réponse suivante : "'+answer+'"\n Trouver une bonne question pour le texte suivant : "'+context+'"', <br>
'Sachant la réponse suivante : "'+answer+'"\n Trouves une bonne question pour le texte suivant : "'+context+'"', <br>
'Sachant la réponse suivante : "'+answer+'"\n Trouvez une bonne question pour le texte suivant : "'+context+'"', <br>
'Sachant la réponse suivante : "'+answer+'"\n Créer une bonne question pour le texte suivant : "'+context+'"', <br>
'Sachant la réponse suivante : "'+answer+'"\n Crée trouver une bonne question pour le texte suivant : "'+context+'"', <br>
'Sachant la réponse suivante : "'+answer+'"\n Créez trouver une bonne question pour le texte suivant : "'+context+'"', <br>
'Sachant la réponse suivante : "'+answer+'"\n Ecrire une bonne question pour le texte suivant : "'+context+'"', <br>
'Sachant la réponse suivante : "'+answer+'"\n Ecris une bonne question pour le texte suivant : "'+context+'"', <br>
'Sachant la réponse suivante : "'+answer+'"\n Ecrivez une bonne question pour le texte suivant : "'+context+'"
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. Contexte : "Les dépenses des ménages représentent plus de 50 % de ces montants (14,2 milliards d'euros en 2003 et 12 milliards d'euros en 2019), contre 7,9 milliards d'euros pour les collectivités locales, 3,2 pour l'État, et 2,2 pour les entreprises. Parmi les dépenses sportives des ménages en 2003, 3,7 milliards sont consacrés aux vêtements de sport et chaussures, 2 aux biens durables, 2,7 aux autres biens et 5,8 aux services. Le Ministère de la Jeunesse et des Sports estime à 100 000 (58 % d'hommes pour 42 % de femmes) le nombre de salariés travaillant pour le secteur sportif en France pour quelque 20 000 employeurs."; Réponse : "100 000"; Question :| Combien de personnes travaillent au ministère des sports|
## Datasets
### pragnakalp/squad_v2_french_translated
**Original**: https://huggingface.co/datasets/pragnakalp/squad_v2_french_translated
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/squad_v2_french_translated_fr_prompt_question_generation_with_answer_and_context
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `squad_v2_french_translated_fr_prompt_question_generation_with_answer_and_context` dataset has the same license as the original dataset from which it is derived.
</details>
### fquad
**Original**: https://huggingface.co/datasets/fquad
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/fquad_fr_prompt_question_generation_with_answer_and_context
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `fquad_fr_prompt_question_generation_with_answer_and_context` dataset has the same license as the original dataset from which it is derived.
</details>
### etalab-ia/piaf
**Original**: https://huggingface.co/datasets/etalab-ia/piaf
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/piaf_fr_prompt_question_generation_with_answer_and_context
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `piaf_fr_prompt_question_generation_with_answer_and_context` dataset has the same license as the original dataset from which it is derived.
</details>
### lincoln/newsquadfr
**Original**: https://huggingface.co/datasets/lincoln/newsquadfr
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/newsquadfr_fr_prompt_question_generation_with_answer_and_context
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `newsquadfr_fr_prompt_question_generation_with_answer_and_context` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Question generation with answer</h1></summary>
Text generation task where we use the answer in a QA dataset to generate a question.
## 22 prompts
<code>
'Quelle question donnerait la réponse suivante ? Réponse : "'+answer+'";\nQuestion :', <br>
'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :', <br>
'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :', <br>
'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante . \n Réponse : "'+answer+'";\n Question :', <br>
'Quelle question aurait pu être posée pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :', <br>
'Quelle question aurais-tu pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :', <br>
'Quelle question auriez-vous pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :', <br>
'Quelle question aurait pu être posée pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :', <br>
'Quelle question aurais-tu pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :', <br>
'Quelle question auriez-vous pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :', <br>
'Sachant la réponse suivante : "'+answer+'"\n Générer une bonne question : ', <br>
'Sachant la réponse suivante : "'+answer+'"\n Génère une bonne question : ', <br>
'Sachant la réponse suivante : "'+answer+'"\n Générez une bonne question : ', <br>
'Sachant la réponse suivante : "'+answer+'"\n Trouver une bonne question : ', <br>
'Sachant la réponse suivante : "'+answer+'"\n Trouves une bonne question : ', <br>
'Sachant la réponse suivante : "'+answer+'"\n Trouvez une bonne question : ', <br>
'Sachant la réponse suivante : "'+answer+'"\n Créer une bonne question : ', <br>
'Sachant la réponse suivante : "'+answer+'"\n Crée trouver une bonne question : ', <br>
'Sachant la réponse suivante : "'+answer+'"\n Créez trouver une bonne question : ', <br>
'Sachant la réponse suivante : "'+answer+'"\n Ecrire une bonne question : ', <br>
'Sachant la réponse suivante : "'+answer+'"\n Ecris une bonne question : ', <br>
'Sachant la réponse suivante : "'+answer+'"\n Ecrivez une bonne question
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Quelle question donnerait la réponse suivante ? Réponse : "100 000"; Question : | Combien de personnes travaillent au ministère des sports|
## Datasets
### pragnakalp/squad_v2_french_translated
**Original**: https://huggingface.co/datasets/pragnakalp/squad_v2_french_translated
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/squad_v2_french_translated_fr_prompt_question_generation_with_answer
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `squad_v2_french_translated_fr_prompt_question_generation_with_answer` dataset has the same license as the original dataset from which it is derived.
</details>
### fquad
**Original**: https://huggingface.co/datasets/fquad
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/fquad_fr_prompt_question_generation_with_answer
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `fquad_fr_prompt_question_generation_with_answer` dataset has the same license as the original dataset from which it is derived.
</details>
### etalab-ia/piaf
**Original**: https://huggingface.co/datasets/etalab-ia/piaf
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/piaf_fr_prompt_question_generation_with_answer
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `piaf_fr_prompt_question_generation_with_answer` dataset has the same license as the original dataset from which it is derived.
</details>
### lincoln/newsquadfr
**Original**: https://huggingface.co/datasets/lincoln/newsquadfr
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/newsquadfr_fr_prompt_question_generation_with_answer
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `newsquadfr_fr_prompt_question_generation_with_answer` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Question generation with context</h1></summary>
Text generation task where we use the context in a QA dataset to generate a question.
## 24 prompts
<code>
'"'+context+'"\n Générer une question à partir du texte ci-dessus : ', <br>
'"'+context+'"\n Génère une question à partir du texte ci-dessus : ', <br>
'"'+context+'"\n Générez une question à partir du texte ci-dessus : ', <br>
'"'+context+'"\n Trouver une question à partir du texte ci-dessus : ', <br>
'"'+context+'"\n Trouve une question à partir du texte ci-dessus : ', <br>
'"'+context+'"\n Trouvez une question à partir du texte ci-dessus : ', <br>
'"'+context+'"\n Créer une bonne question à partir du texte ci-dessus : ', <br>
'"'+context+'"\n Crée trouver une bonne question à partir du texte ci-dessus : ', <br>
'"'+context+'"\n Créez trouver une bonne question à partir du texte ci-dessus : ', <br>
'"'+context+'"\n Ecrire une bonne question à partir du texte ci-dessus : ', <br>
'"'+context+'"\n Ecris une bonne question à partir du texte ci-dessus : ', <br>
'"'+context+'"\n Ecrivez une bonne question à partir du texte ci-dessus : ', <br>
'Générer une bonne question pour le texte suivant : "'+context+'"', <br>
'Génère une bonne question pour le texte suivant : "'+context+'"', <br>
'Générez une bonne question pour le texte suivant : "'+context+'"', <br>
'Trouver une bonne question pour le texte suivant : "'+context+'"', <br>
'Trouve une bonne question pour le texte suivant : "'+context+'"', <br>
'Trouvez trouver une bonne question pour le texte suivant : "'+context+'"', <br>
'Créer une bonne question pour le texte suivant : "'+context+'"', <br>
'Crée trouver une bonne question pour le texte suivant : "'+context+'"',<br>
'Créez trouver une bonne question pour le texte suivant : "'+context+'"', <br>
'Ecrire une bonne question pour le texte suivant : "'+context+'"', <br>
'Ecris une bonne question pour le texte suivant : "'+context+'"', <br>
'Ecrivez une bonne question pour le texte suivant : "'+context+'"'
</code>
An example:
| inputs | targets |
| -------- | ------- |
| "Les dépenses des ménages représentent plus de 50 % de ces montants (14,2 milliards d'euros en 2003 et 12 milliards d'euros en 2019), contre 7,9 milliards d'euros pour les collectivités locales, 3,2 pour l'État, et 2,2 pour les entreprises. Parmi les dépenses sportives des ménages en 2003, 3,7 milliards sont consacrés aux vêtements de sport et chaussures, 2 aux biens durables, 2,7 aux autres biens et 5,8 aux services. Le Ministère de la Jeunesse et des Sports estime à 100 000 (58 % d'hommes pour 42 % de femmes) le nombre de salariés travaillant pour le secteur sportif en France pour quelque 20 000 employeurs." Générer une question à partir du texte ci-dessus : | Combien de personnes travaillent au ministère des sports |
## Datasets
### pragnakalp/squad_v2_french_translated
**Original**: https://huggingface.co/datasets/pragnakalp/squad_v2_french_translated
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/squad_v2_french_translated_fr_prompt_question_generation_with_context
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `squad_v2_french_translated_fr_prompt_question_generation_with_context` dataset has the same license as the original dataset from which it is derived.
</details>
### fquad
**Original**: https://huggingface.co/datasets/fquad
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/fquad_fr_prompt_question_generation_with_context
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `fquad_fr_prompt_question_generation_with_context` dataset has the same license as the original dataset from which it is derived.
</details>
### etalab-ia/piaf
**Original**: https://huggingface.co/datasets/etalab-ia/piaf
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/piaf_fr_prompt_question_generation_with_context
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `piaf_fr_prompt_question_generation_with_context` dataset has the same license as the original dataset from which it is derived.
</details>
### lincoln/newsquadfr
**Original**: https://huggingface.co/datasets/lincoln/newsquadfr
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/newsquadfr_fr_prompt_question_generation_with_context
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `newsquadfr_fr_prompt_question_generation_with_context` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Context generation with question</h1></summary>
Text generation task where we use the question in a QA dataset to generate a context.
## 24 prompts
<code>
'Étant donné la question "'+question+'", écrire un texte explicatif.\nTexte : ', <br>
'Étant donné la question "'+question+'", écris un texte explicatif.\nTexte : ', <br>
'Étant donné la question "'+question+'", écrivez un texte explicatif.\nTexte : ', <br>
'Étant donné la question "'+question+'", rédiger un texte explicatif.\nTexte : ', <br>
'Étant donné la question "'+question+'", rédige un texte explicatif.\nTexte : ', <br>
'Étant donné la question "'+question+'", rédigez un texte explicatif.\nTexte : ', <br>
'Étant donné la question "'+question+'", générer un texte explicatif.\nTexte : ', <br>
'Étant donné la question "'+question+'", génère un texte explicatif.\nTexte : ', <br>
'Étant donné la question "'+question+'", générez un texte explicatif.\nTexte : ', <br>
'Étant donné la question "'+question+'", créer un texte explicatif.\nTexte : ', <br>
'Étant donné la question "'+question+'", crée un texte explicatif.\nTexte : ', <br>
'Étant donné la question "'+question+'", créez un texte explicatif.\nTexte : ', <br>
'Ecrire un texte comme contexte à la question "'+question+'" \nTexte : ', <br>
'Ecris un texte comme contexte à la question "'+question+'" \nTexte : ', <br>
'Ecrivez un texte comme contexte à la question "'+question+'" \nTexte : ', <br>
'Rédiger un texte comme contexte à la question "'+question+'" \nTexte : ', <br>
'Rédige un texte comme contexte à la question "'+question+'" \nTexte : ', <br>
'Rédigez un texte comme contexte à la question "'+question+'" \nTexte : ', <br>
'Générer un texte comme contexte à la question "'+question+'" \nTexte : ', <br>
'Génère un texte comme contexte à la question "'+question+'" \nTexte : ', <br>
'Générez un texte comme contexte à la question "'+question+'" \nTexte : ', <br>
'Créer un texte comme contexte à la question "'+question+'" \nTexte : ', <br>
'Crée un texte comme contexte à la question "'+question+'" \nTexte : ', <br>
'Créez un texte comme contexte à la question "'+question+'" \nTexte : '
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Étant donné la question "Combien de personnes travaillent au ministère des sports", écrire un texte explicatif. Texte : | Les dépenses des ménages représentent plus de 50 % de ces montants (14,2 milliards d'euros en 2003 et 12 milliards d'euros en 2019), contre 7,9 milliards d'euros pour les collectivités locales, 3,2 pour l'État, et 2,2 pour les entreprises. Parmi les dépenses sportives des ménages en 2003, 3,7 milliards sont consacrés aux vêtements de sport et chaussures, 2 aux biens durables, 2,7 aux autres biens et 5,8 aux services. Le Ministère de la Jeunesse et des Sports estime à 100 000 (58 % d'hommes pour 42 % de femmes) le nombre de salariés travaillant pour le secteur sportif en France pour quelque 20 000 employeurs.|
## Datasets
### pragnakalp/squad_v2_french_translated
**Original**: https://huggingface.co/datasets/pragnakalp/squad_v2_french_translated
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/squad_v2_french_translated_fr_prompt_context_generation_with_question
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `squad_v2_french_translated_fr_prompt_context_generation_with_question` dataset has the same license as the original dataset from which it is derived.
</details>
### fquad
**Original**: https://huggingface.co/datasets/fquad
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/fquad_fr_prompt_context_generation_with_question
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `fquad_fr_prompt_context_generation_with_question` dataset has the same license as the original dataset from which it is derived.
</details>
### etalab-ia/piaf
**Original**: https://huggingface.co/datasets/etalab-ia/piaf
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/piaf_fr_prompt_context_generation_with_question
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `piaf_fr_prompt_context_generation_with_question` dataset has the same license as the original dataset from which it is derived.
</details>
### lincoln/newsquadfr
**Original**: https://huggingface.co/datasets/lincoln/newsquadfr
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/newsquadfr_fr_prompt_context_generation_with_question
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `newsquadfr_fr_prompt_context_generation_with_question` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Context generation with answer</h1></summary>
Text generation task where we use the answer in a QA dataset to generate a context.
## 24 prompts
<code>
'Étant donné la réponse "'+ answer+'", écrire un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'", écris un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'", écrivez un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'", rédiger un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'", rédige un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'", rédigez un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'", générer un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'", génère un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'", générez un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'", créer un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'", crée un texte explicatif.\nTexte : ', <br>
'Étant donné la réponse "'+ answer+'", créez un texte explicatif.\nTexte : ', <br>
'Ecrire un texte comme contexte de la réponse "'+ answer+'" \nTexte : ', <br>
'Ecris un texte comme contexte de la réponse "'+ answer+'" \nTexte : ', <br>
'Ecrivez un texte comme contexte de la réponse "'+ answer+'" \nTexte : ', <br>
'Rédiger un texte comme contexte de la réponse "'+ answer+'" \nTexte : ', <br>
'Rédige un texte comme contexte de la réponse "'+ answer+'" \nTexte : ', <br>
'Rédigez un texte comme contexte de la réponse "'+ answer+'" \nTexte : ', <br>
'Générer un texte comme contexte de la réponse "'+ answer+'" \nTexte : ', <br>
'Génère un texte comme contexte de la réponse "'+ answer+'" \nTexte : ', <br>
'Générez un texte comme contexte de la réponse "'+ answer+'" \nTexte : ', <br>
'Créer un texte comme contexte de la réponse "'+ answer+'" \nTexte : ', <br>
'Crée un texte comme contexte de la réponse "'+ answer+'" \nTexte : ', <br>
'Créez un texte comme contexte de la réponse "'+ answer+'" \nTexte : ',
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Étant donné la réponse "100 000", écrire un texte explicatif. Texte : | Les dépenses des ménages représentent plus de 50 % de ces montants (14,2 milliards d'euros en 2003 et 12 milliards d'euros en 2019), contre 7,9 milliards d'euros pour les collectivités locales, 3,2 pour l'État, et 2,2 pour les entreprises. Parmi les dépenses sportives des ménages en 2003, 3,7 milliards sont consacrés aux vêtements de sport et chaussures, 2 aux biens durables, 2,7 aux autres biens et 5,8 aux services. Le Ministère de la Jeunesse et des Sports estime à 100 000 (58 % d'hommes pour 42 % de femmes) le nombre de salariés travaillant pour le secteur sportif en France pour quelque 20 000 employeurs.|
## Datasets
### pragnakalp/squad_v2_french_translated
**Original**: https://huggingface.co/datasets/pragnakalp/squad_v2_french_translated
The French split was obtained via an automatic translation of the English split.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/squad_v2_french_translated_fr_prompt_context_generation_with_answer
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `squad_v2_french_translated_fr_prompt_context_generation_with_answer` dataset has the same license as the original dataset from which it is derived.
</details>
### fquad
**Original**: https://huggingface.co/datasets/fquad
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/fquad_fr_prompt_context_generation_with_answer
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `fquad_fr_prompt_context_generation_with_answer` dataset has the same license as the original dataset from which it is derived.
</details>
### etalab-ia/piaf
**Original**: https://huggingface.co/datasets/etalab-ia/piaf
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/piaf_fr_prompt_context_generation_with_answer
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `piaf_fr_prompt_context_generation_with_answer` dataset has the same license as the original dataset from which it is derived.
</details>
### lincoln/newsquadfr
**Original**: https://huggingface.co/datasets/lincoln/newsquadfr
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/newsquadfr_fr_prompt_context_generation_with_answer
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `newsquadfr_fr_prompt_context_generation_with_answer` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Summarization</h1></summary>
Summarization is the task of producing a shorter version of a document while preserving its important information.
## 28 prompts
<code>
'Résumer le texte suivant : "'+document+'"', <br>
'Résume le texte suivant : "'+document+'"', <br>
'Résumez le texte suivant : "'+document+'"', <br>
'Résumer le texte suivant en quelques mots : "'+document+'"', <br>
'Résume le texte suivant en quelques mots : "'+document+'"', <br>
'Résumez le texte suivant en quelques mots : "'+document+'"', <br>
"Condenser le texte à l'essentiel :" +document, <br>
"Condense le texte à l'essentiel :" +document, <br>
"Condensez le texte à l'essentiel :" +document, <br>
'"'+document+' Rédiger un résumé du texte ci-dessus :', <br>
'"'+document+' Rédige un résumé du texte ci-dessus :', <br>
'"'+document+' Rédigez un résumé du texte ci-dessus :', <br>
'Premièrement, lire le texte ci-dessous. \n\n "'+document+'"\n\n Maintenant, rédiger un court résumé.', <br>
'Premièrement, lis le texte ci-dessous. \n\n "'+document+'"\n\n Maintenant, rédige un court résumé.', <br>
'Premièrement, lisez le texte ci-dessous. \n\n "'+document+'"\n\n Maintenant, rédigez un court résumé.', <br>
'Article : "'+document+'"/n Résumé : ', <br>
'"'+document+' Comment reformuler cela en quelques mots ?', <br>
'"'+document+' Comment peux-tu reformuler cela en quelques mots ?', <br>
'"'+document+' Comment pouvez-vous reformuler cela en quelques mots ?', <br>
'Résumer ce document : "'+document+'" Résumé :', <br>
'Résume ce document : "'+document+'" Résumé :', <br>
'Résumez ce document : "'+document+'" Résumé :', <br>
'"'+document+' Compte tenu du document ci-dessus, écrire une phrase pour le résumer :', <br>
'"'+document+' Compte tenu du document ci-dessus, écris une phrase pour le résumer :', <br>
'"'+document+' Compte tenu du document ci-dessus, écrivez une phrase pour le résumer :', <br>
'"'+document+' Rédiger un résumé du texte ci-dessus : ', <br>
'"'+document+' Rédige un résumé du texte ci-dessus : ', <br>
'"'+document+' Rédigez un résumé du texte ci-dessus : '
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Après une septième édition impressionnante, Danse avec les stars a confirmé son statut de programme incontournable dans le paysage audiovisuel français actuel. Avec des chorégraphies millimétrées, une production classieuse, des candidats survoltés et un jury de professionnels passionné, TF1 offre chaque semaine aux fidèles de l'émission une représentation exceptionnelle. Mais si la prochaine année du concours était celle du changement ? En effet, il se pourrait bien qu'un pilier du show ne rempile pas pour la saison 8...Un membre incontournableEt ce n'est autre que l'une des juges qui vient d'émettre des réserves pour noter les futures célébrités qui fouleront le dance-floor de DALS ! Marie-Claude Pietragalla a en effet révélé que son retour était probablement compromis, ce qui ne manque pas de décevoir ses fans. Bien qu'elle ne soit pas un élément historique de cette immense locomotive, elle répond néanmoins présente à l'appel depuis 2012, gratifiant les participants de ses conseils pointus et ses avis sensibles. Mais hélas, cette fois-ci, la danseuse contemporaine pourrait ne pas être en mesure de se libérer...Un planning trop chargéInterviewée par le journal Var Matin, dans le cadre de la promotion de son spectacle "Je t'ai rencontré par hasard" et pour évoquer ses ambitions, Pietra pour les intimes a expliqué avec sincérité : "Ecoutez, là je ne sais pas si je vais continuer parce que j'ai beaucoup de projets pour l'année prochaine." Ainsi, du fait d'un calendrier déjà très chargé, elle ne pourrait donc pas effectuer son come-back au côté de ses pétillants acolytes Fauve Hautot, Chris Marques et Jean-Marc Généreux... s'ils resignent. Seriez-vous triste de ce départ ou pensez-vous, au contraire, qu'un changement du jury (à l'instar de The Voice) permettrait à Danse avec les stars de se renouveler ? Comment reformuler cela en quelques mots ? | Alors que la saison 7 de Danse avec les stars vient à peine de s'achever par la victoire de Laurent Maistret, la prochaine édition du concours est déjà dans les tuyaux chez TF1. Cependant, un membre du jury exprime déjà ses doutes quant à son retour dans l'émission. |
## Datasets
### orange_sum
Note: we use the split `abstract`.
**Original**: https://huggingface.co/datasets/orange_sum
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
> @article{eddine2020barthez,
title={BARThez: a Skilled Pretrained French Sequence-to-Sequence Model},
author={Eddine, Moussa Kamal and Tixier, Antoine J-P and Vazirgiannis, Michalis},
journal={arXiv preprint arXiv:2010.12321},
year={2020}}
#### License
CC-BY-SA-4.0
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/orange_sum_fr_prompt_summarization
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `orange_sum_fr_prompt_summarization` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Text generation from an article</h1></summary>
The task consists in using a text base to generate a suite to this text.
## 24 prompts
<code>
'"'+document+'"\n Continuer le texte sur 1000 caractères maximum :', <br>
'"'+document+'"\n Continue le texte sur 1000 caractères maximum :', <br>
'"'+document+'"\n Continuez le texte sur 1000 caractères maximum :', <br>
'"'+document+'"\n Poursuivre le texte sur 1000 caractères maximum :', <br>
'"'+document+'"\n Poursuis le texte sur 1000 caractères maximum :', <br>
'"'+document+'"\n Poursuivez le texte sur 1000 caractères maximum :', <br>
'"'+document+'"\n Prolonger le texte sur 1000 caractères maximum :', <br>
'"'+document+'"\n Prolonge le texte sur 1000 caractères maximum :', <br>
'"'+document+'"\n Prolongez le texte sur 1000 caractères maximum :', <br>
'"'+document+'"\n Rédiger la suite du texte : ', <br>
'"'+document+'"\n Rédige la suite du texte : ', <br>
'"'+document+'"\n Rédigez la suite du texte : ', <br>
'"'+document+'"\n Imaginer la suite du texte : ', <br>
'"'+document+'"\n Imagine la suite du texte : ', <br>
'"'+document+'"\n Imaginez la suite du texte : ', <br>
'"'+document+'"\n Ecrire la suite du texte : ', <br>
'"'+document+'"\n Ecris la suite du texte : ', <br>
'"'+document+'"\n Ecriver la suite du texte : ', <br>
'"'+document+'"\n Développer la suite du texte : ', <br>
'"'+document+'"\n Développe la suite du texte : ', <br>
'"'+document+'"\n Développez la suite du texte : ', <br>
'"'+document+'"\nGénérer la suite du texte : ', <br>
'"'+document+'"\nGénère la suite du texte : ', <br>
'"'+document+'"\n Générez la suite du texte : ',
</code>
An example:
| inputs | targets |
| -------- | ------- |
| "Après une septième édition impressionnante, Danse avec les stars a confirmé son statut de programme incontournable dans le paysage audiovisuel français actuel. Avec des chorégraphies millimétrées, une production classieuse, des candidats survoltés et un jury de professionnels passionné, TF1 offre chaque semaine aux fidèles de l'émission une représentation exceptionnelle. Mais si la prochaine année du concours était celle du changement ? En effet, il se pourrait bien qu'un pilier du show ne rempile pas pour la saison 8...Un membre incontournableEt ce n'est autre que l'une des juges qui vient d'émettre des réserves pour noter les futures célébrités qui fouleront le dance-floor de DALS ! Marie-Claude Pietragalla a en effet révélé que son retour était probablement compromis, ce qui ne manque pas de décevoir ses fans. Bien qu'elle ne soit pas un élément historique de cette immense locomotive, elle répond néanmoins présente à l'appel depuis 2012, gratifiant les participants de ses conseils p" Continuer le texte sur 1000 caractères maximum : | ointus et ses avis sensibles. Mais hélas, cette fois-ci, la danseuse contemporaine pourrait ne pas être en mesure de se libérer...Un planning trop chargéInterviewée par le journal Var Matin, dans le cadre de la promotion de son spectacle "Je t'ai rencontré par hasard" et pour évoquer ses ambitions, Pietra pour les intimes a expliqué avec sincérité : "Ecoutez, là je ne sais pas si je vais continuer parce que j'ai beaucoup de projets pour l'année prochaine." Ainsi, du fait d'un calendrier déjà très chargé, elle ne pourrait donc pas effectuer son come-back au côté de ses pétillants acolytes Fauve Hautot, Chris Marques et Jean-Marc Généreux... s'ils resignent. Seriez-vous triste de ce départ ou pensez-vous, au contraire, qu'un changement du jury (à l'instar de The Voice) permettrait à Danse avec les stars de se renouveler ? |
## Datasets
### orange_sum
Note: we use the split `abstract`.
**Original**: https://huggingface.co/datasets/orange_sum
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/orange_sum_fr_prompt_text_generation_from_an_article
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `orange_sum_fr_prompt_text_generation_from_an_article` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Title generation from an article</h1></summary>
The aim is to generate a title for a given text.
## 19 prompts
<code>
'"'+document+'"\n Générer un titre pour cet article :', <br>
'"'+document+'"\n Génère un titre pour cet article :', <br>
'"'+document+'"\n Générez un titre pour cet article :', <br>
'"'+document+'"\n Rédiger un titre pour cet article :', <br>
'"'+document+'"\n Rédige un titre pour cet article :', <br>
'"'+document+'"\n Rédigez un titre pour cet article :', <br>
'"'+document+'"\n Ecrire un titre pour cet article :', <br>
'"'+document+'"\n Ecris un titre pour cet article :', <br>
'"'+document+'"\n Ecrivez un titre pour cet article :', <br>
"Générer un titre pour l'article suivant : "+document, <br>
"Génère un titre pour l'article suivant : "+document, <br>
"Générez un titre pour l'article suivant : "+document, <br>
"Rédiger un titre pour l'article suivant : "+document, <br>
"Rédige un titre pour l'article suivant : "+document, <br>
"Rédigez un titre pour l'article suivant : "+document, <br>
"Ecrire un titre pour l'article suivant : "+document, <br>
"Ecris un titre pour l'article suivant : "+document, <br>
"Ecrivez un titre pour l'article suivant : "+document,
'"'+document+'"\n Titre :\n '
</code>
An example:
| inputs | targets |
| -------- | ------- |
| "Samedi soir sur TF1 débutait la saison 6 de The Voice. Et dès le premier prime un candidat est sorti du lot : Vincent, 20 ans, presque aveugle et un talent fou au piano et au chant. Le jeune homme a rendu dingue le jury et le public avec son interprétation du tube d'Eminem, "Lose Yourself". Matt Pokora, Mika, Florent Pagny et Zazie, les quatre coachs conquis par sa prestation, l'ont rejoint sur scène. Vincent Vinel fera finalement partie de l'équipe de Mika. Celui-ci s'en est félicité : "C'était une belle expérience et un beau moment. Je suis très honoré de t'avoir dans mon équipe", a ainsi indiqué le chanteur. " Rédigez un titre pour cet article :| The Voice : un candidat malvoyant enflamme le jury |
## Datasets
### orange_sum
Note: we use the split `title`.
**Original**: https://huggingface.co/datasets/orange_sum
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/orange_sum_fr_prompt_title_generation_from_an_article
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `orange_sum_fr_prompt_title_generation_from_an_article` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Fill mask</h1></summary>
Masked language modeling is the task of masking some of the words in a sentence and predicting which words should replace those masks.
In our case, for a given text, we have hidden one word per sentence of the text.
## 24 prompts
'Remplacer le \<mask\> dans le texte suivant par le mot le plus vraisemblable : '+text,<br>
'Remplace le \<mask\> dans le texte suivant par le mot le plus vraisemblable : '+text, <br>
'Remplacez le \<mask\> dans le texte suivant par le mot le plus vraisemblable : '+text, <br>
'Remplacer le \<mask\> dans le texte suivant par le mot le plus probable : '+text, <br>
'Remplace le \<mask\> dans le texte suivant par le mot le plus probable : '+text, <br>
'Remplacez le \<mask\> dans le texte suivant par le mot le plus probable : '+text, <br>
'Substituer le \<mask\> dans le texte suivant par le mot le plus vraisemblable : '+text,<br>
'Substitue le \<mask\> dans le texte suivant par le mot le plus vraisemblable : '+text, <br>
'Substituez le \<mask\> dans le texte suivant par le mot le plus vraisemblable : '+text, <br>
'Substituer le \<mask\> dans le texte suivant par le mot le plus probable : '+text, <br>
'Substitue le \<mask\> dans le texte suivant par le mot le plus probable : '+text, <br>
'Substituez le \<mask\> dans le texte suivant par le mot le plus probable : '+text, <br>
'Changer le \<mask\> dans le texte suivant par le mot le plus vraisemblable : '+text, <br>
'Change le \<mask\> dans le texte suivant par le mot le plus vraisemblable : '+text, <br>
'Changez le \<mask\> dans le texte suivant par le mot le plus vraisemblable : '+text, <br>
'Changer le \<mask\> dans le texte suivant par le mot le plus probable : '+text, <br>
'Change le \<mask\> dans le texte suivant par le mot le plus probable : '+text, <br>
'Changez le \<mask\> dans le texte suivant par le mot le plus probable : '+text, <br>
'Transformer le \<mask\> dans le texte suivant par le mot le plus vraisemblable : '+text, <br>
'Transforme le \<mask\> dans le texte suivant par le mot le plus vraisemblable : '+text, <br>
'Transformez le \<mask\> dans le texte suivant par le mot le plus vraisemblable : '+text, <br>
'Transformer le \<mask\> dans le texte suivant par le mot le plus probable : '+text, <br>
'Transforme le \<mask\> dans le texte suivant par le mot le plus probable : '+text, <br>
'Transformez le \<mask\> dans le texte suivant par le mot le plus probable : '+text,
An example:
| inputs | targets |
| -------- | ------- |
| Remplace le \<mask\> dans le texte suivant par le mot le plus probable : Le préjudice \<mask\> estimé à 2 millions d'euros. | Le préjudice est estimé à 2 millions d'euros. |
## Datasets
### orange_sum
Note: we use the split `abstract`.
**Original**: https://huggingface.co/datasets/orange_sum
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/orange_sum_fr_prompt_fill_mask
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `orange_sum_fr_prompt_fill_mask` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Binary text generation from a title of a review</h1></summary>
The aim is to generate a text positive ou negative depending on the prompt selected by the user.
## 36 prompts
<code>
# negative<br>
'Rédiger un commentaire négatif dont le titre est : "'+title+'"".', <br>
'Rédige un commentaire négatif dont le titre est : "'+title+'"".', <br>
'Rédigez un commentaire négatif dont le titre est : "'+title+'"".', <br>
'Rédiger un avis négatif dont le titre est : "'+title+'"".',<br>
'Rédige un avis négatif dont le titre est : "'+title+'"".',<br>
'Rédigez un avis négatif dont le titre est : "'+title+'"".',<br>
'Rédiger une critique négative dont le titre est : "'+title+'"".',<br>
'Rédige une critique négative dont le titre est : "'+title+'"".',<br>
'Rédigez une critique négative dont le titre est : "'+title+'"".',<br>
'Rédiger une évaluation négative dont le titre est : "'+title+'"".',<br>
'Rédige une évaluation négative dont le titre est : "'+title+'"".',<br>
'Rédigez une évaluation négative dont le titre est : "'+title+'"".',<br>
"""Générer un commentaire négatif d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,<br>
"""Génère un commentaire négatif d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,<br>
"""Générez un commentaire négatif d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,<br>
"""Générer un avis négatif d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,<br>
"""Génère un avis négatif d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,<br>
"""Générez un avis négatif d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,<br>
"""Générer une critique négative d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,<br>
"""Génère une critique négative d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,<br>
"""Générez une critique négative d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,<br>
"""Générer une évaluation négative d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,<br>
"""Génère une évaluation négative d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,<br>
"""Générez une évaluation négative d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,<br>
'Titre : "'+title +'"\n Ecrire un commentaire négatif de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecris un commentaire négatif de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecrivez un commentaire négatif de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecrire un avis négatif de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecris un avis négatif de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecrivez un avis négatif de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecrire une critique négative de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecris une critique négative de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecrivez une critique négative de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecrire une évaluation négative de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecris une évaluation négative de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecrivez une évaluation négative de 1 à 5 phrases sur le titre précédent : ',<br>
# positive<br>
'Rédiger un commentaire positif dont le titre est : '+title+'.',<br>
'Rédige un commentaire positif dont le titre est : '+title+'.',<br>
'Rédigez un commentaire positif dont le titre est : '+title+'.',<br>
'Rédiger un avis positif dont le titre est : '+title+'.',<br>
'Rédige un avis positif dont le titre est : '+title+'.',<br>
'Rédigez un avis positif dont le titre est : '+title+'.',<br>
'Rédiger une critique positive dont le titre est : '+title+'.',<br>
'Rédige une critique positive dont le titre est : '+title+'.',<br>
'Rédigez une critique positive dont le titre est : '+title+'.',<br>
'Rédiger une évaluation positive dont le titre est : '+title+'.',<br>
'Rédige une évaluation positive dont le titre est : '+title+'.',<br>
'Rédigez une évaluation positive dont le titre est : '+title+'.',<br>
"""Générer un commentaire positif d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,<br>
"""Génère un commentaire positif d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,<br>
"""Générez un commentaire positif d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,<br>
"""Générer un avis positif d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,<br>
"""Génère un avis positif d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,<br>
"""Générez un avis positif d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,<br>
"""Générer une critique positive d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,<br>
"""Génère une critique positive d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,<br>
"""Générez une critique positive d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,<br>
"""Générer une évaluation positive d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,<br>
"""Génère une évaluation positive d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,<br>
"""Générez une évaluation positive d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,<br>
'Titre : "'+title +'"\n Ecrire un commentaire positif de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecris un commentaire positif de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecrivez un commentaire positif de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecrire un avis positif de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecris un avis positif de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecrivez un avis positif de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecrire une critique positive de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecris une critique positive de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecrivez une critique positive de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecrire une évaluation positive de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecris une évaluation positive de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\n Ecrivez une évaluation positive de 1 à 5 phrases sur le titre précédent : ',
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Rédiger un commentaire négatif dont le titre est : "A éviter!"".| Cet engin ne sert à rien les sons sont pourris les songs sont simplistes vous n'apprendrez jamais à jouer de la batterie avec une bouze pareille. En fait c'est juste un jouet destiné aux enfants et rien d'autre. Si vous voulez vraiment quelque chose de bien et d'utile passez votre chemin et gardez votre fric moi j'ai voulu essayer et j'ai été très mais alors très déçu. Résultat direction poubelle.|
## Datasets
### Abirate/french_book_reviews
**Original**: https://huggingface.co/datasets/Abirate/french_book_reviews
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/french_book_reviews_fr_prompt_binary_text_generation_from_title_of_a_review
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/french_book_reviews_fr_prompt_binary_text_generation_from_title_of_a_review` dataset has the same license as the original dataset from which it is derived.
</details>
### amazon_reviews_multi
**Original**: https://huggingface.co/datasets/amazon_reviews_multi
Note: only the French portion of this multilingual dataset is kept for our use.
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_binary_text_generation_from_title_of_a_review
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_binary_text_generation_from_title_of_a_review` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Text generation from a title of a review type</h1></summary>
Review generation from a title.
## 36 prompts
<code>
'Rédiger un commentaire dont le titre est : "'+title+'"',<br>
'Rédige un commentaire dont le titre est : "'+title+'"',<br>
'Rédigez un commentaire dont le titre est : "'+title+'"',<br>
'Rédiger un avis dont le titre est : "'+title+'"',<br>
'Rédige un avis dont le titre est : "'+title+'"',<br>
'Rédigez un avis dont le titre est : "'+title+'"',<br>
'Rédiger une critique dont le titre est : "'+title+'"',<br>
'Rédige une critique dont le titre est : "'+title+'"',<br>
'Rédigez une critique dont le titre est : "'+title+'"',<br>
'Rédiger une évaluation dont le titre est : "'+title+'"',<br>
'Rédige une évaluation dont le titre est : "'+title+'"',<br>
'Rédigez une évaluation dont le titre est : "'+title+'"',<br>
"""Générer un commentaire d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,<br>
"""Génère un commentaire d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,<br>
"""Générez un commentaire d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,<br>
"""Générer un avis d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,<br>
"""Génére un avis d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,<br>
"""Générez un avis d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,<br>
"""Générer une critique d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,<br>
"""Génère une critique d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,<br>
"""Générez une critique d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,<br>
"""Générer une évaluation d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,<br>
"""Génère une évaluation d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,<br>
"""Générez une évaluation d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,<br>
'Titre : "'+title +'"\nEcrire un commentaire de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\nEcris un commentaire de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\nEcrivez un commentaire de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\nEcrire un avis de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\nEcris un avis de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\nEcrivez un avis de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\nEcrire une critique de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\nEcris une critique de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\nEcrivez une critique de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\nEcrire une évaluation de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\nEcris une évaluation de 1 à 5 phrases sur le titre précédent : ',<br>
'Titre : "'+title +'"\nEcrivez une évaluation de 1 à 5 phrases sur le titre précédent : ',
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Rédiger un commentaire dont le titre est : "Brumisateur à pompe" | A déconseiller - Article n'a fonctionné qu'une fois - Je ne recommande pas du tout ce produit - Je l'ai jeté ...|
## Datasets
### amazon_reviews_multi
**Original**: https://huggingface.co/datasets/amazon_reviews_multi
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_text_generation_from_title_of_a_review
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_text_generation_from_title_of_a_review` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Text generation from a title of an article</h1></summary>
Article generation from a title.
## 27 prompts
<code>
'Rédiger un texte dont le titre est : "'+title+'".', <br>
'Rédige un texte dont le titre est : "'+title+'".',<br>
'Rédigez un texte dont le titre est : "'+title+'".',<br>
'Rédiger une article dont le titre est : "'+title+'".',<br>
'Rédige un article dont le titre est : "'+title+'".',<br>
'Rédigez un article dont le titre est : "'+title+'".',<br>
'Rédiger un document dont le titre est : "'+title+'".',<br>
'Rédige un document dont le titre est : "'+title+'".',<br>
'Rédigez un document dont le titre est : "'+title+'".',<br>
‘Génèrer un texte dont le titre est : "'+title+'".\nTexte : ',<br>
'Génère un texte dont le titre est : "'+title+'".\nTexte : ',<br>
‘Génèrez un texte dont le titre est : "'+title+'".\nTexte : ',<br>
‘Génèrer un article dont le titre est : "'+title+'".\nArticle : ',<br>
‘Génère un article dont le titre est : "'+title+'".\nArticle : ',<br>
‘Génèrez un article dont le titre est : "'+title+'".\nArticle : ',<br>
‘Génèrer un document dont le titre est : "'+title+'".\nDocument : ',<br>
'Génère un document dont le titre est : "'+title+'".\nDocument : ',<br>
‘Génèrez un document dont le titre est : "'+title+'".\nDocument : ',<br>
'"'+title +'"\n Ecrire un texte de 1 à 5 phrases sur le titre précédent : ',<br>
'"'+title +'"\n Ecris un texte de 1 à 5 phrases sur le titre précédent : ',<br>
'"'+title +'"\n Ecrivez un texte de 1 à 5 phrases sur le titre précédent : ',<br>
'"'+title +'"\n Ecrire un article de 1 à 5 phrases sur le titre précédent : ',<br>
'"'+title +'"\n Ecris un article de 1 à 5 phrases sur le titre précédent : ',<br>
'"'+title +'"\n Ecrivez un article de 1 à 5 phrases sur le titre précédent : ',<br>
'"'+title +'"\n Ecrire un document de 1 à 5 phrases sur le titre précédent : ',<br>
'"'+title +'"\n Ecris un document de 1 à 5 phrases sur le titre précédent : ',<br>
'"'+title +'"\n Ecrivez un document de 1 à 5 phrases sur le titre précédent : '
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Rédiger un texte dont le titre est : "The Voice : un candidat malvoyant enflamme le jury". | Samedi soir sur TF1 débutait la saison 6 de The Voice. Et dès le premier prime un candidat est sorti du lot : Vincent, 20 ans, presque aveugle et un talent fou au piano et au chant. Le jeune homme a rendu dingue le jury et le public avec son interprétation du tube d'Eminem, "Lose Yourself". Matt Pokora, Mika, Florent Pagny et Zazie, les quatre coachs conquis par sa prestation, l'ont rejoint sur scène. Vincent Vinel fera finalement partie de l'équipe de Mika. Celui-ci s'en est félicité : "C'était une belle expérience et un beau moment. Je suis très honoré de t'avoir dans mon équipe", a ainsi indiqué le chanteur. |
## Datasets
## Datasets
### orange_sum
Note: we use the split `abstract`.
**Original**: https://huggingface.co/datasets/orange_sum
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/orange_sum_fr_prompt_text_generation_from_title
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `orange_sum_fr_prompt_text_generation_from_title_of_an_article` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Title generation from a review</h1></summary>
The aim is to generate a title for a given text which is a review.
## 18 prompts
<code>
review+'\n Générer un titre pour cet avis : ', <br>
review+'\n Génère un titre pour cet avis : ', <br>
review+'\n Générez un titre pour cet avis : ', <br>
review+'\n Rédiger un titre pour cet avis : ', <br>
review+'\n Rédige un titre pour cet avis : ', <br>
review+'\n Rédigez un titre pour cet avis : ', <br>
review+'\n Ecrire un titre pour cet avis : ', <br>
review+'\n Ecris un titre pour cet avis : ', <br>
review+'\n Ecrivez un titre pour cet avis : ', <br>
"""Générer un titre pour l'avis suivant : """+review,<br>
"""Génère un titre pour l'avis suivant : """+review,<br>
"""Générez un titre pour l'avis suivant : """+review,<br>
"""Rédiger un titre pour l'avis suivant : """+review,<br>
"""Rédige un titre pour l'avis suivant : """+review,<br>
"""Rédigez un titre pour l'avis suivant : """+review,<br>
"""Ecrire un titre pour l'avis suivant : """+review,<br>
"""Ecris un titre pour l'avis suivant : """+review,<br>
"""Ecrivez un titre pour l'avis suivant : """+review,
review+'\n Titre :\n '
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Qualité très mauvaise. Après quelques semaines d'utilisation il était déjà cassé (sans l'avoir fait tomber) et il ne protège absolument pas le téléphone. Générez un titre pour cet avis : |Cassé après quelques semaines|
### amazon_reviews_multi
**Original**: https://huggingface.co/datasets/amazon_reviews_multi
Note: only the French portion of this multilingual dataset is kept for our use.
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_title_generation_from_a_review
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_title_generation_from_a_review` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Classes classfication</h1></summary>
Task of assigning a label/class to a given text.
## 21 prompts
<code>
'Le texte suivant parle-t-il de "'+classes+'" ?\n Texte : '+text,<br>
'Le texte suivant concerne-t-il "'+classes+'" ?\n Texte : '+text,<br>
'Le texte suivant évoque-t-il "'+classes+'" ?\n Texte : '+text,<br>
text+'\n Étant donné la liste de catégories suivante : "'+classes+'" à quelle catégorie appartient le texte ?',<br>
text+'\n Étant donné la liste de classes suivante : "'+classes+'" à quelle classe appartient le texte ?',<br>
'Étant donné une liste de catégories : "'+classes+'" à quelle catégorie appartient le texte suivant ?\n Texte : '+text,<br>
'Étant donné une liste de classes : "'+classes+'" à quelle classe appartient le texte suivant ?\n Texte : '+text,<br>
'Étant donné un choix de catégories : "'+classes+'", le texte fait référence à laquelle ?\n Texte : '+text,<br>
'Étant donné un choix de classe : "'+classes+'", le texte fait référence à laquelle ?\n Texte : '+text,<br>
'Choisir une catégorie pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Choisir une catégorie pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Choisir une catégorie pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,<br>
'Choisir une classe pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Choisir une classe pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Choisir une classe pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une catégorie pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une catégorie pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une catégorie pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une classe pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une classe pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une classe pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Le texte suivant parle-t-il de "appareils_de_soins_personnels, pc, beauté, pelouse_et_jardin, livres_numériques, sports, instruments, montre, autre, bijou, automobile, vêtement, jeux_vidéos, jeux, bagages, produits_animaux, électroniques, produit_bureau, pharmacie, appareil_photo, maison, meubles, livre, sans_fil, épicerie, fournitures_industrielles, cuisine, produit_bébé, chaussures, amélioration_de_la_maison" ? Texte : A éviter! Cet engin ne sert à rien les sons sont pourris les songs sont simplistes vous n'apprendrez jamais à jouer de la batterie avec une bouze pareille. En fait c'est juste un jouet destiné aux enfants et rien d'autre. Si vous voulez vraiment quelque chose de bien et d'utile passez votre chemin et gardez votre fric moi j'ai voulu essayer et j'ai été très mais alors très déçu. Résultat direction poubelle.|instruments|
## Datasets
### amazon_reviews_multi
**Original**: https://huggingface.co/datasets/amazon_reviews_multi
Note: only the French portion of this multilingual dataset is kept for our use.
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_classes_classification
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_classes_classification` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Stars classfication</h1></summary>
Task consisting in assigning a score between 1 and 5 to a review text.
## 22 prompts
<code>
"""Donner un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Donne un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Donnez un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Donner un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Donne un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Donnez un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Donner un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Donne un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Donnez un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Noter avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Note avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Notez avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Noter avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Note avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Notez avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Noter avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Note avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
"""Notez avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
review+'Pour ce texte, je donne la note de ',<br>
'Texte : '+review+'\n Étoiles :',<br>
'Texte : '+review+'\n Note (entre 1 et 5) :',<br>
'Commentaire : '+review+'\n Sur une échelle de 1 à 5, je donnerais une note de :'
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Donner un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : A déconseiller - Article n'a fonctionné qu'une fois - Je ne recommande pas du tout ce produit - Je l'ai jeté ...| 1 |
## Datasets
### Abirate/french_book_reviews
**Original**: https://huggingface.co/datasets/Abirate/french_book_reviews
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/french_book_reviews_fr_prompt_stars_classification
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/french_book_reviews_fr_prompt_stars_classification` dataset has the same license as the original dataset from which it is derived.
</details>
### amazon_reviews_multi
**Original**: https://huggingface.co/datasets/amazon_reviews_multi
Note: only the French portion of this multilingual dataset is kept for our use.
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_stars_classification
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_stars_classification` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Intent classfication</h1></summary>
Task consisting in assigning an intent to a text.
## 30 prompts
<code>
text+'\n Étant donné la liste de catégories suivante : "'+classes+'" à quelle catégorie appartient le texte ?',<br>
text+'\n Étant donné la liste de classes suivante : "'+classes+'" à quelle classe appartient le texte ?',<br>
'Étant donné une liste de catégories : "'+classes+'" à quelle catégorie appartient le texte suivant ?\n Texte : '+text,<br>
'Étant donné une liste de classes : "'+classes+'" à quelle classe appartient le texte suivant ?\n Texte : '+text,<br>
'Étant donné un choix de catégories : "'+classes+'", le texte fait référence à laquelle ?\n Texte : '+text,<br>
'Étant donné un choix de classe : "'+classes+'", le texte fait référence à laquelle ?\n Texte : '+text,<br>
'Choisir une catégorie pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Choisir une catégorie pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Choisir une catégorie pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,<br>
'Choisir une classe pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Choisir une classe pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Choisir une classe pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une catégorie pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une catégorie pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une catégorie pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une classe pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une classe pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une classe pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,<br>
'Parmi la liste de catégories suivantes : "'+classes+'",\n indiquer celle présente dans le texte : '+text,<br>
'Parmi la liste de classes suivantes : "'+classes+'",\n indiquer celle présente dans le texte : '+text,<br>
"""Parmi la liste d'intentions suivantes : " """+classes+""" ",\n indiquer celle présente dans le texte : """+text,<br>
text+"""\n Étant donné la liste d'intentions suivante : " """+classes+""" ", à quelle intention appartient le texte ?""",<br>
"""Étant donné une liste d'intentions : " """+classes+""" ", à quelle intention appartient le texte suivant ?\n Texte : """+text,<br>
"""Étant donné un choix d'intentions : " """+classes+""" ", le texte fait référence à laquelle ?""",<br>
'Choisir une intention pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Choisir une intention pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Choisir une intention pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une intention pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une intention pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
'Sélectionner une intention pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text
</code>
An example:
| inputs | targets |
| -------- | ------- |
| réveille-moi à neuf heures du matin le vendredi<br>Étant donné la liste de catégories suivante : "audio_volume_other, play_music, iot_hue_lighton, general_greet, calendar_set, audio_volume_down, social_query, audio_volume_mute, iot_wemo_on, iot_hue_lightup, audio_volume_up, iot_coffee, takeaway_query, qa_maths, play_game, cooking_query, iot_hue_lightdim, iot_wemo_off, music_settings, weather_query, news_query, alarm_remove, social_post, recommendation_events, transport_taxi, takeaway_order, music_query, calendar_query, lists_query, qa_currency, recommendation_movies, general_joke, recommendation_locations, email_querycontact, lists_remove, play_audiobook, email_addcontact, lists_createoradd, play_radio, qa_stock, alarm_query, email_sendemail, general_quirky, music_likeness, cooking_recipe, email_query, datetime_query, transport_traffic, play_podcasts, iot_hue_lightchange, calendar_remove, transport_query, transport_ticket, qa_factoid, iot_cleaning, alarm_set, datetime_convert, iot_hue_lightoff, qa_definition, music_dislikeness" à quelle catégorie appartient le texte ?|alarm_set|
## Datasets
### SetFit/amazon_massive_intent_fr-FR
**Original**: https://huggingface.co/datasets/SetFit/amazon_massive_intent_fr-FR
<details>
<summary>Citation and License</summary>
#### Citation
> @misc{fitzgerald2022massive,
title={MASSIVE: A 1M-Example Multilingual Natural Language Understanding Dataset with 51 Typologically-Diverse Languages},
author={Jack FitzGerald and Christopher Hench and Charith Peris and Scott Mackie and Kay Rottmann and Ana Sanchez and Aaron Nash and Liam Urbach and Vishesh Kakarala and Richa Singh and Swetha Ranganath and Laurie Crist and Misha Britan and Wouter Leeuwis and Gokhan Tur and Prem Natarajan},
year={2022},
eprint={2204.08582},
archivePrefix={arXiv},
primaryClass={cs.CL}}
#### License
Apache 2.0
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/amazon_massive_intent_fr_prompt_intent_classification
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/amazon_massive_intent_fr_prompt_intent_classification` dataset has the same license as the original dataset from which it is derived.
</details>
### mteb/mtop_domain
**Original**: https://huggingface.co/datasets/mteb/mtop_domain
Note: only the French portion of this multilingual dataset is kept for our use.
<details>
<summary>Citation and License</summary>
#### Citation
> @misc{li2021mtop,
title={MTOP: A Comprehensive Multilingual Task-Oriented Semantic Parsing Benchmark},
author={Haoran Li and Abhinav Arora and Shuohui Chen and Anchit Gupta and Sonal Gupta and Yashar Mehdad},
year={2021},
eprint={2008.09335},
archivePrefix={arXiv},
primaryClass={cs.CL}}
#### License
Unknown
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/mtop_domain_intent_fr_prompt_intent_classification
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/mtop_domain_intent_fr_prompt_intent_classification` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Named Entity Recognition</h1></summary>
Assigns a class to each word in a text. Possible classes here are People, Location, Organizations, and Other.
## 21 prompts
<code>
'Extraire les entités nommées du texte suivant : '+text,<br>
'Extrais les entités nommées du texte suivant : '+text,<br>
'Extrayez les entités nommées du texte suivant : '+text,<br>
'Isoler les entités nommées du texte suivant : '+text,<br>
'Isole les entités nommées du texte suivant : '+text,<br>
'Isolez les entités nommées du texte suivant : '+text,<br>
'Dégager des entités nommées dans le texte : '+text,<br>
'Dégage des entités nommées dans le texte : '+text,<br>
'Dégagez des entités nommées dans le texte : '+text,<br>
'Générer des entités nommées issues du texte suivant : '+text,<br>
'Génère des entités nommées issues du texte suivant : '+text,<br>
'Générez des entités nommées issues du texte suivant : '+text,<br>
'Trouver les entités nommées du texte : '+text,<br>
'Trouve les entités nommées du texte : '+text,<br>
'Trouvez les entités nommées du texte : '+text,<br>
'Repérer les entités nommées présentes dans le texte suivant : '+text,<br>
'Repère les entités nommées présentes dans le texte suivant : '+text,<br>
'Repérez les entités nommées présentes dans le texte suivant : '+text,<br>
'Indiquer les entités nommées du texte :'+text,<br>
'Indique les entités nommées du texte : '+text,<br>
'Indiquez les entités nommées du texte : '+text
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Trouver les entités nommées du texte : Après deux nuls ( Guingamp et Amiens ) et deux défaites ( Charleroi et Lokeren ) , les hommes Antoine Kombouaré se reprennent et remportent leurs deux dernières confrontations contre UNFP et Sedan .|O, O, O, O, B-ORG, O, B-ORG, O, O, O, O, O, B-ORG, O, B-ORG, O, O, O, O, B-PER, I-PER, O, O, O, O, O, O, O, O, O, B-ORG, O, B-ORG, O|
## Datasets
### tner/wikiann
**Original**: https://huggingface.co/datasets/tner/wikiann
Note: only the French portion of this multilingual dataset is kept for our use.
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
> @inproceedings{pan-etal-2017-cross,
title = "Cross-lingual Name Tagging and Linking for 282 Languages",
author = "Pan, Xiaoman and Zhang, Boliang and May, Jonathan and Nothman, Joel and Knight, Kevin and Ji, Heng",
booktitle = "Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
month = jul,
year = "2017",
address = "Vancouver, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/P17-1178",
doi = "10.18653/v1/P17-1178",
pages = "1946--1958",}
#### License
Unknow
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/wikiann_fr_prompt_ner
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/wikiann_fr_prompt_ner` dataset has the same license as the original dataset from which it is derived.
</details>
### tner/wikineural
**Original**: https://huggingface.co/datasets/tner/wikineural
Note: only the French portion of this multilingual dataset is kept for our use.
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
> @inproceedings{tedeschi-etal-2021-wikineural-combined,
title = "{W}iki{NE}u{R}al: {C}ombined Neural and Knowledge-based Silver Data Creation for Multilingual {NER}",
author = "Tedeschi, Simone and Maiorca, Valentino and Campolungo, Niccol{\`o} and Cecconi, Francesco and Navigli, Roberto",
booktitle = "Findings of the Association for Computational Linguistics: EMNLP 2021",
month = nov,
year = "2021",
address = "Punta Cana, Dominican Republic",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2021.findings-emnlp.215",
doi = "10.18653/v1/2021.findings-emnlp.215",
pages = "2521--2533",}
#### License
Unknow
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/wikineural_fr_prompt_ner
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/wikineural_fr_prompt_ner` dataset has the same license as the original dataset from which it is derived.
</details>
### tner/multinerd
**Original**: https://huggingface.co/datasets/tner/multinerd
Note: only the French portion of this multilingual dataset is kept for our use.
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
> @inproceedings{tedeschi-navigli-2022-multinerd,
title = "{M}ulti{NERD}: A Multilingual, Multi-Genre and Fine-Grained Dataset for Named Entity Recognition (and Disambiguation)",
author = "Tedeschi, Simone and Navigli, Roberto",
booktitle = "Findings of the Association for Computational Linguistics: NAACL 2022",
month = jul,
year = "2022",
address = "Seattle, United States",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2022.findings-naacl.60",
doi = "10.18653/v1/2022.findings-naacl.60",
pages = "801--812",}
#### License
Unknow
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/multinerd_fr_prompt_ner
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/multinerd_fr_prompt_ner` dataset has the same license as the original dataset from which it is derived.
</details>
### Jean-Baptiste/wikiner_fr
**Original**: https://huggingface.co/datasets/Jean-Baptiste/wikiner_fr
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
> @article{NOTHMAN2013151,
title = {Learning multilingual named entity recognition from Wikipedia},
journal = {Artificial Intelligence},
volume = {194},
pages = {151-175},
year = {2013},
note = {Artificial Intelligence, Wikipedia and Semi-Structured Resources},
issn = {0004-3702},
doi = {https://doi.org/10.1016/j.artint.2012.03.006},
url = {https://www.sciencedirect.com/science/article/pii/S0004370212000276},
author = {Joel Nothman and Nicky Ringland and Will Radford and Tara Murphy and James R. Curran},
}
#### License
Unknow
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/wikiner_fr_prompt_ner
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `https://huggingface.co/datasets/CATIE-AQ/wikiner_fr_prompt_ner` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Part-of-speech</h1></summary>
Assigns a class to each word in a text. Possible classes here are Adposition, Adjective, Adverb, Auxiliary, Coordinating conjunction, Determiner, Interjection, Noun, Numeral, Particle, Pronoun, Proper noun, Punctuation, Subordinating conjunction, Symbol, Verb and Other.
## 21 prompts
<code>
'Extraire les classes des mots du texte suivant : '+text, <br>
'Extrais les classes des mots du texte suivant : '+text, <br>
'Extrayez les classes des mots du texte suivant : '+text, <br>
'Isoler les classes des mots du texte suivant : '+text, <br>
'Isole les classes des mots du texte suivant : '+text, <br>
'Isolez les classes des mots du texte suivant : '+text, <br>
'Dégager les classes des mots dans le texte : '+text, <br>
'Dégage les classes des mots dans le texte : '+text, <br>
'Dégagez les classes des mots dans le texte : '+text, <br>
'Générer les classes des mots issues du texte suivant : '+text, <br>
'Génère les classes des mots issues du texte suivant : '+text, <br>
'Générez les classes des mots issues du texte suivant : '+text, <br>
'Trouver les classes des mots du texte : '+text, <br>
'Trouve les classes des mots du texte : '+text, <br>
'Trouvez les classes des mots du texte : '+text, <br>
'Repérer les classes des mots présentes dans le texte suivant : '+text, <br>
'Repère les classes des mots présentes dans le texte suivant : '+text, <br>
'Repérez les classes des mots présentes dans le texte suivant : '+text, <br>
'Indiquer les classes des mots du texte :'+text, <br>
'Indique les classes des mots du texte : '+text, <br>
'Indiquez les classes des mots du texte : '+text
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Extraire les classes des mots du texte suivant : Les commotions cérébrales sont devenu si courantes dans ce sport qu' on les considére presque comme la routine .| DET, NOUN, ADJ, AUX, VERB, ADV, ADJ, ADP, DET, NOUN, SCONJ, PRON, PRON, VERB, ADV, ADP, DET, NOUN, PUNCT|
#### Citation
### universal_dependencies
**Original**: https://huggingface.co/datasets/universal_dependencies
Note: only the French portion of this multilingual dataset is kept for our use. These are the `fr_fqb`, `fr_gsd`, `fr_partut`, `fr_pud`, `fr_sequoia` and `fr_spoken` splits.
The dataset is in native French.
<details>
<summary>Citation and License</summary>
#### Citation
> @inproceedings{nivre-etal-2020-universal,
title = "{U}niversal {D}ependencies v2: An Evergrowing Multilingual Treebank Collection",
author = "Nivre, Joakim and de Marneffe, Marie-Catherine and Ginter, Filip and Haji{\v{c}}, Jan and Manning, Christopher D. and Pyysalo, Sampo and Schuster, Sebastian and Tyers, Francis and Zeman, Daniel",
booktitle = "Proceedings of the Twelfth Language Resources and Evaluation Conference",
month = may,
year = "2020",
address = "Marseille, France",
publisher = "European Language Resources Association",
url = "https://aclanthology.org/2020.lrec-1.497",
pages = "4034--4043",
language = "English",
ISBN = "979-10-95546-34-4",}
#### License
The `fr_gsd`, `fr_partut` and `fr_spoken` splits are licensed under cc-by-nc-4.0.
The `fr_fqb`, `fr_sequoia` splits are licensed under lgpl.
The `fr_pud` split is licensed under cc-by-sa-3.0.
</details>
**With prompts**:
https://huggingface.co/datasets/CATIE-AQ/universal_dependencies_fr_fqb_fr_prompt_pos
https://huggingface.co/datasets/CATIE-AQ/universal_dependencies_fr_gsd_fr_prompt_pos
https://huggingface.co/datasets/CATIE-AQ/universal_dependencies_fr_partut_fr_prompt_pos
https://huggingface.co/datasets/CATIE-AQ/universal_dependencies_fr_pud_fr_prompt_pos
https://huggingface.co/datasets/CATIE-AQ/universal_dependencies_fr_sequoia_fr_prompt_pos
https://huggingface.co/datasets/CATIE-AQ/universal_dependencies_fr_spoken_fr_prompt_pos
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `universal_dependencies_fr_fqb_fr_prompt_pos`, `universal_dependencies_fr_gsd_fr_prompt_pos`, `universal_dependencies_fr_partut_fr_prompt_pos`, `universal_dependencies_fr_pud_fr_prompt_pos`, `universal_dependencies_fr_sequoia_fr_prompt_pos`, `universal_dependencies_fr_spoken_fr_prompt_pos` datasets have the same license as the original dataset from which they are derived.</details>
</details>
</details>
<details>
<summary><h1>Data-to-text</h1></summary>
Text generation from keywords.
## 30 prompts
<code>
'Assembler les concepts suivants pour former une phrase : "'+concepts+'".', <br>
'Assemble les concepts suivants pour former une phrase : "'+concepts+'".', <br>
'Assemblez les concepts suivants pour former une phrase : "'+concepts+'".', <br>
'Étant donné la liste des concepts : "'+concepts+'". Générer une phrase avec tous les concepts : ', <br>
'Étant donné la liste des concepts : "'+concepts+'". Génère une phrase avec tous les concepts : ', <br>
'Étant donné la liste des concepts : "'+concepts+'". Générez une phrase avec tous les concepts : ', <br>
'Convertir les concepts en une phrase : "'+concepts+'".', <br>
'Convertis les concepts en une phrase : "'+concepts+'".', <br>
'Convertissez les concepts en une phrase : "'+concepts+'".', <br>
'Combiner tous les concepts suivants dans un texte concis et grammaticalement correct "'+concepts+'". Texte : ', <br>
'Combine tous les concepts suivants dans un texte concis et grammaticalement correct "'+concepts+'". Texte : ', <br>
'Combinez tous les concepts suivants dans un texte concis et grammaticalement correct "'+concepts+'". Texte : ', <br>
'Générer une phrase à partir des informations fournies ci-contre : "'+concepts+'".', <br>
'Génère une phrase à partir des informations fournies ci-contre : "'+concepts+'".', <br>
'Générez une phrase à partir des informations fournies ci-contre : "'+concepts+'".', <br>
'Verbaliser les concepts suivants séparés par une virgule : "'+concepts+'".', <br>
'Verbalise les concepts suivants séparés par une virgule : "'+concepts+'".', <br>
'Verbalisez les concepts suivants séparés par une virgule : "'+concepts+'".', <br>
'Générer un texte intégrant les concepts suivants '+concepts+'". Texte :', <br>
'Génère un texte intégrant les concepts suivants '+concepts+'". Texte :', <br>
'Générez un texte intégrant les concepts suivants '+concepts+'". Texte :', <br>
'"'+concepts+'". Ecrire 1 à 5 phrases sur les concepts précédents.', <br>
'"'+concepts+'". Ecris 1 à 5 phrases sur les concepts précédents.', <br>
'"'+concepts+'". Ecrivez 1 à 5 phrases sur les concepts précédents.', <br>
'Rédiger un texte avec : "'+concepts+'".', <br>
'Rédige un texte avec : "'+concepts+'".', <br>
'Rédigez un texte avec : "'+concepts+'".', <br>
'Écrire un texte sur les concepts suivants : "'+concepts+'".', <br>
'Écris un texte sur les concepts suivants : "'+concepts+'".', <br>
'Écrivez un texte sur les concepts suivants : "'+concepts+'".',
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Assembler les concepts suivants pour former une phrase : "Mouillabilité, Caoutchouc, Ferromagnétique, Aimantation". | Contrôle magnétique de la mouillabilité Un film de caoutchouc comportant des grains ferromagnétiques durs (avec un axe d'aimantation privilégié) est préparé avec des régions en ruban, alternées en aimantation. Si un tel film, fixé sur un support solide, est soumis à un champ magnétique tangentiel H, il doit déformer la surface libre en crêtes et vallées, et devenir de ce fait plus mouillable. |
## Datasets
### taln-ls2n/termith-eval
**Original**: https://huggingface.co/datasets/taln-ls2n/termith-eval
<details>
<summary>Citation and License</summary>
#### Citation
>- (Boudin, 2013) Florian Boudin. 2013.
[TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]][boudin-2013].
In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.
>- (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.
[Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness][boudin-2021].
In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.
[boudin-2013]: https://aclanthology.org/F13-2001/
[boudin-2021]: https://aclanthology.org/2021.naacl-main.330/
#### License
cc-by-4.0
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/termith-eval_fr_prompt_data_to_text
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `termith-eval_fr_prompt_data_to_text` dataset has the same license as the original dataset from which it is derived.
</details>
### taln-ls2n/taln-archives
**Original**: https://huggingface.co/datasets/taln-ls2n/taln-archives
<details>
<summary>Citation and License</summary>
#### Citation
>- (Boudin, 2013) Florian Boudin. 2013.
[TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]][boudin-2013].
In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.
>- (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.
[Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness][boudin-2021].
In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.
[boudin-2013]: https://aclanthology.org/F13-2001/
[boudin-2021]: https://aclanthology.org/2021.naacl-main.330/
#### License
cc-by-4.0
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/taln-archives_fr_prompt_data_to_text
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `taln-archives_fr_prompt_data_to_text` dataset has the same license as the original dataset from which it is derived.
</details>
### taln-ls2n/wikinews-fr-100
**Original**: https://huggingface.co/datasets/taln-ls2n/wikinews-fr-100
<details>
<summary>Citation and License</summary>
#### Citation
>- (Boudin, 2013) Florian Boudin. 2013.
[TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]][boudin-2013].
In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.
>- (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.
[Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness][boudin-2021].
In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.
[boudin-2013]: https://aclanthology.org/F13-2001/
[boudin-2021]: https://aclanthology.org/2021.naacl-main.330/
#### License
cc-by-4.0
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/wikinews-fr-100_fr_prompt_data_to_text
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `wikinews-fr-100_fr_prompt_data_to_text` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
<details>
<summary><h1>Keywords extraction</h1></summary>
## 21 prompts
<code>
'Extraire les mots clés importants du texte suivant : '+text, <br>
'Extrais les mots clés importants du texte suivant : '+text, <br>
'Extrayez les mots clés importants du texte suivant : '+text, <br>
'Isoler les mots clés importants du texte suivant : '+text, <br>
'Isole les mots clés importants du texte suivant : '+text, <br>
'Isolez les mots clés importants du texte suivant : '+text, <br>
'Dégager des mots clés dans le texte : '+text, <br>
'Dégage des mots clés dans le texte : '+text, <br>
'Dégagez des mots clés dans le texte : '+text, <br>
'Générer des mots clés issus du texte suivant : '+text, <br>
'Génère des mots clés issus du texte suivant : '+text, <br>
'Générez des mots clés issus du texte suivant : '+text, <br>
'Trouver les mots clés du texte : '+text, <br>
'Trouve les mots clés du texte : '+text, <br>
'Trouvez les mots clés du texte : '+text, <br>
'Repérer les mots clés importants présents dans le texte suivant : '+text, <br>
'Repère les mots clés importants présents dans le texte suivant : '+text, <br>
'Repérez les mots clés importants présents dans le texte suivant : '+text, <br>
'Indiquer les mots clés du texte : '+text, <br>
'Indiquer les mots clés du texte : '+text, <br>
'Indiquer les mots clés du texte : '+text
</code>
An example:
| inputs | targets |
| -------- | ------- |
| Extraire les mots clés importants du texte suivant : Contrôle magnétique de la mouillabilité Un film de caoutchouc comportant des grains ferromagnétiques durs (avec un axe d'aimantation privilégié) est préparé avec des régions en ruban, alternées en aimantation. Si un tel film, fixé sur un support solide, est soumis à un champ magnétique tangentiel H, il doit déformer la surface libre en crêtes et vallées, et devenir de ce fait plus mouillable. | Mouillabilité, Caoutchouc, Ferromagnétique, Aimantation. |
## Datasets
### taln-ls2n/termith-eval
**Original**: https://huggingface.co/datasets/taln-ls2n/termith-eval
<details>
<summary>Citation and License</summary>
#### Citation
>- (Boudin, 2013) Florian Boudin. 2013.
[TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]][boudin-2013].
In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.
>- (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.
[Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness][boudin-2021].
In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.
[boudin-2013]: https://aclanthology.org/F13-2001/
[boudin-2021]: https://aclanthology.org/2021.naacl-main.330/
#### License
cc-by-4.0
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/termith-eval_fr_prompt_keywords_extraction
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `termith-eval_fr_prompt_keywords_extraction` dataset has the same license as the original dataset from which it is derived.
</details>
### taln-ls2n/taln-archives
**Original**: https://huggingface.co/datasets/taln-ls2n/taln-archives
<details>
<summary>Citation and License</summary>
#### Citation
>- (Boudin, 2013) Florian Boudin. 2013.
[TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]][boudin-2013].
In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.
>- (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.
[Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness][boudin-2021].
In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.
[boudin-2013]: https://aclanthology.org/F13-2001/
[boudin-2021]: https://aclanthology.org/2021.naacl-main.330/
#### License
cc-by-4.0
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/taln-archives_fr_prompt_keywords_extraction
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `taln-archives_fr_prompt_keywords_extraction` dataset has the same license as the original dataset from which it is derived.
</details>
### taln-ls2n/wikinews-fr-100
**Original**: https://huggingface.co/datasets/taln-ls2n/wikinews-fr-100
<details>
<summary>Citation and License</summary>
#### Citation
> - (Boudin, 2013) Florian Boudin. 2013.
[TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]][boudin-2013].
In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.
>- (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.
[Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness][boudin-2021].
In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.
[boudin-2013]: https://aclanthology.org/F13-2001/
[boudin-2021]: https://aclanthology.org/2021.naacl-main.330/
#### License
cc-by-4.0
</details>
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/wikinews-fr-100_fr_prompt_keywords_extraction
<details>
<summary>Citation and License</summary>
#### Citation
See the DOI at the end of this dataset card.
#### License
The `wikinews-fr-100_fr_prompt_keywords_extraction` dataset has the same license as the original dataset from which it is derived.
</details>
</details>
# Citation
> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023,
author = { {Centre Aquitain des Technologies de l'Information et Electroniques} },
title = { DFP (Revision 1d24c09) },
year = 2023,
url = { https://huggingface.co/datasets/CATIE-AQ/DFP },
doi = { 10.57967/hf/1200 },
publisher = { Hugging Face }
}
|
CATIE-AQ/DFP
|
[
"task_categories:text-classification",
"task_categories:token-classification",
"task_categories:question-answering",
"task_categories:zero-shot-classification",
"task_categories:summarization",
"task_categories:text-generation",
"task_categories:text2text-generation",
"task_categories:fill-mask",
"task_categories:sentence-similarity",
"annotations_creators:found",
"language_creators:found",
"multilinguality:monolingual",
"size_categories:100M<n<1B",
"language:fr",
"DFP",
"french prompts",
"arxiv:2211.01786",
"arxiv:2002.06071",
"arxiv:2204.08582",
"arxiv:2008.09335",
"doi:10.57967/hf/1200",
"region:us"
] |
2023-08-22T06:56:20+00:00
|
{"annotations_creators": ["found"], "language_creators": ["found"], "language": ["fr"], "multilinguality": ["monolingual"], "size_categories": ["100M<n<1B"], "task_categories": ["text-classification", "token-classification", "question-answering", "zero-shot-classification", "summarization", "text-generation", "text2text-generation", "fill-mask", "sentence-similarity"], "tags": ["DFP", "french prompts"]}
|
2023-10-17T14:39:12+00:00
|
[
"2211.01786",
"2002.06071",
"2204.08582",
"2008.09335"
] |
[
"fr"
] |
TAGS
#task_categories-text-classification #task_categories-token-classification #task_categories-question-answering #task_categories-zero-shot-classification #task_categories-summarization #task_categories-text-generation #task_categories-text2text-generation #task_categories-fill-mask #task_categories-sentence-similarity #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-100M<n<1B #language-French #DFP #french prompts #arxiv-2211.01786 #arxiv-2002.06071 #arxiv-2204.08582 #arxiv-2008.09335 #doi-10.57967/hf/1200 #region-us
|
Dataset Card for Dataset of French Prompts (DFP)
================================================
This dataset of prompts in French contains 113,129,978 rows but for licensing reasons we can only share 107,796,041 rows ('train': 102,720,891 samples, 'validation': 2,584,400 samples, 'test': 2,490,750 samples). It presents data for 30 different NLP tasks.
724 prompts were written, including requests in imperative, tutoiement and vouvoiement form in an attempt to have as much coverage as possible of the pre-training data used by the model that will use these data and which are unknown to us.
This dataset contains four columns:
* inputs (string)
* targets (string)
* dataset (string)
* task (string)
The 'inputs' and 'targets' columns follow the same format as the xP3 dataset by Muennighoff et al.
The 'dataset' column allows the user to filter the datasets he wants to keep for his work.
The 'task' column allows the user to filter the tasks he wants to keep for his work.
The dataset was created from 34 other datasets each with its own license. We invite you to consult them.
The 724 prompts are licensed under the 'cc-by-4.0' license, so you're free to apply them to your own datasets.
The dataset is the concatenation of 74 prompts datasets that you can find here.
The nomenclature adopted for these datasets is 'original dataset name' + '*fr\_prompt*' + 'task name'.
Below, you'll find for each of the 30 tasks, the list of prompts used for each, an example of a line, the list of original datasets to which the prompts were applied and the list of datasets with prompts then created, and for each their license.
Sentence similarity
===================
Sentence similarity is the task of determining how similar two texts are.
In our case, the target/output is a score between 0 (the two sentences are semantically distant) and 1 (the two sentences are semantically close).
18 prompts
----------
`'Déterminer le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"',
'Déterminez le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"',
'Détermine le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"',
'Indiquer le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"',
'Indiquez le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"',
'Indique le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"',
'Donner le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"',
'Donnez le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"',
'Donne le score de similarité entre les deux phrases suivantes. Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"',
'Déterminer le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ',
'Déterminez le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ',
'Détermine le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ',
'Indiquer le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ',
'Indiquez le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ',
'Indique le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ',
'Donner le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ',
'Donnez le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ',
'Donne le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ',`
An example:
Datasets
--------
### stsb\_multi\_mt
Original: URL
Citation and License
>
> @InProceedings{huggingface:dataset:stsb\_multi\_mt,
>
>
>
>
#### License
URL
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'stsb\_multi\_mt\_fr\_prompt\_sentence\_similarity' dataset has the same license as the original dataset from which it is derived.
Paraphrase detection
====================
Paraphrase detection consists in indicating whether two sentences have the same meaning or not.
In our case, the target/output is "Oui" or "Non".
22 prompts
----------
`'Puis-je remplacer la phrase "'+sentence1+'" par la phrase "'+sentence2+'" et que cela garde la même signification ?',
'Peut-on remplacer la phrase "'+sentence1+'" par la phrase "'+sentence2+'" et que cela garde la même signification ?',
'Les deux phrases suivantes signifient-elles la même chose ? \n "'+sentence1+'"\n "'+sentence2+'"',
'Je veux savoir si les deux phrases suivantes signifient la même chose. \n "'+sentence1+'"\n "'+sentence2+'"\n Le sont-elles ?',
'On veut savoir si les deux phrases suivantes signifient la même chose. \n "'+sentence1+'"\n "'+sentence2+'"\n Le sont-elles ?',
'Nous voulons savoir si les deux phrases suivantes signifient la même chose. \n "'+sentence1+'"\n "'+sentence2+'"\n Le sont-elles ?',
'La phrase "'+sentence1+'" paraphrase-t-elle (= signifie-t-elle la même chose que) cette phrase ? "'+sentence2+'"',
'Les deux phrases suivantes sont-elles équivalentes ou non équivalentes ? "'+ sentence1+'"\n"'+sentence2+'"',
'Déterminer si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : "'+sentence1+'\n Phrase 2 : "'+sentence2+'"',
'Déterminez si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : "'+sentence1+'\n Phrase 2 : "'+sentence2+'"',
'Détermine si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : "'+sentence1+'\n Phrase 2 : "'+sentence2+'"',
'"'+sentence1+'" Est-ce une paraphrase de la phrase suivante ? "'+sentence2+'"',
'"'+sentence1+'" Est-ce une paraphrase de la phrase suivante ? "'+sentence2+'" Oui ou Non ?',
'"'+sentence1+'" Question : "'+sentence2+'" est une paraphrase ou non ?',
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : La phrase 1 et la phrase 2 expriment-elles le même sens ?',
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : La phrase 1 et la phrase 2 expriment-elles le même sens ? Oui ou Non ?',
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : Peut-on réécrire la phrase 1 en phrase 2 ?' ,
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : Puis-je réécrire la phrase 1 en phrase 2 ?' ,
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : Peut-on réécrire la phrase 1 en phrase 2 ? Oui ou Non ?',
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : Puis-je réécrire la phrase 1 en phrase 2 ? Oui ou Non ?',
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : La phrase 1 paraphrase-t-elle la phrase 2 ?',
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : La phrase 1 paraphrase-t-elle la phrase 2 ? Oui ou Non ?'`
An example:
Datasets
--------
### paws-x
Original: URL
Citation and License
>
> @InProceedings{pawsx2019emnlp,
> title = {{PAWS-X: A Cross-lingual Adversarial Dataset for Paraphrase Identification}},
>
>
>
>
#### License
The dataset may be freely used for any purpose, although acknowledgement of Google LLC ("Google") as the data source would be appreciated. The dataset is provided "AS IS" without any warranty, express or implied. Google disclaims all liability for any damages, direct or indirect, resulting from the use of the dataset.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'paws-x\_fr\_prompt\_paraphrase\_detection' dataset has the same license as the original dataset from which it is derived.
Paraphrase generation
=====================
Paraphrase generation consists to generate a sentence semantically similar to a given sentence.
24 prompts
----------
`'Générer une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',
'Génère une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',
'Générez une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',
'Paraphraser la phrase suivante : "'+sentence1+'"',
'Paraphrase la phrase suivante : "'+sentence1+'"',
'Paraphrasez la phrase suivante : "'+sentence1+'"',
'Créer une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',
'Crée une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',
'Créez une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',
'Créer une paraphrase de la phrase suivante : "'+sentence1+'"',
'Crée une paraphrase de la phrase suivante : "'+sentence1+'"',
'Créez une paraphrase de la phrase suivante : "'+sentence1+'"',
'Ecrire une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',
'Ecris une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',
'Ecrivez une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',
'Ecrire une paraphrase de la phrase suivante : "'+sentence1+'"',
'Ecris une paraphrase de la phrase suivante : "'+sentence1+'"',
'Ecrivez une paraphrase de la phrase suivante : "'+sentence1+'"',
'Rédiger une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',
'Rédige une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',
'Rédigez une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',
'Rédiger une paraphrase de la phrase suivante : "'+sentence1+'"',
'Rédige une paraphrase de la phrase suivante : "'+sentence1+'"',
'Rédigez une paraphrase de la phrase suivante : "'+sentence1+'"'`
An example:
Datasets
--------
### paws-x
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'paws-x\_fr\_prompt\_paraphrase\_generation' dataset has the same license as the original dataset from which it is derived.
Textual entailment
==================
This task consists of indicating whether a hypothesis applied to a sentence is true, false or unsure.
In our case, the target/output is "vrai", "faux" or "incertain".
22 prompts
----------
`"""Prendre l'énoncé suivant comme vrai : " """+premise+""" "\n Alors l'énoncé suivant : " """+hypothesis+""" " est "vrai", "faux", ou "incertain" ?""",
"""Prends l'énoncé suivant comme vrai : " """+premise+""" "\n Alors l'énoncé suivant : " """+hypothesis+""" " est "vrai", "faux", ou "incertain" ?""",
"""Prenez l'énoncé suivant comme vrai : " """+premise+""" "\n Alors l'énoncé suivant : " """+hypothesis+""" " est "vrai", "faux", ou "incertain" ?""",
'"'+premise+'"\nQuestion : Cela implique-t-il que "'+hypothesis+'" ? "vrai", "faux", ou "incertain" ?',
'"'+premise+'"\nQuestion : "'+hypothesis+'" est "vrai", "faux", ou "peut-être" ?',
""" " """+premise+""" "\n D'après le passage précédent, est-il vrai que " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""",
""" " """+premise+""" "\nSur la base de ces informations, l'énoncé est-il : " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""",
""" " """+premise+""" "\nEn gardant à l'esprit le texte ci-dessus, considérez : " """+hypothesis+""" "\n Est-ce que c'est "vrai", "faux", ou "incertain" ?""",
""" " """+premise+""" "\nEn gardant à l'esprit le texte ci-dessus, considére : " """+hypothesis+""" "\n Est-ce que c'est "vrai", "faux", ou "peut-être" ?""",
""" " """+premise+""" "\nEn utilisant uniquement la description ci-dessus et ce que vous savez du monde, " """+hypothesis+""" " est-ce "vrai", "faux", ou "incertain" ?""",
""" " """+premise+""" "\nEn utilisant uniquement la description ci-dessus et ce que tu sais du monde, " """+hypothesis+""" " est-ce "vrai", "faux", ou "incertain" ?""",
"""Étant donné que " """+premise+""" ", s'ensuit-il que " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""",
"""Étant donné que " """+premise+""" ", est-il garanti que " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""",
'Étant donné '+premise+', doit-on supposer que '+hypothesis+' est "vrai", "faux", ou "incertain" ?',
'Étant donné '+premise+', dois-je supposer que '+hypothesis+' est "vrai", "faux", ou "incertain" ?',
'Sachant que '+premise+', doit-on supposer que '+hypothesis+' est "vrai", "faux", ou "incertain" ?',
'Sachant que '+premise+', dois-je supposer que '+hypothesis+' est "vrai", "faux", ou "incertain" ?',
'Étant donné que '+premise+', il doit donc être vrai que '+hypothesis+' ? "vrai", "faux", ou "incertain" ?',
"""Supposons que " """+premise+""" ", pouvons-nous déduire que " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""",
"""Supposons que " """+premise+""" ", puis-je déduire que " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""",
"""Supposons qu'il est vrai que " """+premise+""" ". Alors, est-ce que " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""",
"""Supposons qu'il soit vrai que " """+premise+""" ",\n Donc, " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?"""`
An example:
Datasets
--------
### xnli
Original: URL
Citation and License
>
> @InProceedings{conneau2018xnli,
>
>
>
>
#### License
The majority of the corpus sentences are released under the OANC’s license which allows all content to be freely used, modified, and shared under permissive terms. The data in the Fiction genre from Captain Blood are in the public domain in the United States (but may be licensed differently elsewhere).
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'xnli\_fr\_prompt\_textual\_entailment' dataset has the same license as the original dataset from which it is derived.
### MoritzLaurer/multilingual-NLI-26lang-2mil7
Original: URL
Citation and License
>
> @article{laurer\_less\_2022,
> title = {Less {Annotating}, {More} {Classifying} – {Addressing} the {Data} {Scarcity} {Issue} of {Supervised} {Machine} {Learning} with {Deep} {Transfer} {Learning} and {BERT} - {NLI}},
>
>
>
>
#### License
The 'fr\_anli' and 'fr\_wanli' splits are licensed under cc-by-nc-4.0.
With prompts:
URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'anli\_fr\_prompt\_textual\_entailment', 'fever\_fr\_prompt\_textual\_entailment', 'ling\_fr\_prompt\_textual\_entailment', 'mnli\_fr\_prompt\_textual\_entailment', 'wanli\_fr\_prompt\_textual\_entailment' datasets have the same license as the original dataset from which they are derived.
Textual simplification
======================
This task involves cutting a very long sentence into two smaller ones to simplify reading.
20 prompts
----------
`'Simplifier la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ',
'Simplifie la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ',
'Simplifiez la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ',
'Alléger la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ',
'Allège la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ',
'Allégez la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ',
'Clarifier la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ',
'Clarifie la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ',
'Clarifiez la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ',
'"'+source+'" La phrase ci-dessus est trop compliquée. Fournir une version simplifiée composée de plusieurs phrases : ',
'"'+source+'" La phrase ci-dessus est trop compliquée. Fournis une version simplifiée composée de plusieurs phrases : ',
'"'+source+'" La phrase ci-dessus est trop compliquée. Fournissez une version simplifiée composée de plusieurs phrases : ',
'"'+source+'" Cette phrase est difficile à comprendre. Une version plus simple avec une signification équivalente est la suivante : ',
'"'+source+'" Cette phrase est difficile à comprendre. Une version moins complexe avec une signification équivalente est la suivante : ',
'"'+source+'" Cette phrase est difficile à comprendre. Une version plus légère avec une signification équivalente est la suivante : ',
'"'+source+'" Cette phrase est difficile à comprendre. Une version épurée avec une signification équivalente est la suivante : ',
'"'+source+'" Cette phrase est lourde. Une version plus simple avec une signification équivalente est la suivante : ',
'"'+source+'" Cette phrase est lourde. Une version moins complexe avec une signification équivalente est la suivante : ',
'"'+source+'" Cette phrase est lourde. Une version plus légère avec une signification équivalente est la suivante : ',
'"'+source+'" Cette phrase est lourde. Une version épurée avec une signification équivalente est la suivante : '`
An example:
Datasets
--------
### GEM/BiSECT
Original: URL
Citation and License
>
> @inproceedings{bisect2021,
>
>
>
>
#### License
cc-by-nc-4.0
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'bisect\_fr\_prompt\_textual\_simplification' dataset has the same license as the original dataset from which it is derived.
Textual merging
===============
This task involves merging two short sentences into a single longer one.
21 prompts
----------
`'Fusionner les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version fusionnée : ',
'Fusionne les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version fusionnée : ',
'Fusionnez les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version fusionnée : ',
'Combiner les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version combinée : ',
'Combine les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version combinée : ',
'Combinez les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version combinée : ',
'Réunir les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version réunie : ',
'Réunis les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version réunie : ',
'Réunissez les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version réunie : ',
'"'+source+' Fournir une version synonyme en une phrase des deux phrases précédentes : ',
'"'+source+' Fournis une version synonyme en une phrase des deux phrases précédentes : ',
'"'+source+' Fournissez une version synonyme en une phrase des deux phrases précédentes : ',
'"'+source+' Ecrire une version synonyme en une phrase des deux phrases précédentes : ',
'"'+source+' Ecris une version synonyme en une phrase des deux phrases précédentes : ',
'"'+source+' Ecrivez une version synonyme en une phrase des deux phrases précédentes : ',
'"'+source+' Rédiger une version synonyme en une phrase des deux phrases précédentes : ',
'"'+source+' Rédige une version synonyme en une phrase des deux phrases précédentes : ',
'"'+source+' Rédigez une version synonyme en une phrase des deux phrases précédentes : ',
'"'+source+' Générer une version synonyme en une phrase des deux phrases précédentes : ',
'"'+source+' Génère une version synonyme en une phrase des deux phrases précédentes : ',
'"'+source+' Générez une version synonyme en une phrase des deux phrases précédentes : '`
An example:
Datasets
--------
### GEM/BiSECT
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'bisect\_fr\_prompt\_textual\_merging' dataset has the same license as the original dataset from which it is derived.
Coreference
===========
A Winograd schema is a pair of sentences that differ by only one or two words and contain an ambiguity that is resolved in opposite ways in both sentences, requiring the use of world knowledge and reasoning for its resolution.
10 prompts
----------
`'"'+sentence+'"\nRemplacer le "_" dans la phrase ci-dessus par la bonne option :\n- "'+option1+'"\n- "'+option2+'"',
'"'+sentence+'"\nRemplace le "_" dans la phrase ci-dessus par la bonne option :\n- "'+option1+'"\n- "'+option2+'"',
'"'+sentence+'"\nRemplacez le "_" dans la phrase ci-dessus par la bonne option :\n- "'+option1+'"\n- "'+option2+'"',
'"'+sentence+'" Dans la phrase précédente, "_" fait-il référence à "'+option1+'" ou "'+option2+'" ?',
'"'+sentence+'" À quoi le "_" dans la phrase ci-dessus fait-il référence ? "'+option1+'" ou "'+option2+'" ?',
'"'+sentence+'" Le "_" dans la phrase ci-dessous fait référence à "'+option1+'"\n- "'+option2+'" ?',
'Remplisser le "_" de la phrase suivante : "'+sentence+ '"\nChoix :\n- "'+option1+'"\n- "'+option2+'"\nRéponse :',
'Remplis le "_" de la phrase suivante : "'+sentence+ '"\nChoix :\n- "'+option1+'"\n- "'+option2+'"\nRéponse :',
'Remplissez le "_" de la phrase suivante : "'+sentence+ '"\nChoix :\n- "'+option1+'"\n- "'+option2+'"\nRéponse :',
'Dans la phrase ci-dessous, le "_" renvoie-t-il à "'+option1+'" ou "'+option2+'" ? : '+sentence,`
Datasets
--------
### Muennighoff/xwinograd
Original: URL
Citation and License
>
> @misc{muennighoff2022crosslingual,
> title={Crosslingual Generalization through Multitask Finetuning},
>
>
>
>
#### License
cc-by-nc-4.0
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
### demelin/wino\_x
Original: URL
Note: only the French portion of this multilingual dataset is kept for our use.
The French split was obtained via an automatic translation of the English split.
Citation and License
>
> @inproceedings{Emelin2021WinoXMW, title={Wino-X: Multilingual Winograd Schemas for Commonsense Reasoning and Coreference Resolution}, author={Denis Emelin and Rico Sennrich}, booktitle={EMNLP}, year={2021} }
>
>
>
#### License
MIT
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
Sentiment analysis
==================
The goal is to classify a text into one of two categories: positive or negative.
In our case, the target/output is "pos" (for positive) or "neg" (for negative).
28 prompts
----------
`'Commentaire : "'+review+'" Le commentaire est-il positif ou négatif ?',
"""Avis : " """+review+""" " L'avis est-il positif ou négatif ?""",
'Critique : "'+review+'" La critique est-elle positive ou négative ?',
"""Evaluation : " """+review+""" " L'évaluation est-elle positive ou négative ?""",
'Ce commentaire sur le produit est-il positif ou négatif ? \nCommentaire : "'+review+'"\nRéponse :',
'Cet avis sur le produit est-il positif ou négatif ? \nAvis : "'+review+'"\nRéponse :',
'Cette critique sur le produit est-elle positive ou négative ? \nCritique : "'+review+'"\nRéponse :',
'Cette évaluation sur le produit est-elle positive ou négative ? \nEvaluation : "'+review+'"\nRéponse :',
'Commentaire : "'+review+'"\n Ce commentaire sur le produit exprime-t-il un sentiment négatif ou positif ?',
'Avis : "'+review+'"\n Cet avis sur le produit exprime-t-il un sentiment négatif ou positif ?',
'Critique : "'+review+'"\n Cette critique sur le produit exprime-t-il un sentiment négatif ou positif ?',
'Evaluation : "'+review+'"\n Cette évaluation sur le produit exprime-t-il un sentiment négatif ou positif ?',
'Ce commentaire sur le produit a-t-il un ton négatif ou positif ? \n Commentaire : "'+review+'"\n Réponse :',
'Cet avis sur le produit a-t-il un ton négatif ou positif ? \n Avis : "'+review+'"\n Réponse :',
'Cette critique sur le produit a-t-il un ton négatif ou positif ? \n Evaluation : "'+review+'"\n Réponse :',
'Cette évaluation sur le produit a-t-il un ton négatif ou positif ? \n Avis : "'+review+'"\n Réponse :',
"""Voici un commentaire laissé par un client sur un produit. Diriez-vous qu'il est négatif ou positif ? \nCommentaire : """+review,
"""Voici un avis laissé par un client sur un produit. Diriez-vous qu'il est négatif ou positif ? \nAvis : """+review,
"""Voici une critique laissée par un client sur un produit. Diriez-vous qu'elle est négative ou positive ? \nCritique : """+review,
"""Voici une évaluation laissée par un client sur un produit. Diriez-vous qu'elle est négative ou positive ? \nEvaluation : """+review,
'Commentaire du produit : "'+review+'" Ce commentaire dépeint le produit sous un angle négatif ou positif ?',
'Avis du produit : "'+review+'" Cet avis dépeint le produit sous un angle négatif ou positif ?',
'Critique du produit : "'+review+'" Cette critique dépeint le produit sous un angle négatif ou positif ?',
'Evaluation du produit : "'+review+'" Cette évaluation dépeint le produit sous un angle négatif ou positif ?',
'Le commentaire suivant exprime quel sentiment ?\n Commentaire' +review,
"""L'avis suivant exprime quel sentiment ?\n Avis""" +review,
'La critique suivante exprime quel sentiment ?\n Critique' +review,
"""L'évaluation suivante exprime quel sentiment ?\n Evaluation""" +review`
An example:
Datasets
--------
### Abirate/french\_book\_reviews
Original: URL
Citation and License
>
> @misc {abir\_eltaief\_2023,
>
>
>
>
#### License
CC0: Public Domain
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
### allocine
Original: URL
Citation and License
>
> Théophile Blard, French sentiment analysis with BERT, (2020), GitHub repository, URL
>
>
>
#### License
MIT
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
### amazon\_reviews\_multi
Original: URL
Citation and License
>
> @inproceedings{marc\_reviews,
>
>
>
>
#### License
URL
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
Question Answering
==================
In the (extractive) Question Answering task, the model answers a question based on an associated contextual text.
Note that here we handle cases where the answer is indeed in the text provided, but also the case where the answer may not be present in the text.
42 prompts
----------
`# SQUAD 1.0 format
'Question : "'+question+'"\nContexte : "'+context+'" Réponse :',
'La réponse à la question "'+question+'" se trouve dans "'+context+'" Pouvez-vous me la dire ?',
'La réponse à la question "'+question+'" se trouve dans "'+context+'" Peux-tu me la dire ?',
'Extraire la réponse à la question à partir du contexte suivant.\n Question : "'+question+'" Contexte : "'+context+'"',
'Extrais la réponse à la question à partir du contexte suivant.\n Question : "'+question+'" Contexte : "'+context+'"',
'Extrayez la réponse à la question à partir du contexte suivant.\n Question : "'+question+'" Contexte : "'+context+'"',
'Étant donné le passage suivant : "'+context+'"\n Répondre à la question suivante sachant que la réponse est présente dans le texte.\n Question : "'+question+'"',
'Étant donné le passage suivant : "'+context+'"\n Réponds à la question suivante sachant que la réponse est présente dans le texte.\n Question : "'+question+'"',
'Étant donné le passage suivant : "'+context+'"\n Répondez à la question suivante sachant que la réponse est présente dans le texte.\n Question : "'+question+'"',
"""La réponse à la question : " """+question+""" " se trouve dans le texte : " """+context+""" "\n Peux-tu l'indiquer ?""",
"""La réponse à la question : " """+question+""" " se trouve dans le texte : " """+context+""" "\n Pouvez-vous l'indiquer ?""",
"""La réponse à la question : " """+question+""" " se trouve dans le texte : " """+context+""" "\n Qu'elle est-elle ?""",
# SQUAD 2.0 format
'"'+question+'"\n Répondre à la question ci-dessus en se basant sur le contexte suivant : "'+context+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'"'+question+'"\n Réponds à la question ci-dessus en te basant sur le contexte suivant : "'+context+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".',
'"'+question+'"\n Répondez à la question ci-dessus en vous basant sur le contexte suivant : "'+context+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'Utiliser le texte suivant pour répondre à la question : '+question+ '\n\n "'+context+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'Utilise le texte suivant pour répondre à la question : '+question+ '\n\n "'+context+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".',
'Utilisez le texte suivant pour répondre à la question : '+question+ '\n\n "'+context+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'Lire le texte suivant et extraire la réponse à la question : "'+question+'"\n\n "'+context+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'Lis le texte suivant et extrais la réponse à la question : "'+question+'"\n\n "'+context+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".',
'Lisez le texte suivant et extrayez la réponse à la question : "'+question+'"\n\n "'+context+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'"'+context+'"\n\nSur la base du texte ci-dessus, répondre correctement à la question suivante : \n\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'"'+context+'"\n\nSur la base du texte ci-dessus, réponds correctement à la question suivante : \n\n "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".',
'"'+context+'"\n\nSur la base du texte ci-dessus, répondez répondre correctement à la question suivante : \n\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'Contexte : '+ context +'\n Compte tenu du texte ci-dessus, répondre correctement à la question suivante : "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'Contexte : '+ context +'\n Compte tenu du texte ci-dessus, réponds correctement à la question suivante : "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".',
'Contexte : '+ context +'\n Compte tenu du texte ci-dessus, répondez correctement à la question suivante : "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'"'+context+'"\n Extraire du passage la réponse à la question suivante : "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'"'+context+'"\n Extrais du passage la réponse à la question suivante : "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".',
'"'+context+'"\n Extrayez du passage la réponse à la question suivante : "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'Compte tenu du passage suivant, répondre à la question qui suit : "'+context+'"\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'Compte tenu du passage suivant, réponds à la question qui suit : "'+context+'"\n "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".',
'Compte tenu du passage suivant, répondez à la question qui suit : "'+context+'"\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'Après avoir lu le paragraphe, répondre à la question suivante : "'+context+'"\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'Après avoir lu le paragraphe, réponds à la question suivante : "'+context+'"\n "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".',
'Après avoir lu le paragraphe, répondez à la question suivante : "'+context+'"\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'Se référer au passage ci-dessous et répondre à la question suivante:\n Passage : "'+context+'"Question : "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'Référe-toi au passage ci-dessous et réponds à la question suivante:\n Passage : "'+context+'"Question : "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".',
'Référez-vous au passage ci-dessous et répondez à la question suivante:\n Passage : "'+context+'"Question : "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'Lire le passage suivant et répondez à la question qui suit : \n "'+context+'"\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
'Lis le passage suivant et répondez à la question qui suit : \n "'+context+'"\n "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".',
'Lisez le passage suivant et répondez à la question qui suit : \n "'+context+'"\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',`
An example:
Datasets
--------
### pragnakalp/squad\_v2\_french\_translated
Original: URL
Citation and License
>
> Hugging Face repository: URL
>
>
>
#### License
apache-2.0
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'squad\_v2\_french\_translated\_fr\_prompt\_qa' dataset has the same license as the original dataset from which it is derived.
### fquad
Original: URL
Citation and License
>
> @ARTICLE{2020arXiv200206071
>
>
>
>
#### License
CC BY-NC-SA 3.0
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'fquad\_fr\_prompt\_qa' dataset has the same license as the original dataset from which it is derived.
### etalab-ia/piaf
Original: URL
Citation and License
>
> @InProceedings{keraron-EtAl:2020:LREC,
>
>
>
>
#### License
MIT
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'piaf\_fr\_prompt\_qa' dataset has the same license as the original dataset from which it is derived.
### lincoln/newsquadfr
Original: URL
Citation and License
>
> Hugging Face repository: URL
>
>
>
#### License
CC BY-NC-SA 4.0
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'newsquadfr\_fr\_prompt\_qa' dataset has the same license as the original dataset from which it is derived.
Context generation with answer and question
===========================================
Text generation task where we use the answer and the question in a QA dataset to generate a context.
24 prompts
----------
`'Étant donné la réponse "'+ answer+'" à la question "'+question+'", écrire un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", écris un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", écrivez un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", rédiger un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", rédige un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", rédigez un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", générer un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", génère un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", générez un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", créer un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", crée un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'" à la question "'+question+'", créez un texte explicatif.\nTexte : ',
'Ecrire un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ',
'Ecris un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ',
'Ecrivez un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ',
'Rédiger un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ',
'Rédige un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ',
'Rédigez un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ',
'Générer un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ',
'Génère un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ',
'Générez un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ',
'Créer un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ',
'Crée un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : ',
'Créez un texte comme contexte de la réponse "'+ answer+'" à la question "'+question+'" \nTexte : '`
An example:
Datasets
--------
### pragnakalp/squad\_v2\_french\_translated
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'squad\_v2\_french\_translated\_fr\_prompt\_context\_generation\_with\_answer\_and\_question' dataset has the same license as the original dataset from which it is derived.
### fquad
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'fquad\_fr\_prompt\_context\_generation\_with\_answer\_and\_question' dataset has the same license as the original dataset from which it is derived.
### etalab-ia/piaf
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'piaf\_fr\_prompt\_context\_generation\_with\_answer\_and\_question' dataset has the same license as the original dataset from which it is derived.
### lincoln/newsquadfr
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'newsquadfr\_fr\_prompt\_context\_generation\_with\_answer\_and\_question' dataset has the same license as the original dataset from which it is derived.
Question generation with answer and context
===========================================
Text generation task where we use the answer and the context in a QA dataset to generate a question.
21 prompts
----------
`'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question aurais-tu pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question auriez-vous pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question peut être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question peux-tu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Quelle question pouvez-vous poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
'Sachant la réponse suivante : "'+answer+'"\n Générer une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Génère une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Générez une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouves une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Trouvez une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Créer une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Crée trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Créez trouver une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecrire une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecris une bonne question pour le texte suivant : "'+context+'"',
'Sachant la réponse suivante : "'+answer+'"\n Ecrivez une bonne question pour le texte suivant : "'+context+'"`
An example:
Datasets
--------
### pragnakalp/squad\_v2\_french\_translated
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'squad\_v2\_french\_translated\_fr\_prompt\_question\_generation\_with\_answer\_and\_context' dataset has the same license as the original dataset from which it is derived.
### fquad
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'fquad\_fr\_prompt\_question\_generation\_with\_answer\_and\_context' dataset has the same license as the original dataset from which it is derived.
### etalab-ia/piaf
Original: URL
The dataset is in native French.
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'piaf\_fr\_prompt\_question\_generation\_with\_answer\_and\_context' dataset has the same license as the original dataset from which it is derived.
### lincoln/newsquadfr
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'newsquadfr\_fr\_prompt\_question\_generation\_with\_answer\_and\_context' dataset has the same license as the original dataset from which it is derived.
Question generation with answer
===============================
Text generation task where we use the answer in a QA dataset to generate a question.
22 prompts
----------
`'Quelle question donnerait la réponse suivante ? Réponse : "'+answer+'";\nQuestion :',
'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante . \n Réponse : "'+answer+'";\n Question :',
'Quelle question aurait pu être posée pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Quelle question aurais-tu pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Quelle question auriez-vous pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Quelle question aurait pu être posée pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Quelle question aurais-tu pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Quelle question auriez-vous pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Sachant la réponse suivante : "'+answer+'"\n Générer une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Génère une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Générez une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Trouver une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Trouves une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Trouvez une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Créer une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Crée trouver une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Créez trouver une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Ecrire une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Ecris une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Ecrivez une bonne question`
An example:
Datasets
--------
### pragnakalp/squad\_v2\_french\_translated
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'squad\_v2\_french\_translated\_fr\_prompt\_question\_generation\_with\_answer' dataset has the same license as the original dataset from which it is derived.
### fquad
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'fquad\_fr\_prompt\_question\_generation\_with\_answer' dataset has the same license as the original dataset from which it is derived.
### etalab-ia/piaf
Original: URL
The dataset is in native French.
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'piaf\_fr\_prompt\_question\_generation\_with\_answer' dataset has the same license as the original dataset from which it is derived.
### lincoln/newsquadfr
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'newsquadfr\_fr\_prompt\_question\_generation\_with\_answer' dataset has the same license as the original dataset from which it is derived.
Question generation with context
================================
Text generation task where we use the context in a QA dataset to generate a question.
24 prompts
----------
`'"'+context+'"\n Générer une question à partir du texte ci-dessus : ',
'"'+context+'"\n Génère une question à partir du texte ci-dessus : ',
'"'+context+'"\n Générez une question à partir du texte ci-dessus : ',
'"'+context+'"\n Trouver une question à partir du texte ci-dessus : ',
'"'+context+'"\n Trouve une question à partir du texte ci-dessus : ',
'"'+context+'"\n Trouvez une question à partir du texte ci-dessus : ',
'"'+context+'"\n Créer une bonne question à partir du texte ci-dessus : ',
'"'+context+'"\n Crée trouver une bonne question à partir du texte ci-dessus : ',
'"'+context+'"\n Créez trouver une bonne question à partir du texte ci-dessus : ',
'"'+context+'"\n Ecrire une bonne question à partir du texte ci-dessus : ',
'"'+context+'"\n Ecris une bonne question à partir du texte ci-dessus : ',
'"'+context+'"\n Ecrivez une bonne question à partir du texte ci-dessus : ',
'Générer une bonne question pour le texte suivant : "'+context+'"',
'Génère une bonne question pour le texte suivant : "'+context+'"',
'Générez une bonne question pour le texte suivant : "'+context+'"',
'Trouver une bonne question pour le texte suivant : "'+context+'"',
'Trouve une bonne question pour le texte suivant : "'+context+'"',
'Trouvez trouver une bonne question pour le texte suivant : "'+context+'"',
'Créer une bonne question pour le texte suivant : "'+context+'"',
'Crée trouver une bonne question pour le texte suivant : "'+context+'"',
'Créez trouver une bonne question pour le texte suivant : "'+context+'"',
'Ecrire une bonne question pour le texte suivant : "'+context+'"',
'Ecris une bonne question pour le texte suivant : "'+context+'"',
'Ecrivez une bonne question pour le texte suivant : "'+context+'"'`
An example:
Datasets
--------
### pragnakalp/squad\_v2\_french\_translated
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'squad\_v2\_french\_translated\_fr\_prompt\_question\_generation\_with\_context' dataset has the same license as the original dataset from which it is derived.
### fquad
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'fquad\_fr\_prompt\_question\_generation\_with\_context' dataset has the same license as the original dataset from which it is derived.
### etalab-ia/piaf
Original: URL
The dataset is in native French.
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'piaf\_fr\_prompt\_question\_generation\_with\_context' dataset has the same license as the original dataset from which it is derived.
### lincoln/newsquadfr
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'newsquadfr\_fr\_prompt\_question\_generation\_with\_context' dataset has the same license as the original dataset from which it is derived.
Context generation with question
================================
Text generation task where we use the question in a QA dataset to generate a context.
24 prompts
----------
`'Étant donné la question "'+question+'", écrire un texte explicatif.\nTexte : ',
'Étant donné la question "'+question+'", écris un texte explicatif.\nTexte : ',
'Étant donné la question "'+question+'", écrivez un texte explicatif.\nTexte : ',
'Étant donné la question "'+question+'", rédiger un texte explicatif.\nTexte : ',
'Étant donné la question "'+question+'", rédige un texte explicatif.\nTexte : ',
'Étant donné la question "'+question+'", rédigez un texte explicatif.\nTexte : ',
'Étant donné la question "'+question+'", générer un texte explicatif.\nTexte : ',
'Étant donné la question "'+question+'", génère un texte explicatif.\nTexte : ',
'Étant donné la question "'+question+'", générez un texte explicatif.\nTexte : ',
'Étant donné la question "'+question+'", créer un texte explicatif.\nTexte : ',
'Étant donné la question "'+question+'", crée un texte explicatif.\nTexte : ',
'Étant donné la question "'+question+'", créez un texte explicatif.\nTexte : ',
'Ecrire un texte comme contexte à la question "'+question+'" \nTexte : ',
'Ecris un texte comme contexte à la question "'+question+'" \nTexte : ',
'Ecrivez un texte comme contexte à la question "'+question+'" \nTexte : ',
'Rédiger un texte comme contexte à la question "'+question+'" \nTexte : ',
'Rédige un texte comme contexte à la question "'+question+'" \nTexte : ',
'Rédigez un texte comme contexte à la question "'+question+'" \nTexte : ',
'Générer un texte comme contexte à la question "'+question+'" \nTexte : ',
'Génère un texte comme contexte à la question "'+question+'" \nTexte : ',
'Générez un texte comme contexte à la question "'+question+'" \nTexte : ',
'Créer un texte comme contexte à la question "'+question+'" \nTexte : ',
'Crée un texte comme contexte à la question "'+question+'" \nTexte : ',
'Créez un texte comme contexte à la question "'+question+'" \nTexte : '`
An example:
Datasets
--------
### pragnakalp/squad\_v2\_french\_translated
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'squad\_v2\_french\_translated\_fr\_prompt\_context\_generation\_with\_question' dataset has the same license as the original dataset from which it is derived.
### fquad
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'fquad\_fr\_prompt\_context\_generation\_with\_question' dataset has the same license as the original dataset from which it is derived.
### etalab-ia/piaf
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'piaf\_fr\_prompt\_context\_generation\_with\_question' dataset has the same license as the original dataset from which it is derived.
### lincoln/newsquadfr
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'newsquadfr\_fr\_prompt\_context\_generation\_with\_question' dataset has the same license as the original dataset from which it is derived.
Context generation with answer
==============================
Text generation task where we use the answer in a QA dataset to generate a context.
24 prompts
----------
`'Étant donné la réponse "'+ answer+'", écrire un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'", écris un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'", écrivez un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'", rédiger un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'", rédige un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'", rédigez un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'", générer un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'", génère un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'", générez un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'", créer un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'", crée un texte explicatif.\nTexte : ',
'Étant donné la réponse "'+ answer+'", créez un texte explicatif.\nTexte : ',
'Ecrire un texte comme contexte de la réponse "'+ answer+'" \nTexte : ',
'Ecris un texte comme contexte de la réponse "'+ answer+'" \nTexte : ',
'Ecrivez un texte comme contexte de la réponse "'+ answer+'" \nTexte : ',
'Rédiger un texte comme contexte de la réponse "'+ answer+'" \nTexte : ',
'Rédige un texte comme contexte de la réponse "'+ answer+'" \nTexte : ',
'Rédigez un texte comme contexte de la réponse "'+ answer+'" \nTexte : ',
'Générer un texte comme contexte de la réponse "'+ answer+'" \nTexte : ',
'Génère un texte comme contexte de la réponse "'+ answer+'" \nTexte : ',
'Générez un texte comme contexte de la réponse "'+ answer+'" \nTexte : ',
'Créer un texte comme contexte de la réponse "'+ answer+'" \nTexte : ',
'Crée un texte comme contexte de la réponse "'+ answer+'" \nTexte : ',
'Créez un texte comme contexte de la réponse "'+ answer+'" \nTexte : ',`
An example:
Datasets
--------
### pragnakalp/squad\_v2\_french\_translated
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'squad\_v2\_french\_translated\_fr\_prompt\_context\_generation\_with\_answer' dataset has the same license as the original dataset from which it is derived.
### fquad
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'fquad\_fr\_prompt\_context\_generation\_with\_answer' dataset has the same license as the original dataset from which it is derived.
### etalab-ia/piaf
Original: URL
The dataset is in native French.
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'piaf\_fr\_prompt\_context\_generation\_with\_answer' dataset has the same license as the original dataset from which it is derived.
### lincoln/newsquadfr
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'newsquadfr\_fr\_prompt\_context\_generation\_with\_answer' dataset has the same license as the original dataset from which it is derived.
Summarization
=============
Summarization is the task of producing a shorter version of a document while preserving its important information.
28 prompts
----------
`'Résumer le texte suivant : "'+document+'"',
'Résume le texte suivant : "'+document+'"',
'Résumez le texte suivant : "'+document+'"',
'Résumer le texte suivant en quelques mots : "'+document+'"',
'Résume le texte suivant en quelques mots : "'+document+'"',
'Résumez le texte suivant en quelques mots : "'+document+'"',
"Condenser le texte à l'essentiel :" +document,
"Condense le texte à l'essentiel :" +document,
"Condensez le texte à l'essentiel :" +document,
'"'+document+' Rédiger un résumé du texte ci-dessus :',
'"'+document+' Rédige un résumé du texte ci-dessus :',
'"'+document+' Rédigez un résumé du texte ci-dessus :',
'Premièrement, lire le texte ci-dessous. \n\n "'+document+'"\n\n Maintenant, rédiger un court résumé.',
'Premièrement, lis le texte ci-dessous. \n\n "'+document+'"\n\n Maintenant, rédige un court résumé.',
'Premièrement, lisez le texte ci-dessous. \n\n "'+document+'"\n\n Maintenant, rédigez un court résumé.',
'Article : "'+document+'"/n Résumé : ',
'"'+document+' Comment reformuler cela en quelques mots ?',
'"'+document+' Comment peux-tu reformuler cela en quelques mots ?',
'"'+document+' Comment pouvez-vous reformuler cela en quelques mots ?',
'Résumer ce document : "'+document+'" Résumé :',
'Résume ce document : "'+document+'" Résumé :',
'Résumez ce document : "'+document+'" Résumé :',
'"'+document+' Compte tenu du document ci-dessus, écrire une phrase pour le résumer :',
'"'+document+' Compte tenu du document ci-dessus, écris une phrase pour le résumer :',
'"'+document+' Compte tenu du document ci-dessus, écrivez une phrase pour le résumer :',
'"'+document+' Rédiger un résumé du texte ci-dessus : ',
'"'+document+' Rédige un résumé du texte ci-dessus : ',
'"'+document+' Rédigez un résumé du texte ci-dessus : '`
An example:
Datasets
--------
### orange\_sum
Note: we use the split 'abstract'.
Citation and License
>
> @article{eddine2020barthez,
>
>
>
>
#### License
CC-BY-SA-4.0
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'orange\_sum\_fr\_prompt\_summarization' dataset has the same license as the original dataset from which it is derived.
Text generation from an article
===============================
The task consists in using a text base to generate a suite to this text.
24 prompts
----------
`'"'+document+'"\n Continuer le texte sur 1000 caractères maximum :',
'"'+document+'"\n Continue le texte sur 1000 caractères maximum :',
'"'+document+'"\n Continuez le texte sur 1000 caractères maximum :',
'"'+document+'"\n Poursuivre le texte sur 1000 caractères maximum :',
'"'+document+'"\n Poursuis le texte sur 1000 caractères maximum :',
'"'+document+'"\n Poursuivez le texte sur 1000 caractères maximum :',
'"'+document+'"\n Prolonger le texte sur 1000 caractères maximum :',
'"'+document+'"\n Prolonge le texte sur 1000 caractères maximum :',
'"'+document+'"\n Prolongez le texte sur 1000 caractères maximum :',
'"'+document+'"\n Rédiger la suite du texte : ',
'"'+document+'"\n Rédige la suite du texte : ',
'"'+document+'"\n Rédigez la suite du texte : ',
'"'+document+'"\n Imaginer la suite du texte : ',
'"'+document+'"\n Imagine la suite du texte : ',
'"'+document+'"\n Imaginez la suite du texte : ',
'"'+document+'"\n Ecrire la suite du texte : ',
'"'+document+'"\n Ecris la suite du texte : ',
'"'+document+'"\n Ecriver la suite du texte : ',
'"'+document+'"\n Développer la suite du texte : ',
'"'+document+'"\n Développe la suite du texte : ',
'"'+document+'"\n Développez la suite du texte : ',
'"'+document+'"\nGénérer la suite du texte : ',
'"'+document+'"\nGénère la suite du texte : ',
'"'+document+'"\n Générez la suite du texte : ',`
An example:
Datasets
--------
### orange\_sum
Note: we use the split 'abstract'.
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'orange\_sum\_fr\_prompt\_text\_generation\_from\_an\_article' dataset has the same license as the original dataset from which it is derived.
Title generation from an article
================================
The aim is to generate a title for a given text.
19 prompts
----------
`'"'+document+'"\n Générer un titre pour cet article :',
'"'+document+'"\n Génère un titre pour cet article :',
'"'+document+'"\n Générez un titre pour cet article :',
'"'+document+'"\n Rédiger un titre pour cet article :',
'"'+document+'"\n Rédige un titre pour cet article :',
'"'+document+'"\n Rédigez un titre pour cet article :',
'"'+document+'"\n Ecrire un titre pour cet article :',
'"'+document+'"\n Ecris un titre pour cet article :',
'"'+document+'"\n Ecrivez un titre pour cet article :',
"Générer un titre pour l'article suivant : "+document,
"Génère un titre pour l'article suivant : "+document,
"Générez un titre pour l'article suivant : "+document,
"Rédiger un titre pour l'article suivant : "+document,
"Rédige un titre pour l'article suivant : "+document,
"Rédigez un titre pour l'article suivant : "+document,
"Ecrire un titre pour l'article suivant : "+document,
"Ecris un titre pour l'article suivant : "+document,
"Ecrivez un titre pour l'article suivant : "+document,
'"'+document+'"\n Titre :\n '`
An example:
Datasets
--------
### orange\_sum
Note: we use the split 'title'.
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'orange\_sum\_fr\_prompt\_title\_generation\_from\_an\_article' dataset has the same license as the original dataset from which it is derived.
Fill mask
=========
Masked language modeling is the task of masking some of the words in a sentence and predicting which words should replace those masks.
In our case, for a given text, we have hidden one word per sentence of the text.
24 prompts
----------
'Remplacer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text,
'Remplace le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text,
'Remplacez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text,
'Remplacer le <mask> dans le texte suivant par le mot le plus probable : '+text,
'Remplace le <mask> dans le texte suivant par le mot le plus probable : '+text,
'Remplacez le <mask> dans le texte suivant par le mot le plus probable : '+text,
'Substituer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text,
'Substitue le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text,
'Substituez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text,
'Substituer le <mask> dans le texte suivant par le mot le plus probable : '+text,
'Substitue le <mask> dans le texte suivant par le mot le plus probable : '+text,
'Substituez le <mask> dans le texte suivant par le mot le plus probable : '+text,
'Changer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text,
'Change le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text,
'Changez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text,
'Changer le <mask> dans le texte suivant par le mot le plus probable : '+text,
'Change le <mask> dans le texte suivant par le mot le plus probable : '+text,
'Changez le <mask> dans le texte suivant par le mot le plus probable : '+text,
'Transformer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text,
'Transforme le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text,
'Transformez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text,
'Transformer le <mask> dans le texte suivant par le mot le plus probable : '+text,
'Transforme le <mask> dans le texte suivant par le mot le plus probable : '+text,
'Transformez le <mask> dans le texte suivant par le mot le plus probable : '+text,
An example:
Datasets
--------
### orange\_sum
Note: we use the split 'abstract'.
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'orange\_sum\_fr\_prompt\_fill\_mask' dataset has the same license as the original dataset from which it is derived.
Binary text generation from a title of a review
===============================================
The aim is to generate a text positive ou negative depending on the prompt selected by the user.
36 prompts
----------
`# negative
'Rédiger un commentaire négatif dont le titre est : "'+title+'"".',
'Rédige un commentaire négatif dont le titre est : "'+title+'"".',
'Rédigez un commentaire négatif dont le titre est : "'+title+'"".',
'Rédiger un avis négatif dont le titre est : "'+title+'"".',
'Rédige un avis négatif dont le titre est : "'+title+'"".',
'Rédigez un avis négatif dont le titre est : "'+title+'"".',
'Rédiger une critique négative dont le titre est : "'+title+'"".',
'Rédige une critique négative dont le titre est : "'+title+'"".',
'Rédigez une critique négative dont le titre est : "'+title+'"".',
'Rédiger une évaluation négative dont le titre est : "'+title+'"".',
'Rédige une évaluation négative dont le titre est : "'+title+'"".',
'Rédigez une évaluation négative dont le titre est : "'+title+'"".',
"""Générer un commentaire négatif d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,
"""Génère un commentaire négatif d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,
"""Générez un commentaire négatif d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,
"""Générer un avis négatif d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,
"""Génère un avis négatif d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,
"""Générez un avis négatif d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,
"""Générer une critique négative d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,
"""Génère une critique négative d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,
"""Générez une critique négative d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,
"""Générer une évaluation négative d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,
"""Génère une évaluation négative d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,
"""Générez une évaluation négative d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,
'Titre : "'+title +'"\n Ecrire un commentaire négatif de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecris un commentaire négatif de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecrivez un commentaire négatif de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecrire un avis négatif de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecris un avis négatif de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecrivez un avis négatif de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecrire une critique négative de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecris une critique négative de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecrivez une critique négative de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecrire une évaluation négative de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecris une évaluation négative de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecrivez une évaluation négative de 1 à 5 phrases sur le titre précédent : ',
# positive
'Rédiger un commentaire positif dont le titre est : '+title+'.',
'Rédige un commentaire positif dont le titre est : '+title+'.',
'Rédigez un commentaire positif dont le titre est : '+title+'.',
'Rédiger un avis positif dont le titre est : '+title+'.',
'Rédige un avis positif dont le titre est : '+title+'.',
'Rédigez un avis positif dont le titre est : '+title+'.',
'Rédiger une critique positive dont le titre est : '+title+'.',
'Rédige une critique positive dont le titre est : '+title+'.',
'Rédigez une critique positive dont le titre est : '+title+'.',
'Rédiger une évaluation positive dont le titre est : '+title+'.',
'Rédige une évaluation positive dont le titre est : '+title+'.',
'Rédigez une évaluation positive dont le titre est : '+title+'.',
"""Générer un commentaire positif d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,
"""Génère un commentaire positif d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,
"""Générez un commentaire positif d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,
"""Générer un avis positif d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,
"""Génère un avis positif d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,
"""Générez un avis positif d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,
"""Générer une critique positive d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,
"""Génère une critique positive d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,
"""Générez une critique positive d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,
"""Générer une évaluation positive d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,
"""Génère une évaluation positive d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,
"""Générez une évaluation positive d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,
'Titre : "'+title +'"\n Ecrire un commentaire positif de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecris un commentaire positif de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecrivez un commentaire positif de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecrire un avis positif de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecris un avis positif de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecrivez un avis positif de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecrire une critique positive de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecris une critique positive de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecrivez une critique positive de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecrire une évaluation positive de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecris une évaluation positive de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\n Ecrivez une évaluation positive de 1 à 5 phrases sur le titre précédent : ',`
An example:
Datasets
--------
### Abirate/french\_book\_reviews
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
### amazon\_reviews\_multi
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
Text generation from a title of a review type
=============================================
Review generation from a title.
36 prompts
----------
`'Rédiger un commentaire dont le titre est : "'+title+'"',
'Rédige un commentaire dont le titre est : "'+title+'"',
'Rédigez un commentaire dont le titre est : "'+title+'"',
'Rédiger un avis dont le titre est : "'+title+'"',
'Rédige un avis dont le titre est : "'+title+'"',
'Rédigez un avis dont le titre est : "'+title+'"',
'Rédiger une critique dont le titre est : "'+title+'"',
'Rédige une critique dont le titre est : "'+title+'"',
'Rédigez une critique dont le titre est : "'+title+'"',
'Rédiger une évaluation dont le titre est : "'+title+'"',
'Rédige une évaluation dont le titre est : "'+title+'"',
'Rédigez une évaluation dont le titre est : "'+title+'"',
"""Générer un commentaire d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,
"""Génère un commentaire d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,
"""Générez un commentaire d'un produit imaginaire dont le titre est : " """+title+""" "\nLe commentaire : """,
"""Générer un avis d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,
"""Génére un avis d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,
"""Générez un avis d'un produit imaginaire dont le titre est : " """+title+""" "\nL'avis : """,
"""Générer une critique d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,
"""Génère une critique d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,
"""Générez une critique d'un produit imaginaire dont le titre est : " """+title+""" "\nLa critique : """,
"""Générer une évaluation d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,
"""Génère une évaluation d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,
"""Générez une évaluation d'un produit imaginaire dont le titre est : " """+title+""" "\nL'évaluation : """,
'Titre : "'+title +'"\nEcrire un commentaire de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\nEcris un commentaire de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\nEcrivez un commentaire de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\nEcrire un avis de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\nEcris un avis de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\nEcrivez un avis de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\nEcrire une critique de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\nEcris une critique de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\nEcrivez une critique de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\nEcrire une évaluation de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\nEcris une évaluation de 1 à 5 phrases sur le titre précédent : ',
'Titre : "'+title +'"\nEcrivez une évaluation de 1 à 5 phrases sur le titre précédent : ',`
An example:
Datasets
--------
### amazon\_reviews\_multi
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
Text generation from a title of an article
==========================================
Article generation from a title.
27 prompts
----------
`'Rédiger un texte dont le titre est : "'+title+'".',
'Rédige un texte dont le titre est : "'+title+'".',
'Rédigez un texte dont le titre est : "'+title+'".',
'Rédiger une article dont le titre est : "'+title+'".',
'Rédige un article dont le titre est : "'+title+'".',
'Rédigez un article dont le titre est : "'+title+'".',
'Rédiger un document dont le titre est : "'+title+'".',
'Rédige un document dont le titre est : "'+title+'".',
'Rédigez un document dont le titre est : "'+title+'".',
‘Génèrer un texte dont le titre est : "'+title+'".\nTexte : ',
'Génère un texte dont le titre est : "'+title+'".\nTexte : ',
‘Génèrez un texte dont le titre est : "'+title+'".\nTexte : ',
‘Génèrer un article dont le titre est : "'+title+'".\nArticle : ',
‘Génère un article dont le titre est : "'+title+'".\nArticle : ',
‘Génèrez un article dont le titre est : "'+title+'".\nArticle : ',
‘Génèrer un document dont le titre est : "'+title+'".\nDocument : ',
'Génère un document dont le titre est : "'+title+'".\nDocument : ',
‘Génèrez un document dont le titre est : "'+title+'".\nDocument : ',
'"'+title +'"\n Ecrire un texte de 1 à 5 phrases sur le titre précédent : ',
'"'+title +'"\n Ecris un texte de 1 à 5 phrases sur le titre précédent : ',
'"'+title +'"\n Ecrivez un texte de 1 à 5 phrases sur le titre précédent : ',
'"'+title +'"\n Ecrire un article de 1 à 5 phrases sur le titre précédent : ',
'"'+title +'"\n Ecris un article de 1 à 5 phrases sur le titre précédent : ',
'"'+title +'"\n Ecrivez un article de 1 à 5 phrases sur le titre précédent : ',
'"'+title +'"\n Ecrire un document de 1 à 5 phrases sur le titre précédent : ',
'"'+title +'"\n Ecris un document de 1 à 5 phrases sur le titre précédent : ',
'"'+title +'"\n Ecrivez un document de 1 à 5 phrases sur le titre précédent : '`
An example:
Datasets
--------
Datasets
--------
### orange\_sum
Note: we use the split 'abstract'.
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'orange\_sum\_fr\_prompt\_text\_generation\_from\_title\_of\_an\_article' dataset has the same license as the original dataset from which it is derived.
Title generation from a review
==============================
The aim is to generate a title for a given text which is a review.
18 prompts
----------
`review+'\n Générer un titre pour cet avis : ',
review+'\n Génère un titre pour cet avis : ',
review+'\n Générez un titre pour cet avis : ',
review+'\n Rédiger un titre pour cet avis : ',
review+'\n Rédige un titre pour cet avis : ',
review+'\n Rédigez un titre pour cet avis : ',
review+'\n Ecrire un titre pour cet avis : ',
review+'\n Ecris un titre pour cet avis : ',
review+'\n Ecrivez un titre pour cet avis : ',
"""Générer un titre pour l'avis suivant : """+review,
"""Génère un titre pour l'avis suivant : """+review,
"""Générez un titre pour l'avis suivant : """+review,
"""Rédiger un titre pour l'avis suivant : """+review,
"""Rédige un titre pour l'avis suivant : """+review,
"""Rédigez un titre pour l'avis suivant : """+review,
"""Ecrire un titre pour l'avis suivant : """+review,
"""Ecris un titre pour l'avis suivant : """+review,
"""Ecrivez un titre pour l'avis suivant : """+review,
review+'\n Titre :\n '`
An example:
### amazon\_reviews\_multi
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
Classes classfication
=====================
Task of assigning a label/class to a given text.
21 prompts
----------
`'Le texte suivant parle-t-il de "'+classes+'" ?\n Texte : '+text,
'Le texte suivant concerne-t-il "'+classes+'" ?\n Texte : '+text,
'Le texte suivant évoque-t-il "'+classes+'" ?\n Texte : '+text,
text+'\n Étant donné la liste de catégories suivante : "'+classes+'" à quelle catégorie appartient le texte ?',
text+'\n Étant donné la liste de classes suivante : "'+classes+'" à quelle classe appartient le texte ?',
'Étant donné une liste de catégories : "'+classes+'" à quelle catégorie appartient le texte suivant ?\n Texte : '+text,
'Étant donné une liste de classes : "'+classes+'" à quelle classe appartient le texte suivant ?\n Texte : '+text,
'Étant donné un choix de catégories : "'+classes+'", le texte fait référence à laquelle ?\n Texte : '+text,
'Étant donné un choix de classe : "'+classes+'", le texte fait référence à laquelle ?\n Texte : '+text,
'Choisir une catégorie pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,
'Choisir une catégorie pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,
'Choisir une catégorie pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,
'Choisir une classe pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,
'Choisir une classe pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,
'Choisir une classe pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,
'Sélectionner une catégorie pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,
'Sélectionner une catégorie pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,
'Sélectionner une catégorie pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,
'Sélectionner une classe pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,
'Sélectionner une classe pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,
'Sélectionner une classe pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text`
An example:
Datasets
--------
### amazon\_reviews\_multi
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
Stars classfication
===================
Task consisting in assigning a score between 1 and 5 to a review text.
22 prompts
----------
`"""Donner un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Donne un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Donnez un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Donner un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Donne un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Donnez un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Donner un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Donne un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Donnez un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Noter avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Note avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Notez avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Noter avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Note avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Notez avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Noter avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Note avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
"""Notez avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,
review+'Pour ce texte, je donne la note de ',
'Texte : '+review+'\n Étoiles :',
'Texte : '+review+'\n Note (entre 1 et 5) :',
'Commentaire : '+review+'\n Sur une échelle de 1 à 5, je donnerais une note de :'`
An example:
Datasets
--------
### Abirate/french\_book\_reviews
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
### amazon\_reviews\_multi
Original: URL
Citation and License
Identical to the first citation of this dataset earlier in the card.
#### License
Identical to the first citation of this dataset earlier in the card.
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
Intent classfication
====================
Task consisting in assigning an intent to a text.
30 prompts
----------
`text+'\n Étant donné la liste de catégories suivante : "'+classes+'" à quelle catégorie appartient le texte ?',
text+'\n Étant donné la liste de classes suivante : "'+classes+'" à quelle classe appartient le texte ?',
'Étant donné une liste de catégories : "'+classes+'" à quelle catégorie appartient le texte suivant ?\n Texte : '+text,
'Étant donné une liste de classes : "'+classes+'" à quelle classe appartient le texte suivant ?\n Texte : '+text,
'Étant donné un choix de catégories : "'+classes+'", le texte fait référence à laquelle ?\n Texte : '+text,
'Étant donné un choix de classe : "'+classes+'", le texte fait référence à laquelle ?\n Texte : '+text,
'Choisir une catégorie pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,
'Choisir une catégorie pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,
'Choisir une catégorie pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,
'Choisir une classe pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,
'Choisir une classe pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,
'Choisir une classe pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,
'Sélectionner une catégorie pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,
'Sélectionner une catégorie pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,
'Sélectionner une catégorie pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,
'Sélectionner une classe pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,
'Sélectionner une classe pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,
'Sélectionner une classe pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,
'Parmi la liste de catégories suivantes : "'+classes+'",\n indiquer celle présente dans le texte : '+text,
'Parmi la liste de classes suivantes : "'+classes+'",\n indiquer celle présente dans le texte : '+text,
"""Parmi la liste d'intentions suivantes : " """+classes+""" ",\n indiquer celle présente dans le texte : """+text,
text+"""\n Étant donné la liste d'intentions suivante : " """+classes+""" ", à quelle intention appartient le texte ?""",
"""Étant donné une liste d'intentions : " """+classes+""" ", à quelle intention appartient le texte suivant ?\n Texte : """+text,
"""Étant donné un choix d'intentions : " """+classes+""" ", le texte fait référence à laquelle ?""",
'Choisir une intention pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,
'Choisir une intention pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,
'Choisir une intention pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text,
'Sélectionner une intention pour le texte suivant. Les options sont les suivantes : "'+classes+'"\n Texte : '+text,
'Sélectionner une intention pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,
'Sélectionner une intention pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text`
An example:
Datasets
--------
### SetFit/amazon\_massive\_intent\_fr-FR
Original: URL
Citation and License
>
> @misc{fitzgerald2022massive,
>
>
>
>
#### License
Apache 2.0
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
### mteb/mtop\_domain
Original: URL
Citation and License
>
> @misc{li2021mtop,
>
>
>
>
#### License
Unknown
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
Named Entity Recognition
========================
Assigns a class to each word in a text. Possible classes here are People, Location, Organizations, and Other.
21 prompts
----------
`'Extraire les entités nommées du texte suivant : '+text,
'Extrais les entités nommées du texte suivant : '+text,
'Extrayez les entités nommées du texte suivant : '+text,
'Isoler les entités nommées du texte suivant : '+text,
'Isole les entités nommées du texte suivant : '+text,
'Isolez les entités nommées du texte suivant : '+text,
'Dégager des entités nommées dans le texte : '+text,
'Dégage des entités nommées dans le texte : '+text,
'Dégagez des entités nommées dans le texte : '+text,
'Générer des entités nommées issues du texte suivant : '+text,
'Génère des entités nommées issues du texte suivant : '+text,
'Générez des entités nommées issues du texte suivant : '+text,
'Trouver les entités nommées du texte : '+text,
'Trouve les entités nommées du texte : '+text,
'Trouvez les entités nommées du texte : '+text,
'Repérer les entités nommées présentes dans le texte suivant : '+text,
'Repère les entités nommées présentes dans le texte suivant : '+text,
'Repérez les entités nommées présentes dans le texte suivant : '+text,
'Indiquer les entités nommées du texte :'+text,
'Indique les entités nommées du texte : '+text,
'Indiquez les entités nommées du texte : '+text`
An example:
Datasets
--------
### tner/wikiann
Original: URL
Citation and License
>
> @inproceedings{pan-etal-2017-cross,
>
>
>
>
#### License
Unknow
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
### tner/wikineural
Original: URL
Citation and License
>
> @inproceedings{tedeschi-etal-2021-wikineural-combined,
>
>
>
>
#### License
Unknow
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
### tner/multinerd
Original: URL
Citation and License
>
> @inproceedings{tedeschi-navigli-2022-multinerd,
>
>
>
>
#### License
Unknow
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
### Jean-Baptiste/wikiner\_fr
Original: URL
Citation and License
>
> @article{NOTHMAN2013151,
>
>
>
>
#### License
Unknow
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'URL dataset has the same license as the original dataset from which it is derived.
Part-of-speech
==============
Assigns a class to each word in a text. Possible classes here are Adposition, Adjective, Adverb, Auxiliary, Coordinating conjunction, Determiner, Interjection, Noun, Numeral, Particle, Pronoun, Proper noun, Punctuation, Subordinating conjunction, Symbol, Verb and Other.
21 prompts
----------
`'Extraire les classes des mots du texte suivant : '+text,
'Extrais les classes des mots du texte suivant : '+text,
'Extrayez les classes des mots du texte suivant : '+text,
'Isoler les classes des mots du texte suivant : '+text,
'Isole les classes des mots du texte suivant : '+text,
'Isolez les classes des mots du texte suivant : '+text,
'Dégager les classes des mots dans le texte : '+text,
'Dégage les classes des mots dans le texte : '+text,
'Dégagez les classes des mots dans le texte : '+text,
'Générer les classes des mots issues du texte suivant : '+text,
'Génère les classes des mots issues du texte suivant : '+text,
'Générez les classes des mots issues du texte suivant : '+text,
'Trouver les classes des mots du texte : '+text,
'Trouve les classes des mots du texte : '+text,
'Trouvez les classes des mots du texte : '+text,
'Repérer les classes des mots présentes dans le texte suivant : '+text,
'Repère les classes des mots présentes dans le texte suivant : '+text,
'Repérez les classes des mots présentes dans le texte suivant : '+text,
'Indiquer les classes des mots du texte :'+text,
'Indique les classes des mots du texte : '+text,
'Indiquez les classes des mots du texte : '+text`
An example:
### universal\_dependencies
Original: URL
Citation and License
>
> @inproceedings{nivre-etal-2020-universal,
>
>
>
>
#### License
The 'fr\_gsd', 'fr\_partut' and 'fr\_spoken' splits are licensed under cc-by-nc-4.0.
With prompts:
URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'universal\_dependencies\_fr\_fqb\_fr\_prompt\_pos', 'universal\_dependencies\_fr\_gsd\_fr\_prompt\_pos', 'universal\_dependencies\_fr\_partut\_fr\_prompt\_pos', 'universal\_dependencies\_fr\_pud\_fr\_prompt\_pos', 'universal\_dependencies\_fr\_sequoia\_fr\_prompt\_pos', 'universal\_dependencies\_fr\_spoken\_fr\_prompt\_pos' datasets have the same license as the original dataset from which they are derived.
Data-to-text
============
Text generation from keywords.
30 prompts
----------
`'Assembler les concepts suivants pour former une phrase : "'+concepts+'".',
'Assemble les concepts suivants pour former une phrase : "'+concepts+'".',
'Assemblez les concepts suivants pour former une phrase : "'+concepts+'".',
'Étant donné la liste des concepts : "'+concepts+'". Générer une phrase avec tous les concepts : ',
'Étant donné la liste des concepts : "'+concepts+'". Génère une phrase avec tous les concepts : ',
'Étant donné la liste des concepts : "'+concepts+'". Générez une phrase avec tous les concepts : ',
'Convertir les concepts en une phrase : "'+concepts+'".',
'Convertis les concepts en une phrase : "'+concepts+'".',
'Convertissez les concepts en une phrase : "'+concepts+'".',
'Combiner tous les concepts suivants dans un texte concis et grammaticalement correct "'+concepts+'". Texte : ',
'Combine tous les concepts suivants dans un texte concis et grammaticalement correct "'+concepts+'". Texte : ',
'Combinez tous les concepts suivants dans un texte concis et grammaticalement correct "'+concepts+'". Texte : ',
'Générer une phrase à partir des informations fournies ci-contre : "'+concepts+'".',
'Génère une phrase à partir des informations fournies ci-contre : "'+concepts+'".',
'Générez une phrase à partir des informations fournies ci-contre : "'+concepts+'".',
'Verbaliser les concepts suivants séparés par une virgule : "'+concepts+'".',
'Verbalise les concepts suivants séparés par une virgule : "'+concepts+'".',
'Verbalisez les concepts suivants séparés par une virgule : "'+concepts+'".',
'Générer un texte intégrant les concepts suivants '+concepts+'". Texte :',
'Génère un texte intégrant les concepts suivants '+concepts+'". Texte :',
'Générez un texte intégrant les concepts suivants '+concepts+'". Texte :',
'"'+concepts+'". Ecrire 1 à 5 phrases sur les concepts précédents.',
'"'+concepts+'". Ecris 1 à 5 phrases sur les concepts précédents.',
'"'+concepts+'". Ecrivez 1 à 5 phrases sur les concepts précédents.',
'Rédiger un texte avec : "'+concepts+'".',
'Rédige un texte avec : "'+concepts+'".',
'Rédigez un texte avec : "'+concepts+'".',
'Écrire un texte sur les concepts suivants : "'+concepts+'".',
'Écris un texte sur les concepts suivants : "'+concepts+'".',
'Écrivez un texte sur les concepts suivants : "'+concepts+'".',`
An example:
Datasets
--------
### taln-ls2n/termith-eval
Original: URL
Citation and License
>
> * (Boudin, 2013) Florian Boudin. 2013.
> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).
> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.
> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.
> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).
> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.
>
>
>
#### License
cc-by-4.0
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'termith-eval\_fr\_prompt\_data\_to\_text' dataset has the same license as the original dataset from which it is derived.
### taln-ls2n/taln-archives
Original: URL
Citation and License
>
> * (Boudin, 2013) Florian Boudin. 2013.
> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).
> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.
> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.
> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).
> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.
>
>
>
#### License
cc-by-4.0
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'taln-archives\_fr\_prompt\_data\_to\_text' dataset has the same license as the original dataset from which it is derived.
### taln-ls2n/wikinews-fr-100
Original: URL
Citation and License
>
> * (Boudin, 2013) Florian Boudin. 2013.
> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).
> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.
> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.
> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).
> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.
>
>
>
#### License
cc-by-4.0
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'wikinews-fr-100\_fr\_prompt\_data\_to\_text' dataset has the same license as the original dataset from which it is derived.
Keywords extraction
===================
21 prompts
----------
`'Extraire les mots clés importants du texte suivant : '+text,
'Extrais les mots clés importants du texte suivant : '+text,
'Extrayez les mots clés importants du texte suivant : '+text,
'Isoler les mots clés importants du texte suivant : '+text,
'Isole les mots clés importants du texte suivant : '+text,
'Isolez les mots clés importants du texte suivant : '+text,
'Dégager des mots clés dans le texte : '+text,
'Dégage des mots clés dans le texte : '+text,
'Dégagez des mots clés dans le texte : '+text,
'Générer des mots clés issus du texte suivant : '+text,
'Génère des mots clés issus du texte suivant : '+text,
'Générez des mots clés issus du texte suivant : '+text,
'Trouver les mots clés du texte : '+text,
'Trouve les mots clés du texte : '+text,
'Trouvez les mots clés du texte : '+text,
'Repérer les mots clés importants présents dans le texte suivant : '+text,
'Repère les mots clés importants présents dans le texte suivant : '+text,
'Repérez les mots clés importants présents dans le texte suivant : '+text,
'Indiquer les mots clés du texte : '+text,
'Indiquer les mots clés du texte : '+text,
'Indiquer les mots clés du texte : '+text`
An example:
Datasets
--------
### taln-ls2n/termith-eval
Original: URL
Citation and License
>
> * (Boudin, 2013) Florian Boudin. 2013.
> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).
> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.
> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.
> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).
> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.
>
>
>
#### License
cc-by-4.0
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'termith-eval\_fr\_prompt\_keywords\_extraction' dataset has the same license as the original dataset from which it is derived.
### taln-ls2n/taln-archives
Original: URL
Citation and License
>
> * (Boudin, 2013) Florian Boudin. 2013.
> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).
> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.
> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.
> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).
> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.
>
>
>
#### License
cc-by-4.0
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'taln-archives\_fr\_prompt\_keywords\_extraction' dataset has the same license as the original dataset from which it is derived.
### taln-ls2n/wikinews-fr-100
Original: URL
Citation and License
>
> * (Boudin, 2013) Florian Boudin. 2013.
> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).
> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.
> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.
> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).
> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.
>
>
>
#### License
cc-by-4.0
With prompts: URL
Citation and License
See the DOI at the end of this dataset card.
#### License
The 'wikinews-fr-100\_fr\_prompt\_keywords\_extraction' dataset has the same license as the original dataset from which it is derived.
>
> @misc {centre\_aquitain\_des\_technologies\_de\_l'information\_et\_electroniques\_2023,
>
>
>
>
|
[
"### stsb\\_multi\\_mt\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @InProceedings{huggingface:dataset:stsb\\_multi\\_mt, \n> \n> \n> \n>",
"#### License\n\n\nURL\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'stsb\\_multi\\_mt\\_fr\\_prompt\\_sentence\\_similarity' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nParaphrase detection\n====================\n\n\nParaphrase detection consists in indicating whether two sentences have the same meaning or not.\nIn our case, the target/output is \"Oui\" or \"Non\".\n22 prompts\n----------\n\n\n`'Puis-je remplacer la phrase \"'+sentence1+'\" par la phrase \"'+sentence2+'\" et que cela garde la même signification ?', \n \n'Peut-on remplacer la phrase \"'+sentence1+'\" par la phrase \"'+sentence2+'\" et que cela garde la même signification ?', \n \n'Les deux phrases suivantes signifient-elles la même chose ? \\n \"'+sentence1+'\"\\n \"'+sentence2+'\"', \n \n'Je veux savoir si les deux phrases suivantes signifient la même chose. \\n \"'+sentence1+'\"\\n \"'+sentence2+'\"\\n Le sont-elles ?', \n \n'On veut savoir si les deux phrases suivantes signifient la même chose. \\n \"'+sentence1+'\"\\n \"'+sentence2+'\"\\n Le sont-elles ?', \n \n'Nous voulons savoir si les deux phrases suivantes signifient la même chose. \\n \"'+sentence1+'\"\\n \"'+sentence2+'\"\\n Le sont-elles ?', \n \n'La phrase \"'+sentence1+'\" paraphrase-t-elle (= signifie-t-elle la même chose que) cette phrase ? \"'+sentence2+'\"', \n \n'Les deux phrases suivantes sont-elles équivalentes ou non équivalentes ? \"'+ sentence1+'\"\\n\"'+sentence2+'\"', \n \n'Déterminer si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : \"'+sentence1+'\\n Phrase 2 : \"'+sentence2+'\"', \n \n'Déterminez si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : \"'+sentence1+'\\n Phrase 2 : \"'+sentence2+'\"', \n \n'Détermine si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : \"'+sentence1+'\\n Phrase 2 : \"'+sentence2+'\"', \n \n'\"'+sentence1+'\" Est-ce une paraphrase de la phrase suivante ? \"'+sentence2+'\"', \n \n'\"'+sentence1+'\" Est-ce une paraphrase de la phrase suivante ? \"'+sentence2+'\" Oui ou Non ?', \n \n'\"'+sentence1+'\" Question : \"'+sentence2+'\" est une paraphrase ou non ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : La phrase 1 et la phrase 2 expriment-elles le même sens ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : La phrase 1 et la phrase 2 expriment-elles le même sens ? Oui ou Non ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : Peut-on réécrire la phrase 1 en phrase 2 ?' , \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : Puis-je réécrire la phrase 1 en phrase 2 ?' , \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : Peut-on réécrire la phrase 1 en phrase 2 ? Oui ou Non ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : Puis-je réécrire la phrase 1 en phrase 2 ? Oui ou Non ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : La phrase 1 paraphrase-t-elle la phrase 2 ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : La phrase 1 paraphrase-t-elle la phrase 2 ? Oui ou Non ?'`\nAn example:\n\n\n\nDatasets\n--------",
"### paws-x\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @InProceedings{pawsx2019emnlp,\n> title = {{PAWS-X: A Cross-lingual Adversarial Dataset for Paraphrase Identification}}, \n> \n> \n> \n>",
"#### License\n\n\nThe dataset may be freely used for any purpose, although acknowledgement of Google LLC (\"Google\") as the data source would be appreciated. The dataset is provided \"AS IS\" without any warranty, express or implied. Google disclaims all liability for any damages, direct or indirect, resulting from the use of the dataset.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'paws-x\\_fr\\_prompt\\_paraphrase\\_detection' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nParaphrase generation\n=====================\n\n\nParaphrase generation consists to generate a sentence semantically similar to a given sentence.\n24 prompts\n----------\n\n\n`'Générer une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Génère une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Générez une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Paraphraser la phrase suivante : \"'+sentence1+'\"', \n \n'Paraphrase la phrase suivante : \"'+sentence1+'\"', \n \n'Paraphrasez la phrase suivante : \"'+sentence1+'\"', \n \n'Créer une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Crée une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Créez une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Créer une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Crée une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Créez une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Ecrire une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Ecris une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Ecrivez une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Ecrire une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Ecris une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Ecrivez une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Rédiger une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Rédige une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Rédigez une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Rédiger une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Rédige une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Rédigez une paraphrase de la phrase suivante : \"'+sentence1+'\"'`\nAn example:\n\n\n\nDatasets\n--------",
"### paws-x\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'paws-x\\_fr\\_prompt\\_paraphrase\\_generation' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nTextual entailment\n==================\n\n\nThis task consists of indicating whether a hypothesis applied to a sentence is true, false or unsure.\nIn our case, the target/output is \"vrai\", \"faux\" or \"incertain\".\n22 prompts\n----------\n\n\n`\"\"\"Prendre l'énoncé suivant comme vrai : \" \"\"\"+premise+\"\"\" \"\\n Alors l'énoncé suivant : \" \"\"\"+hypothesis+\"\"\" \" est \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Prends l'énoncé suivant comme vrai : \" \"\"\"+premise+\"\"\" \"\\n Alors l'énoncé suivant : \" \"\"\"+hypothesis+\"\"\" \" est \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Prenez l'énoncé suivant comme vrai : \" \"\"\"+premise+\"\"\" \"\\n Alors l'énoncé suivant : \" \"\"\"+hypothesis+\"\"\" \" est \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n'\"'+premise+'\"\\nQuestion : Cela implique-t-il que \"'+hypothesis+'\" ? \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'\"'+premise+'\"\\nQuestion : \"'+hypothesis+'\" est \"vrai\", \"faux\", ou \"peut-être\" ?', \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\n D'après le passage précédent, est-il vrai que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nSur la base de ces informations, l'énoncé est-il : \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nEn gardant à l'esprit le texte ci-dessus, considérez : \" \"\"\"+hypothesis+\"\"\" \"\\n Est-ce que c'est \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nEn gardant à l'esprit le texte ci-dessus, considére : \" \"\"\"+hypothesis+\"\"\" \"\\n Est-ce que c'est \"vrai\", \"faux\", ou \"peut-être\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nEn utilisant uniquement la description ci-dessus et ce que vous savez du monde, \" \"\"\"+hypothesis+\"\"\" \" est-ce \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nEn utilisant uniquement la description ci-dessus et ce que tu sais du monde, \" \"\"\"+hypothesis+\"\"\" \" est-ce \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Étant donné que \" \"\"\"+premise+\"\"\" \", s'ensuit-il que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Étant donné que \" \"\"\"+premise+\"\"\" \", est-il garanti que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n'Étant donné '+premise+', doit-on supposer que '+hypothesis+' est \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'Étant donné '+premise+', dois-je supposer que '+hypothesis+' est \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'Sachant que '+premise+', doit-on supposer que '+hypothesis+' est \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'Sachant que '+premise+', dois-je supposer que '+hypothesis+' est \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'Étant donné que '+premise+', il doit donc être vrai que '+hypothesis+' ? \"vrai\", \"faux\", ou \"incertain\" ?', \n \n\"\"\"Supposons que \" \"\"\"+premise+\"\"\" \", pouvons-nous déduire que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Supposons que \" \"\"\"+premise+\"\"\" \", puis-je déduire que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Supposons qu'il est vrai que \" \"\"\"+premise+\"\"\" \". Alors, est-ce que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Supposons qu'il soit vrai que \" \"\"\"+premise+\"\"\" \",\\n Donc, \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\"`\nAn example:\n\n\n\nDatasets\n--------",
"### xnli\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @InProceedings{conneau2018xnli, \n> \n> \n> \n>",
"#### License\n\n\nThe majority of the corpus sentences are released under the OANC’s license which allows all content to be freely used, modified, and shared under permissive terms. The data in the Fiction genre from Captain Blood are in the public domain in the United States (but may be licensed differently elsewhere).\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'xnli\\_fr\\_prompt\\_textual\\_entailment' dataset has the same license as the original dataset from which it is derived.",
"### MoritzLaurer/multilingual-NLI-26lang-2mil7\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @article{laurer\\_less\\_2022,\n> title = {Less {Annotating}, {More} {Classifying} – {Addressing} the {Data} {Scarcity} {Issue} of {Supervised} {Machine} {Learning} with {Deep} {Transfer} {Learning} and {BERT} - {NLI}}, \n> \n> \n> \n>",
"#### License\n\n\nThe 'fr\\_anli' and 'fr\\_wanli' splits are licensed under cc-by-nc-4.0. \n\n\n\n\nWith prompts:\nURL \n\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'anli\\_fr\\_prompt\\_textual\\_entailment', 'fever\\_fr\\_prompt\\_textual\\_entailment', 'ling\\_fr\\_prompt\\_textual\\_entailment', 'mnli\\_fr\\_prompt\\_textual\\_entailment', 'wanli\\_fr\\_prompt\\_textual\\_entailment' datasets have the same license as the original dataset from which they are derived.\n\n\n\n\n\nTextual simplification\n======================\n\n\nThis task involves cutting a very long sentence into two smaller ones to simplify reading.\n20 prompts\n----------\n\n\n`'Simplifier la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Simplifie la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Simplifiez la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Alléger la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Allège la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Allégez la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Clarifier la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Clarifie la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Clarifiez la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'\"'+source+'\" La phrase ci-dessus est trop compliquée. Fournir une version simplifiée composée de plusieurs phrases : ', \n \n'\"'+source+'\" La phrase ci-dessus est trop compliquée. Fournis une version simplifiée composée de plusieurs phrases : ', \n \n'\"'+source+'\" La phrase ci-dessus est trop compliquée. Fournissez une version simplifiée composée de plusieurs phrases : ', \n \n'\"'+source+'\" Cette phrase est difficile à comprendre. Une version plus simple avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est difficile à comprendre. Une version moins complexe avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est difficile à comprendre. Une version plus légère avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est difficile à comprendre. Une version épurée avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est lourde. Une version plus simple avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est lourde. Une version moins complexe avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est lourde. Une version plus légère avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est lourde. Une version épurée avec une signification équivalente est la suivante : '`\nAn example:\n\n\n\nDatasets\n--------",
"### GEM/BiSECT\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{bisect2021, \n> \n> \n> \n>",
"#### License\n\n\ncc-by-nc-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'bisect\\_fr\\_prompt\\_textual\\_simplification' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nTextual merging\n===============\n\n\nThis task involves merging two short sentences into a single longer one.\n\n\n21 prompts\n----------\n\n\n`'Fusionner les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version fusionnée : ', \n\n'Fusionne les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version fusionnée : ', \n\n'Fusionnez les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version fusionnée : ', \n\n'Combiner les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version combinée : ', \n\n'Combine les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version combinée : ', \n\n'Combinez les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version combinée : ', \n\n'Réunir les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version réunie : ', \n\n'Réunis les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version réunie : ', \n\n'Réunissez les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version réunie : ', \n\n'\"'+source+' Fournir une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Fournis une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Fournissez une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Ecrire une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Ecris une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Ecrivez une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Rédiger une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Rédige une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Rédigez une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Générer une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Génère une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Générez une version synonyme en une phrase des deux phrases précédentes : '`\nAn example:\n\n\n\nDatasets\n--------",
"### GEM/BiSECT\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'bisect\\_fr\\_prompt\\_textual\\_merging' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nCoreference\n===========\n\n\nA Winograd schema is a pair of sentences that differ by only one or two words and contain an ambiguity that is resolved in opposite ways in both sentences, requiring the use of world knowledge and reasoning for its resolution.\n\n\n10 prompts\n----------\n\n\n`'\"'+sentence+'\"\\nRemplacer le \"_\" dans la phrase ci-dessus par la bonne option :\\n- \"'+option1+'\"\\n- \"'+option2+'\"', \n\n'\"'+sentence+'\"\\nRemplace le \"_\" dans la phrase ci-dessus par la bonne option :\\n- \"'+option1+'\"\\n- \"'+option2+'\"', \n\n'\"'+sentence+'\"\\nRemplacez le \"_\" dans la phrase ci-dessus par la bonne option :\\n- \"'+option1+'\"\\n- \"'+option2+'\"', \n\n'\"'+sentence+'\" Dans la phrase précédente, \"_\" fait-il référence à \"'+option1+'\" ou \"'+option2+'\" ?', \n\n'\"'+sentence+'\" À quoi le \"_\" dans la phrase ci-dessus fait-il référence ? \"'+option1+'\" ou \"'+option2+'\" ?', \n \n'\"'+sentence+'\" Le \"_\" dans la phrase ci-dessous fait référence à \"'+option1+'\"\\n- \"'+option2+'\" ?', \n\n'Remplisser le \"_\" de la phrase suivante : \"'+sentence+ '\"\\nChoix :\\n- \"'+option1+'\"\\n- \"'+option2+'\"\\nRéponse :', \n\n'Remplis le \"_\" de la phrase suivante : \"'+sentence+ '\"\\nChoix :\\n- \"'+option1+'\"\\n- \"'+option2+'\"\\nRéponse :', \n\n'Remplissez le \"_\" de la phrase suivante : \"'+sentence+ '\"\\nChoix :\\n- \"'+option1+'\"\\n- \"'+option2+'\"\\nRéponse :', \n\n'Dans la phrase ci-dessous, le \"_\" renvoie-t-il à \"'+option1+'\" ou \"'+option2+'\" ? : '+sentence,`\n\nDatasets\n--------",
"### Muennighoff/xwinograd\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @misc{muennighoff2022crosslingual,\n> title={Crosslingual Generalization through Multitask Finetuning}, \n> \n> \n> \n>",
"#### License\n\n\ncc-by-nc-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### demelin/wino\\_x\n\n\nOriginal: URL\nNote: only the French portion of this multilingual dataset is kept for our use.\nThe French split was obtained via an automatic translation of the English split.\n\n\n\nCitation and License\n\n> \n> @inproceedings{Emelin2021WinoXMW, title={Wino-X: Multilingual Winograd Schemas for Commonsense Reasoning and Coreference Resolution}, author={Denis Emelin and Rico Sennrich}, booktitle={EMNLP}, year={2021} }\n> \n> \n>",
"#### License\n\n\nMIT\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nSentiment analysis\n==================\n\n\nThe goal is to classify a text into one of two categories: positive or negative.\nIn our case, the target/output is \"pos\" (for positive) or \"neg\" (for negative).\n\n\n28 prompts\n----------\n\n\n`'Commentaire : \"'+review+'\" Le commentaire est-il positif ou négatif ?', \n\n\"\"\"Avis : \" \"\"\"+review+\"\"\" \" L'avis est-il positif ou négatif ?\"\"\", \n\n'Critique : \"'+review+'\" La critique est-elle positive ou négative ?', \n\n\"\"\"Evaluation : \" \"\"\"+review+\"\"\" \" L'évaluation est-elle positive ou négative ?\"\"\", \n\n'Ce commentaire sur le produit est-il positif ou négatif ? \\nCommentaire : \"'+review+'\"\\nRéponse :', \n\n'Cet avis sur le produit est-il positif ou négatif ? \\nAvis : \"'+review+'\"\\nRéponse :', \n\n'Cette critique sur le produit est-elle positive ou négative ? \\nCritique : \"'+review+'\"\\nRéponse :', \n\n'Cette évaluation sur le produit est-elle positive ou négative ? \\nEvaluation : \"'+review+'\"\\nRéponse :', \n\n'Commentaire : \"'+review+'\"\\n Ce commentaire sur le produit exprime-t-il un sentiment négatif ou positif ?', \n\n'Avis : \"'+review+'\"\\n Cet avis sur le produit exprime-t-il un sentiment négatif ou positif ?', \n\n'Critique : \"'+review+'\"\\n Cette critique sur le produit exprime-t-il un sentiment négatif ou positif ?', \n\n'Evaluation : \"'+review+'\"\\n Cette évaluation sur le produit exprime-t-il un sentiment négatif ou positif ?', \n\n'Ce commentaire sur le produit a-t-il un ton négatif ou positif ? \\n Commentaire : \"'+review+'\"\\n Réponse :', \n\n'Cet avis sur le produit a-t-il un ton négatif ou positif ? \\n Avis : \"'+review+'\"\\n Réponse :', \n\n'Cette critique sur le produit a-t-il un ton négatif ou positif ? \\n Evaluation : \"'+review+'\"\\n Réponse :', \n\n'Cette évaluation sur le produit a-t-il un ton négatif ou positif ? \\n Avis : \"'+review+'\"\\n Réponse :', \n\n\"\"\"Voici un commentaire laissé par un client sur un produit. Diriez-vous qu'il est négatif ou positif ? \\nCommentaire : \"\"\"+review, \n\n\"\"\"Voici un avis laissé par un client sur un produit. Diriez-vous qu'il est négatif ou positif ? \\nAvis : \"\"\"+review, \n\n\"\"\"Voici une critique laissée par un client sur un produit. Diriez-vous qu'elle est négative ou positive ? \\nCritique : \"\"\"+review, \n\n\"\"\"Voici une évaluation laissée par un client sur un produit. Diriez-vous qu'elle est négative ou positive ? \\nEvaluation : \"\"\"+review, \n\n'Commentaire du produit : \"'+review+'\" Ce commentaire dépeint le produit sous un angle négatif ou positif ?', \n\n'Avis du produit : \"'+review+'\" Cet avis dépeint le produit sous un angle négatif ou positif ?', \n\n'Critique du produit : \"'+review+'\" Cette critique dépeint le produit sous un angle négatif ou positif ?', \n \n'Evaluation du produit : \"'+review+'\" Cette évaluation dépeint le produit sous un angle négatif ou positif ?', \n\n'Le commentaire suivant exprime quel sentiment ?\\n Commentaire' +review, \n \n\"\"\"L'avis suivant exprime quel sentiment ?\\n Avis\"\"\" +review, \n\n'La critique suivante exprime quel sentiment ?\\n Critique' +review, \n\n\"\"\"L'évaluation suivante exprime quel sentiment ?\\n Evaluation\"\"\" +review`\nAn example:\n\n\n\nDatasets\n--------",
"### Abirate/french\\_book\\_reviews\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @misc {abir\\_eltaief\\_2023, \n> \n> \n> \n>",
"#### License\n\n\nCC0: Public Domain\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### allocine\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> Théophile Blard, French sentiment analysis with BERT, (2020), GitHub repository, URL\n> \n> \n>",
"#### License\n\n\nMIT\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{marc\\_reviews, \n> \n> \n> \n>",
"#### License\n\n\nURL\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nQuestion Answering\n==================\n\n\nIn the (extractive) Question Answering task, the model answers a question based on an associated contextual text.\nNote that here we handle cases where the answer is indeed in the text provided, but also the case where the answer may not be present in the text.\n\n\n42 prompts\n----------\n\n\n`# SQUAD 1.0 format \n \n'Question : \"'+question+'\"\\nContexte : \"'+context+'\" Réponse :', \n \n'La réponse à la question \"'+question+'\" se trouve dans \"'+context+'\" Pouvez-vous me la dire ?', \n \n'La réponse à la question \"'+question+'\" se trouve dans \"'+context+'\" Peux-tu me la dire ?', \n \n'Extraire la réponse à la question à partir du contexte suivant.\\n Question : \"'+question+'\" Contexte : \"'+context+'\"', \n \n'Extrais la réponse à la question à partir du contexte suivant.\\n Question : \"'+question+'\" Contexte : \"'+context+'\"', \n \n'Extrayez la réponse à la question à partir du contexte suivant.\\n Question : \"'+question+'\" Contexte : \"'+context+'\"', \n \n'Étant donné le passage suivant : \"'+context+'\"\\n Répondre à la question suivante sachant que la réponse est présente dans le texte.\\n Question : \"'+question+'\"', \n \n'Étant donné le passage suivant : \"'+context+'\"\\n Réponds à la question suivante sachant que la réponse est présente dans le texte.\\n Question : \"'+question+'\"', \n \n'Étant donné le passage suivant : \"'+context+'\"\\n Répondez à la question suivante sachant que la réponse est présente dans le texte.\\n Question : \"'+question+'\"', \n \n\"\"\"La réponse à la question : \" \"\"\"+question+\"\"\" \" se trouve dans le texte : \" \"\"\"+context+\"\"\" \"\\n Peux-tu l'indiquer ?\"\"\", \n \n\"\"\"La réponse à la question : \" \"\"\"+question+\"\"\" \" se trouve dans le texte : \" \"\"\"+context+\"\"\" \"\\n Pouvez-vous l'indiquer ?\"\"\", \n \n\"\"\"La réponse à la question : \" \"\"\"+question+\"\"\" \" se trouve dans le texte : \" \"\"\"+context+\"\"\" \"\\n Qu'elle est-elle ?\"\"\",",
"# SQUAD 2.0 format \n \n'\"'+question+'\"\\n Répondre à la question ci-dessus en se basant sur le contexte suivant : \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+question+'\"\\n Réponds à la question ci-dessus en te basant sur le contexte suivant : \"'+context+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'\"'+question+'\"\\n Répondez à la question ci-dessus en vous basant sur le contexte suivant : \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Utiliser le texte suivant pour répondre à la question : '+question+ '\\n\\n \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Utilise le texte suivant pour répondre à la question : '+question+ '\\n\\n \"'+context+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Utilisez le texte suivant pour répondre à la question : '+question+ '\\n\\n \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Lire le texte suivant et extraire la réponse à la question : \"'+question+'\"\\n\\n \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Lis le texte suivant et extrais la réponse à la question : \"'+question+'\"\\n\\n \"'+context+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Lisez le texte suivant et extrayez la réponse à la question : \"'+question+'\"\\n\\n \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n\\nSur la base du texte ci-dessus, répondre correctement à la question suivante : \\n\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n\\nSur la base du texte ci-dessus, réponds correctement à la question suivante : \\n\\n \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n\\nSur la base du texte ci-dessus, répondez répondre correctement à la question suivante : \\n\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Contexte : '+ context +'\\n Compte tenu du texte ci-dessus, répondre correctement à la question suivante : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Contexte : '+ context +'\\n Compte tenu du texte ci-dessus, réponds correctement à la question suivante : \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Contexte : '+ context +'\\n Compte tenu du texte ci-dessus, répondez correctement à la question suivante : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n Extraire du passage la réponse à la question suivante : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n Extrais du passage la réponse à la question suivante : \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n Extrayez du passage la réponse à la question suivante : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Compte tenu du passage suivant, répondre à la question qui suit : \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Compte tenu du passage suivant, réponds à la question qui suit : \"'+context+'\"\\n \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Compte tenu du passage suivant, répondez à la question qui suit : \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Après avoir lu le paragraphe, répondre à la question suivante : \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Après avoir lu le paragraphe, réponds à la question suivante : \"'+context+'\"\\n \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Après avoir lu le paragraphe, répondez à la question suivante : \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Se référer au passage ci-dessous et répondre à la question suivante:\\n Passage : \"'+context+'\"Question : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Référe-toi au passage ci-dessous et réponds à la question suivante:\\n Passage : \"'+context+'\"Question : \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Référez-vous au passage ci-dessous et répondez à la question suivante:\\n Passage : \"'+context+'\"Question : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Lire le passage suivant et répondez à la question qui suit : \\n \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Lis le passage suivant et répondez à la question qui suit : \\n \"'+context+'\"\\n \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Lisez le passage suivant et répondez à la question qui suit : \\n \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".',`\nAn example:\n\n\n\nDatasets\n--------",
"### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> Hugging Face repository: URL\n> \n> \n>",
"#### License\n\n\napache-2.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_qa' dataset has the same license as the original dataset from which it is derived.",
"### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @ARTICLE{2020arXiv200206071 \n> \n> \n> \n>",
"#### License\n\n\nCC BY-NC-SA 3.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_qa' dataset has the same license as the original dataset from which it is derived.",
"### etalab-ia/piaf\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @InProceedings{keraron-EtAl:2020:LREC, \n> \n> \n> \n>",
"#### License\n\n\nMIT\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_qa' dataset has the same license as the original dataset from which it is derived.",
"### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> Hugging Face repository: URL\n> \n> \n>",
"#### License\n\n\nCC BY-NC-SA 4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_qa' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nContext generation with answer and question\n===========================================\n\n\nText generation task where we use the answer and the question in a QA dataset to generate a context.\n\n\n24 prompts\n----------\n\n\n`'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", écrire un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", écris un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", écrivez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", rédiger un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", rédige un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", rédigez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", générer un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", génère un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", générez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", créer un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", crée un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", créez un texte explicatif.\\nTexte : ', \n\n'Ecrire un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Ecris un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Ecrivez un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Rédiger un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Rédige un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Rédigez un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Générer un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Génère un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Générez un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Créer un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Crée un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Créez un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : '`\nAn example:\n\n\n\nDatasets\n--------",
"### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_context\\_generation\\_with\\_answer\\_and\\_question' dataset has the same license as the original dataset from which it is derived.",
"### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_context\\_generation\\_with\\_answer\\_and\\_question' dataset has the same license as the original dataset from which it is derived.",
"### etalab-ia/piaf\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_context\\_generation\\_with\\_answer\\_and\\_question' dataset has the same license as the original dataset from which it is derived.",
"### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_context\\_generation\\_with\\_answer\\_and\\_question' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nQuestion generation with answer and context\n===========================================\n\n\nText generation task where we use the answer and the context in a QA dataset to generate a question.\n\n\n21 prompts\n----------\n\n\n`'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n \n'Quelle question aurais-tu pu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question auriez-vous pu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question peut être posée pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question peux-tu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question pouvez-vous poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Générer une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Génère une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Générez une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouver une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouves une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouvez une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Créer une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Crée trouver une bonne question pour le texte suivant : \"'+context+'\"', \n \n'Sachant la réponse suivante : \"'+answer+'\"\\n Créez trouver une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecrire une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecris une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecrivez une bonne question pour le texte suivant : \"'+context+'\"`\nAn example:\n\n\n\nDatasets\n--------",
"### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_question\\_generation\\_with\\_answer\\_and\\_context' dataset has the same license as the original dataset from which it is derived.",
"### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_question\\_generation\\_with\\_answer\\_and\\_context' dataset has the same license as the original dataset from which it is derived.",
"### etalab-ia/piaf\n\n\nOriginal: URL\nThe dataset is in native French.\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_question\\_generation\\_with\\_answer\\_and\\_context' dataset has the same license as the original dataset from which it is derived.",
"### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_question\\_generation\\_with\\_answer\\_and\\_context' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nQuestion generation with answer\n===============================\n\n\nText generation task where we use the answer in a QA dataset to generate a question.\n\n\n22 prompts\n----------\n\n\n`'Quelle question donnerait la réponse suivante ? Réponse : \"'+answer+'\";\\nQuestion :', \n\n'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante . \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurait pu être posée pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurais-tu pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question auriez-vous pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurait pu être posée pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurais-tu pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question auriez-vous pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Générer une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Génère une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Générez une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouver une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouves une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouvez une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Créer une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Crée trouver une bonne question : ', \n \n'Sachant la réponse suivante : \"'+answer+'\"\\n Créez trouver une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecrire une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecris une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecrivez une bonne question`\nAn example:\n\n\n\nDatasets\n--------",
"### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_question\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.",
"### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_question\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.",
"### etalab-ia/piaf\n\n\nOriginal: URL\nThe dataset is in native French.\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_question\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.",
"### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_question\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nQuestion generation with context\n================================\n\n\nText generation task where we use the context in a QA dataset to generate a question.\n\n\n24 prompts\n----------\n\n\n`'\"'+context+'\"\\n Générer une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Génère une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Générez une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Trouver une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Trouve une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Trouvez une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Créer une bonne question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Crée trouver une bonne question à partir du texte ci-dessus : ', \n \n'\"'+context+'\"\\n Créez trouver une bonne question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Ecrire une bonne question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Ecris une bonne question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Ecrivez une bonne question à partir du texte ci-dessus : ', \n\n'Générer une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Génère une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Générez une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Trouver une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Trouve une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Trouvez trouver une bonne question pour le texte suivant : \"'+context+'\"', \n \n'Créer une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Crée trouver une bonne question pour le texte suivant : \"'+context+'\"', \n \n'Créez trouver une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Ecrire une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Ecris une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Ecrivez une bonne question pour le texte suivant : \"'+context+'\"'`\nAn example:\n\n\n\nDatasets\n--------",
"### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_question\\_generation\\_with\\_context' dataset has the same license as the original dataset from which it is derived.",
"### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_question\\_generation\\_with\\_context' dataset has the same license as the original dataset from which it is derived.",
"### etalab-ia/piaf\n\n\nOriginal: URL\nThe dataset is in native French.\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_question\\_generation\\_with\\_context' dataset has the same license as the original dataset from which it is derived.",
"### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_question\\_generation\\_with\\_context' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nContext generation with question\n================================\n\n\nText generation task where we use the question in a QA dataset to generate a context.\n\n\n24 prompts\n----------\n\n\n`'Étant donné la question \"'+question+'\", écrire un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", écris un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", écrivez un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", rédiger un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", rédige un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", rédigez un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", générer un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", génère un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", générez un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", créer un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", crée un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", créez un texte explicatif.\\nTexte : ', \n\n'Ecrire un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Ecris un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Ecrivez un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Rédiger un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Rédige un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Rédigez un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Générer un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Génère un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Générez un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Créer un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Crée un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Créez un texte comme contexte à la question \"'+question+'\" \\nTexte : '`\nAn example:\n\n\n\nDatasets\n--------",
"### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_context\\_generation\\_with\\_question' dataset has the same license as the original dataset from which it is derived.",
"### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_context\\_generation\\_with\\_question' dataset has the same license as the original dataset from which it is derived.",
"### etalab-ia/piaf\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_context\\_generation\\_with\\_question' dataset has the same license as the original dataset from which it is derived.",
"### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_context\\_generation\\_with\\_question' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nContext generation with answer\n==============================\n\n\nText generation task where we use the answer in a QA dataset to generate a context.\n\n\n24 prompts\n----------\n\n\n`'Étant donné la réponse \"'+ answer+'\", écrire un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", écris un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", écrivez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", rédiger un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", rédige un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", rédigez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", générer un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", génère un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", générez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", créer un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", crée un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", créez un texte explicatif.\\nTexte : ', \n\n'Ecrire un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Ecris un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Ecrivez un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Rédiger un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Rédige un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Rédigez un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Générer un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Génère un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Générez un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Créer un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Crée un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Créez un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ',`\nAn example:\n\n\n\nDatasets\n--------",
"### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_context\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.",
"### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_context\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.",
"### etalab-ia/piaf\n\n\nOriginal: URL\nThe dataset is in native French.\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_context\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.",
"### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_context\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nSummarization\n=============\n\n\nSummarization is the task of producing a shorter version of a document while preserving its important information.\n\n\n28 prompts\n----------\n\n\n`'Résumer le texte suivant : \"'+document+'\"', \n\n'Résume le texte suivant : \"'+document+'\"', \n\n'Résumez le texte suivant : \"'+document+'\"', \n\n'Résumer le texte suivant en quelques mots : \"'+document+'\"', \n\n'Résume le texte suivant en quelques mots : \"'+document+'\"', \n\n'Résumez le texte suivant en quelques mots : \"'+document+'\"', \n\n\"Condenser le texte à l'essentiel :\" +document, \n\n\"Condense le texte à l'essentiel :\" +document, \n\n\"Condensez le texte à l'essentiel :\" +document, \n\n'\"'+document+' Rédiger un résumé du texte ci-dessus :', \n \n'\"'+document+' Rédige un résumé du texte ci-dessus :', \n\n'\"'+document+' Rédigez un résumé du texte ci-dessus :', \n\n'Premièrement, lire le texte ci-dessous. \\n\\n \"'+document+'\"\\n\\n Maintenant, rédiger un court résumé.', \n \n'Premièrement, lis le texte ci-dessous. \\n\\n \"'+document+'\"\\n\\n Maintenant, rédige un court résumé.', \n\n'Premièrement, lisez le texte ci-dessous. \\n\\n \"'+document+'\"\\n\\n Maintenant, rédigez un court résumé.', \n\n'Article : \"'+document+'\"/n Résumé : ', \n\n'\"'+document+' Comment reformuler cela en quelques mots ?', \n \n'\"'+document+' Comment peux-tu reformuler cela en quelques mots ?', \n\n'\"'+document+' Comment pouvez-vous reformuler cela en quelques mots ?', \n\n'Résumer ce document : \"'+document+'\" Résumé :', \n\n'Résume ce document : \"'+document+'\" Résumé :', \n\n'Résumez ce document : \"'+document+'\" Résumé :', \n\n'\"'+document+' Compte tenu du document ci-dessus, écrire une phrase pour le résumer :', \n\n'\"'+document+' Compte tenu du document ci-dessus, écris une phrase pour le résumer :', \n\n'\"'+document+' Compte tenu du document ci-dessus, écrivez une phrase pour le résumer :', \n\n'\"'+document+' Rédiger un résumé du texte ci-dessus : ', \n\n'\"'+document+' Rédige un résumé du texte ci-dessus : ', \n\n'\"'+document+' Rédigez un résumé du texte ci-dessus : '`\nAn example:\n\n\n\nDatasets\n--------",
"### orange\\_sum\n\n\nNote: we use the split 'abstract'. \n\n\n\n\nCitation and License\n\n> \n> @article{eddine2020barthez, \n> \n> \n> \n>",
"#### License\n\n\nCC-BY-SA-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_summarization' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nText generation from an article\n===============================\n\n\nThe task consists in using a text base to generate a suite to this text.\n\n\n24 prompts\n----------\n\n\n`'\"'+document+'\"\\n Continuer le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Continue le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Continuez le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Poursuivre le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Poursuis le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Poursuivez le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Prolonger le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Prolonge le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Prolongez le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Rédiger la suite du texte : ', \n \n'\"'+document+'\"\\n Rédige la suite du texte : ', \n \n'\"'+document+'\"\\n Rédigez la suite du texte : ', \n \n'\"'+document+'\"\\n Imaginer la suite du texte : ', \n \n'\"'+document+'\"\\n Imagine la suite du texte : ', \n \n'\"'+document+'\"\\n Imaginez la suite du texte : ', \n \n'\"'+document+'\"\\n Ecrire la suite du texte : ', \n \n'\"'+document+'\"\\n Ecris la suite du texte : ', \n \n'\"'+document+'\"\\n Ecriver la suite du texte : ', \n \n'\"'+document+'\"\\n Développer la suite du texte : ', \n \n'\"'+document+'\"\\n Développe la suite du texte : ', \n \n'\"'+document+'\"\\n Développez la suite du texte : ', \n \n'\"'+document+'\"\\nGénérer la suite du texte : ', \n \n'\"'+document+'\"\\nGénère la suite du texte : ', \n \n'\"'+document+'\"\\n Générez la suite du texte : ',`\nAn example:\n\n\n\nDatasets\n--------",
"### orange\\_sum\n\n\nNote: we use the split 'abstract'. \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_text\\_generation\\_from\\_an\\_article' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nTitle generation from an article\n================================\n\n\nThe aim is to generate a title for a given text.\n\n\n19 prompts\n----------\n\n\n`'\"'+document+'\"\\n Générer un titre pour cet article :', \n \n'\"'+document+'\"\\n Génère un titre pour cet article :', \n \n'\"'+document+'\"\\n Générez un titre pour cet article :', \n \n'\"'+document+'\"\\n Rédiger un titre pour cet article :', \n \n'\"'+document+'\"\\n Rédige un titre pour cet article :', \n \n'\"'+document+'\"\\n Rédigez un titre pour cet article :', \n \n'\"'+document+'\"\\n Ecrire un titre pour cet article :', \n \n'\"'+document+'\"\\n Ecris un titre pour cet article :', \n \n'\"'+document+'\"\\n Ecrivez un titre pour cet article :', \n \n\"Générer un titre pour l'article suivant : \"+document, \n \n\"Génère un titre pour l'article suivant : \"+document, \n \n\"Générez un titre pour l'article suivant : \"+document, \n \n\"Rédiger un titre pour l'article suivant : \"+document, \n \n\"Rédige un titre pour l'article suivant : \"+document, \n \n\"Rédigez un titre pour l'article suivant : \"+document, \n \n\"Ecrire un titre pour l'article suivant : \"+document, \n \n\"Ecris un titre pour l'article suivant : \"+document, \n \n\"Ecrivez un titre pour l'article suivant : \"+document, \n'\"'+document+'\"\\n Titre :\\n '`\nAn example:\n\n\n\nDatasets\n--------",
"### orange\\_sum\n\n\nNote: we use the split 'title'. \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_title\\_generation\\_from\\_an\\_article' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nFill mask\n=========\n\n\nMasked language modeling is the task of masking some of the words in a sentence and predicting which words should replace those masks.\nIn our case, for a given text, we have hidden one word per sentence of the text.\n\n\n24 prompts\n----------\n\n\n'Remplacer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Remplace le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Remplacez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Remplacer le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Remplace le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Remplacez le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Substituer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Substitue le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Substituez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Substituer le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Substitue le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Substituez le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Changer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Change le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Changez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Changer le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Change le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Changez le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Transformer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Transforme le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Transformez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Transformer le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Transforme le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Transformez le <mask> dans le texte suivant par le mot le plus probable : '+text,\n\n\nAn example:\n\n\n\nDatasets\n--------",
"### orange\\_sum\n\n\nNote: we use the split 'abstract'. \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_fill\\_mask' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nBinary text generation from a title of a review\n===============================================\n\n\nThe aim is to generate a text positive ou negative depending on the prompt selected by the user.\n\n\n36 prompts\n----------\n\n\n`# negative \n\n'Rédiger un commentaire négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédige un commentaire négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédigez un commentaire négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédiger un avis négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédige un avis négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédigez un avis négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédiger une critique négative dont le titre est : \"'+title+'\"\".', \n\n'Rédige une critique négative dont le titre est : \"'+title+'\"\".', \n\n'Rédigez une critique négative dont le titre est : \"'+title+'\"\".', \n\n'Rédiger une évaluation négative dont le titre est : \"'+title+'\"\".', \n\n'Rédige une évaluation négative dont le titre est : \"'+title+'\"\".', \n\n'Rédigez une évaluation négative dont le titre est : \"'+title+'\"\".', \n\n\"\"\"Générer un commentaire négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Génère un commentaire négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générez un commentaire négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générer un avis négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Génère un avis négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générez un avis négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générer une critique négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Génère une critique négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générez une critique négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générer une évaluation négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Génère une évaluation négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Générez une évaluation négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n'Titre : \"'+title +'\"\\n Ecrire un commentaire négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris un commentaire négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez un commentaire négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire un avis négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris un avis négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez un avis négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire une critique négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris une critique négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez une critique négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire une évaluation négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris une évaluation négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez une évaluation négative de 1 à 5 phrases sur le titre précédent : ',",
"# positive \n\n'Rédiger un commentaire positif dont le titre est : '+title+'.', \n\n'Rédige un commentaire positif dont le titre est : '+title+'.', \n\n'Rédigez un commentaire positif dont le titre est : '+title+'.', \n\n'Rédiger un avis positif dont le titre est : '+title+'.', \n\n'Rédige un avis positif dont le titre est : '+title+'.', \n\n'Rédigez un avis positif dont le titre est : '+title+'.', \n\n'Rédiger une critique positive dont le titre est : '+title+'.', \n\n'Rédige une critique positive dont le titre est : '+title+'.', \n\n'Rédigez une critique positive dont le titre est : '+title+'.', \n\n'Rédiger une évaluation positive dont le titre est : '+title+'.', \n\n'Rédige une évaluation positive dont le titre est : '+title+'.', \n\n'Rédigez une évaluation positive dont le titre est : '+title+'.', \n\n\"\"\"Générer un commentaire positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Génère un commentaire positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générez un commentaire positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générer un avis positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Génère un avis positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générez un avis positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générer une critique positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Génère une critique positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générez une critique positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générer une évaluation positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Génère une évaluation positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Générez une évaluation positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n'Titre : \"'+title +'\"\\n Ecrire un commentaire positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris un commentaire positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez un commentaire positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire un avis positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris un avis positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez un avis positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire une critique positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris une critique positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez une critique positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire une évaluation positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris une évaluation positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez une évaluation positive de 1 à 5 phrases sur le titre précédent : ',`\nAn example:\n\n\n\nDatasets\n--------",
"### Abirate/french\\_book\\_reviews\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nText generation from a title of a review type\n=============================================\n\n\nReview generation from a title.\n\n\n36 prompts\n----------\n\n\n`'Rédiger un commentaire dont le titre est : \"'+title+'\"', \n\n'Rédige un commentaire dont le titre est : \"'+title+'\"', \n\n'Rédigez un commentaire dont le titre est : \"'+title+'\"', \n\n'Rédiger un avis dont le titre est : \"'+title+'\"', \n\n'Rédige un avis dont le titre est : \"'+title+'\"', \n\n'Rédigez un avis dont le titre est : \"'+title+'\"', \n\n'Rédiger une critique dont le titre est : \"'+title+'\"', \n\n'Rédige une critique dont le titre est : \"'+title+'\"', \n\n'Rédigez une critique dont le titre est : \"'+title+'\"', \n\n'Rédiger une évaluation dont le titre est : \"'+title+'\"', \n\n'Rédige une évaluation dont le titre est : \"'+title+'\"', \n\n'Rédigez une évaluation dont le titre est : \"'+title+'\"', \n\n\"\"\"Générer un commentaire d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Génère un commentaire d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générez un commentaire d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générer un avis d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Génére un avis d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générez un avis d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générer une critique d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Génère une critique d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générez une critique d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générer une évaluation d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Génère une évaluation d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Générez une évaluation d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n'Titre : \"'+title +'\"\\nEcrire un commentaire de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcris un commentaire de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrivez un commentaire de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrire un avis de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcris un avis de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrivez un avis de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrire une critique de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcris une critique de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrivez une critique de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrire une évaluation de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcris une évaluation de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrivez une évaluation de 1 à 5 phrases sur le titre précédent : ',`\nAn example:\n\n\n\nDatasets\n--------",
"### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nText generation from a title of an article\n==========================================\n\n\nArticle generation from a title.\n\n\n27 prompts\n----------\n\n\n`'Rédiger un texte dont le titre est : \"'+title+'\".', \n\n'Rédige un texte dont le titre est : \"'+title+'\".', \n\n'Rédigez un texte dont le titre est : \"'+title+'\".', \n\n'Rédiger une article dont le titre est : \"'+title+'\".', \n\n'Rédige un article dont le titre est : \"'+title+'\".', \n\n'Rédigez un article dont le titre est : \"'+title+'\".', \n\n'Rédiger un document dont le titre est : \"'+title+'\".', \n\n'Rédige un document dont le titre est : \"'+title+'\".', \n\n'Rédigez un document dont le titre est : \"'+title+'\".', \n\n‘Génèrer un texte dont le titre est : \"'+title+'\".\\nTexte : ', \n\n'Génère un texte dont le titre est : \"'+title+'\".\\nTexte : ', \n\n‘Génèrez un texte dont le titre est : \"'+title+'\".\\nTexte : ', \n\n‘Génèrer un article dont le titre est : \"'+title+'\".\\nArticle : ', \n\n‘Génère un article dont le titre est : \"'+title+'\".\\nArticle : ', \n\n‘Génèrez un article dont le titre est : \"'+title+'\".\\nArticle : ', \n\n‘Génèrer un document dont le titre est : \"'+title+'\".\\nDocument : ', \n\n'Génère un document dont le titre est : \"'+title+'\".\\nDocument : ', \n\n‘Génèrez un document dont le titre est : \"'+title+'\".\\nDocument : ', \n\n'\"'+title +'\"\\n Ecrire un texte de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecris un texte de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrivez un texte de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrire un article de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecris un article de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrivez un article de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrire un document de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecris un document de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrivez un document de 1 à 5 phrases sur le titre précédent : '`\nAn example:\n\n\n\nDatasets\n--------\n\n\nDatasets\n--------",
"### orange\\_sum\n\n\nNote: we use the split 'abstract'. \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_text\\_generation\\_from\\_title\\_of\\_an\\_article' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nTitle generation from a review\n==============================\n\n\nThe aim is to generate a title for a given text which is a review.\n\n\n18 prompts\n----------\n\n\n`review+'\\n Générer un titre pour cet avis : ', \n \nreview+'\\n Génère un titre pour cet avis : ', \n \nreview+'\\n Générez un titre pour cet avis : ', \n \nreview+'\\n Rédiger un titre pour cet avis : ', \n \nreview+'\\n Rédige un titre pour cet avis : ', \n \nreview+'\\n Rédigez un titre pour cet avis : ', \n \nreview+'\\n Ecrire un titre pour cet avis : ', \n \nreview+'\\n Ecris un titre pour cet avis : ', \n \nreview+'\\n Ecrivez un titre pour cet avis : ', \n \n\"\"\"Générer un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Génère un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Générez un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Rédiger un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Rédige un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Rédigez un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Ecrire un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Ecris un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Ecrivez un titre pour l'avis suivant : \"\"\"+review,\nreview+'\\n Titre :\\n '`\nAn example:",
"### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nClasses classfication\n=====================\n\n\nTask of assigning a label/class to a given text.\n\n\n21 prompts\n----------\n\n\n`'Le texte suivant parle-t-il de \"'+classes+'\" ?\\n Texte : '+text, \n\n'Le texte suivant concerne-t-il \"'+classes+'\" ?\\n Texte : '+text, \n\n'Le texte suivant évoque-t-il \"'+classes+'\" ?\\n Texte : '+text, \n\ntext+'\\n Étant donné la liste de catégories suivante : \"'+classes+'\" à quelle catégorie appartient le texte ?', \n\ntext+'\\n Étant donné la liste de classes suivante : \"'+classes+'\" à quelle classe appartient le texte ?', \n\n'Étant donné une liste de catégories : \"'+classes+'\" à quelle catégorie appartient le texte suivant ?\\n Texte : '+text, \n\n'Étant donné une liste de classes : \"'+classes+'\" à quelle classe appartient le texte suivant ?\\n Texte : '+text, \n\n'Étant donné un choix de catégories : \"'+classes+'\", le texte fait référence à laquelle ?\\n Texte : '+text, \n\n'Étant donné un choix de classe : \"'+classes+'\", le texte fait référence à laquelle ?\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text`\nAn example:\n\n\n\nDatasets\n--------",
"### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nStars classfication\n===================\n\n\nTask consisting in assigning a score between 1 and 5 to a review text.\n\n\n22 prompts\n----------\n\n\n`\"\"\"Donner un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donne un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donnez un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donner un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donne un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donnez un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donner un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donne un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donnez un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Noter avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Note avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Notez avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Noter avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Note avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Notez avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Noter avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Note avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Notez avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\nreview+'Pour ce texte, je donne la note de ', \n\n'Texte : '+review+'\\n Étoiles :', \n\n'Texte : '+review+'\\n Note (entre 1 et 5) :', \n\n'Commentaire : '+review+'\\n Sur une échelle de 1 à 5, je donnerais une note de :'`\nAn example:\n\n\n\nDatasets\n--------",
"### Abirate/french\\_book\\_reviews\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nIntent classfication\n====================\n\n\nTask consisting in assigning an intent to a text.\n\n\n30 prompts\n----------\n\n\n`text+'\\n Étant donné la liste de catégories suivante : \"'+classes+'\" à quelle catégorie appartient le texte ?', \n\ntext+'\\n Étant donné la liste de classes suivante : \"'+classes+'\" à quelle classe appartient le texte ?', \n\n'Étant donné une liste de catégories : \"'+classes+'\" à quelle catégorie appartient le texte suivant ?\\n Texte : '+text, \n\n'Étant donné une liste de classes : \"'+classes+'\" à quelle classe appartient le texte suivant ?\\n Texte : '+text, \n\n'Étant donné un choix de catégories : \"'+classes+'\", le texte fait référence à laquelle ?\\n Texte : '+text, \n\n'Étant donné un choix de classe : \"'+classes+'\", le texte fait référence à laquelle ?\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Parmi la liste de catégories suivantes : \"'+classes+'\",\\n indiquer celle présente dans le texte : '+text, \n\n'Parmi la liste de classes suivantes : \"'+classes+'\",\\n indiquer celle présente dans le texte : '+text, \n\n\"\"\"Parmi la liste d'intentions suivantes : \" \"\"\"+classes+\"\"\" \",\\n indiquer celle présente dans le texte : \"\"\"+text, \n\ntext+\"\"\"\\n Étant donné la liste d'intentions suivante : \" \"\"\"+classes+\"\"\" \", à quelle intention appartient le texte ?\"\"\", \n\n\"\"\"Étant donné une liste d'intentions : \" \"\"\"+classes+\"\"\" \", à quelle intention appartient le texte suivant ?\\n Texte : \"\"\"+text, \n\n\"\"\"Étant donné un choix d'intentions : \" \"\"\"+classes+\"\"\" \", le texte fait référence à laquelle ?\"\"\", \n\n'Choisir une intention pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une intention pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une intention pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une intention pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une intention pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une intention pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text`\nAn example:\n\n\n\nDatasets\n--------",
"### SetFit/amazon\\_massive\\_intent\\_fr-FR\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> @misc{fitzgerald2022massive, \n> \n> \n> \n>",
"#### License\n\n\nApache 2.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### mteb/mtop\\_domain\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @misc{li2021mtop, \n> \n> \n> \n>",
"#### License\n\n\nUnknown\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nNamed Entity Recognition\n========================\n\n\nAssigns a class to each word in a text. Possible classes here are People, Location, Organizations, and Other.\n\n\n21 prompts\n----------\n\n\n`'Extraire les entités nommées du texte suivant : '+text, \n\n'Extrais les entités nommées du texte suivant : '+text, \n\n'Extrayez les entités nommées du texte suivant : '+text, \n\n'Isoler les entités nommées du texte suivant : '+text, \n\n'Isole les entités nommées du texte suivant : '+text, \n\n'Isolez les entités nommées du texte suivant : '+text, \n\n'Dégager des entités nommées dans le texte : '+text, \n\n'Dégage des entités nommées dans le texte : '+text, \n\n'Dégagez des entités nommées dans le texte : '+text, \n\n'Générer des entités nommées issues du texte suivant : '+text, \n\n'Génère des entités nommées issues du texte suivant : '+text, \n\n'Générez des entités nommées issues du texte suivant : '+text, \n\n'Trouver les entités nommées du texte : '+text, \n\n'Trouve les entités nommées du texte : '+text, \n\n'Trouvez les entités nommées du texte : '+text, \n\n'Repérer les entités nommées présentes dans le texte suivant : '+text, \n\n'Repère les entités nommées présentes dans le texte suivant : '+text, \n\n'Repérez les entités nommées présentes dans le texte suivant : '+text, \n\n'Indiquer les entités nommées du texte :'+text, \n\n'Indique les entités nommées du texte : '+text, \n\n'Indiquez les entités nommées du texte : '+text`\nAn example:\n\n\n\nDatasets\n--------",
"### tner/wikiann\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{pan-etal-2017-cross, \n> \n> \n> \n>",
"#### License\n\n\nUnknow\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### tner/wikineural\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{tedeschi-etal-2021-wikineural-combined, \n> \n> \n> \n>",
"#### License\n\n\nUnknow\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### tner/multinerd\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{tedeschi-navigli-2022-multinerd, \n> \n> \n> \n>",
"#### License\n\n\nUnknow\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### Jean-Baptiste/wikiner\\_fr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @article{NOTHMAN2013151, \n> \n> \n> \n>",
"#### License\n\n\nUnknow\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nPart-of-speech\n==============\n\n\nAssigns a class to each word in a text. Possible classes here are Adposition, Adjective, Adverb, Auxiliary, Coordinating conjunction, Determiner, Interjection, Noun, Numeral, Particle, Pronoun, Proper noun, Punctuation, Subordinating conjunction, Symbol, Verb and Other.\n\n\n21 prompts\n----------\n\n\n`'Extraire les classes des mots du texte suivant : '+text, \n \n'Extrais les classes des mots du texte suivant : '+text, \n \n'Extrayez les classes des mots du texte suivant : '+text, \n \n'Isoler les classes des mots du texte suivant : '+text, \n \n'Isole les classes des mots du texte suivant : '+text, \n \n'Isolez les classes des mots du texte suivant : '+text, \n \n'Dégager les classes des mots dans le texte : '+text, \n \n'Dégage les classes des mots dans le texte : '+text, \n \n'Dégagez les classes des mots dans le texte : '+text, \n \n'Générer les classes des mots issues du texte suivant : '+text, \n \n'Génère les classes des mots issues du texte suivant : '+text, \n \n'Générez les classes des mots issues du texte suivant : '+text, \n \n'Trouver les classes des mots du texte : '+text, \n \n'Trouve les classes des mots du texte : '+text, \n \n'Trouvez les classes des mots du texte : '+text, \n \n'Repérer les classes des mots présentes dans le texte suivant : '+text, \n \n'Repère les classes des mots présentes dans le texte suivant : '+text, \n \n'Repérez les classes des mots présentes dans le texte suivant : '+text, \n \n'Indiquer les classes des mots du texte :'+text, \n \n'Indique les classes des mots du texte : '+text, \n \n'Indiquez les classes des mots du texte : '+text`\nAn example:",
"### universal\\_dependencies\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{nivre-etal-2020-universal, \n> \n> \n> \n>",
"#### License\n\n\nThe 'fr\\_gsd', 'fr\\_partut' and 'fr\\_spoken' splits are licensed under cc-by-nc-4.0. \n\n\n\n\nWith prompts:\nURL \n\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'universal\\_dependencies\\_fr\\_fqb\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_gsd\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_partut\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_pud\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_sequoia\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_spoken\\_fr\\_prompt\\_pos' datasets have the same license as the original dataset from which they are derived.\n\n\n\n\n\nData-to-text\n============\n\n\nText generation from keywords.\n30 prompts\n----------\n\n\n`'Assembler les concepts suivants pour former une phrase : \"'+concepts+'\".', \n\n'Assemble les concepts suivants pour former une phrase : \"'+concepts+'\".', \n\n'Assemblez les concepts suivants pour former une phrase : \"'+concepts+'\".', \n\n'Étant donné la liste des concepts : \"'+concepts+'\". Générer une phrase avec tous les concepts : ', \n\n'Étant donné la liste des concepts : \"'+concepts+'\". Génère une phrase avec tous les concepts : ', \n\n'Étant donné la liste des concepts : \"'+concepts+'\". Générez une phrase avec tous les concepts : ', \n\n'Convertir les concepts en une phrase : \"'+concepts+'\".', \n\n'Convertis les concepts en une phrase : \"'+concepts+'\".', \n\n'Convertissez les concepts en une phrase : \"'+concepts+'\".', \n\n'Combiner tous les concepts suivants dans un texte concis et grammaticalement correct \"'+concepts+'\". Texte : ', \n\n'Combine tous les concepts suivants dans un texte concis et grammaticalement correct \"'+concepts+'\". Texte : ', \n\n'Combinez tous les concepts suivants dans un texte concis et grammaticalement correct \"'+concepts+'\". Texte : ', \n\n'Générer une phrase à partir des informations fournies ci-contre : \"'+concepts+'\".', \n\n'Génère une phrase à partir des informations fournies ci-contre : \"'+concepts+'\".', \n\n'Générez une phrase à partir des informations fournies ci-contre : \"'+concepts+'\".', \n\n'Verbaliser les concepts suivants séparés par une virgule : \"'+concepts+'\".', \n\n'Verbalise les concepts suivants séparés par une virgule : \"'+concepts+'\".', \n\n'Verbalisez les concepts suivants séparés par une virgule : \"'+concepts+'\".', \n\n'Générer un texte intégrant les concepts suivants '+concepts+'\". Texte :', \n\n'Génère un texte intégrant les concepts suivants '+concepts+'\". Texte :', \n\n'Générez un texte intégrant les concepts suivants '+concepts+'\". Texte :', \n\n'\"'+concepts+'\". Ecrire 1 à 5 phrases sur les concepts précédents.', \n\n'\"'+concepts+'\". Ecris 1 à 5 phrases sur les concepts précédents.', \n\n'\"'+concepts+'\". Ecrivez 1 à 5 phrases sur les concepts précédents.', \n\n'Rédiger un texte avec : \"'+concepts+'\".', \n\n'Rédige un texte avec : \"'+concepts+'\".', \n\n'Rédigez un texte avec : \"'+concepts+'\".', \n\n'Écrire un texte sur les concepts suivants : \"'+concepts+'\".', \n\n'Écris un texte sur les concepts suivants : \"'+concepts+'\".', \n\n'Écrivez un texte sur les concepts suivants : \"'+concepts+'\".',`\nAn example:\n\n\n\nDatasets\n--------",
"### taln-ls2n/termith-eval\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>",
"#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'termith-eval\\_fr\\_prompt\\_data\\_to\\_text' dataset has the same license as the original dataset from which it is derived.",
"### taln-ls2n/taln-archives\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>",
"#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'taln-archives\\_fr\\_prompt\\_data\\_to\\_text' dataset has the same license as the original dataset from which it is derived.",
"### taln-ls2n/wikinews-fr-100\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>",
"#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'wikinews-fr-100\\_fr\\_prompt\\_data\\_to\\_text' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nKeywords extraction\n===================\n\n\n21 prompts\n----------\n\n\n`'Extraire les mots clés importants du texte suivant : '+text, \n\n'Extrais les mots clés importants du texte suivant : '+text, \n\n'Extrayez les mots clés importants du texte suivant : '+text, \n\n'Isoler les mots clés importants du texte suivant : '+text, \n\n'Isole les mots clés importants du texte suivant : '+text, \n\n'Isolez les mots clés importants du texte suivant : '+text, \n\n'Dégager des mots clés dans le texte : '+text, \n\n'Dégage des mots clés dans le texte : '+text, \n\n'Dégagez des mots clés dans le texte : '+text, \n\n'Générer des mots clés issus du texte suivant : '+text, \n\n'Génère des mots clés issus du texte suivant : '+text, \n\n'Générez des mots clés issus du texte suivant : '+text, \n\n'Trouver les mots clés du texte : '+text, \n\n'Trouve les mots clés du texte : '+text, \n\n'Trouvez les mots clés du texte : '+text, \n\n'Repérer les mots clés importants présents dans le texte suivant : '+text, \n\n'Repère les mots clés importants présents dans le texte suivant : '+text, \n\n'Repérez les mots clés importants présents dans le texte suivant : '+text, \n\n'Indiquer les mots clés du texte : '+text, \n\n'Indiquer les mots clés du texte : '+text, \n\n'Indiquer les mots clés du texte : '+text`\nAn example:\n\n\n\nDatasets\n--------",
"### taln-ls2n/termith-eval\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>",
"#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'termith-eval\\_fr\\_prompt\\_keywords\\_extraction' dataset has the same license as the original dataset from which it is derived.",
"### taln-ls2n/taln-archives\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>",
"#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'taln-archives\\_fr\\_prompt\\_keywords\\_extraction' dataset has the same license as the original dataset from which it is derived.",
"### taln-ls2n/wikinews-fr-100\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>",
"#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'wikinews-fr-100\\_fr\\_prompt\\_keywords\\_extraction' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\n> \n> @misc {centre\\_aquitain\\_des\\_technologies\\_de\\_l'information\\_et\\_electroniques\\_2023, \n> \n> \n> \n>"
] |
[
"TAGS\n#task_categories-text-classification #task_categories-token-classification #task_categories-question-answering #task_categories-zero-shot-classification #task_categories-summarization #task_categories-text-generation #task_categories-text2text-generation #task_categories-fill-mask #task_categories-sentence-similarity #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-100M<n<1B #language-French #DFP #french prompts #arxiv-2211.01786 #arxiv-2002.06071 #arxiv-2204.08582 #arxiv-2008.09335 #doi-10.57967/hf/1200 #region-us \n",
"### stsb\\_multi\\_mt\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @InProceedings{huggingface:dataset:stsb\\_multi\\_mt, \n> \n> \n> \n>",
"#### License\n\n\nURL\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'stsb\\_multi\\_mt\\_fr\\_prompt\\_sentence\\_similarity' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nParaphrase detection\n====================\n\n\nParaphrase detection consists in indicating whether two sentences have the same meaning or not.\nIn our case, the target/output is \"Oui\" or \"Non\".\n22 prompts\n----------\n\n\n`'Puis-je remplacer la phrase \"'+sentence1+'\" par la phrase \"'+sentence2+'\" et que cela garde la même signification ?', \n \n'Peut-on remplacer la phrase \"'+sentence1+'\" par la phrase \"'+sentence2+'\" et que cela garde la même signification ?', \n \n'Les deux phrases suivantes signifient-elles la même chose ? \\n \"'+sentence1+'\"\\n \"'+sentence2+'\"', \n \n'Je veux savoir si les deux phrases suivantes signifient la même chose. \\n \"'+sentence1+'\"\\n \"'+sentence2+'\"\\n Le sont-elles ?', \n \n'On veut savoir si les deux phrases suivantes signifient la même chose. \\n \"'+sentence1+'\"\\n \"'+sentence2+'\"\\n Le sont-elles ?', \n \n'Nous voulons savoir si les deux phrases suivantes signifient la même chose. \\n \"'+sentence1+'\"\\n \"'+sentence2+'\"\\n Le sont-elles ?', \n \n'La phrase \"'+sentence1+'\" paraphrase-t-elle (= signifie-t-elle la même chose que) cette phrase ? \"'+sentence2+'\"', \n \n'Les deux phrases suivantes sont-elles équivalentes ou non équivalentes ? \"'+ sentence1+'\"\\n\"'+sentence2+'\"', \n \n'Déterminer si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : \"'+sentence1+'\\n Phrase 2 : \"'+sentence2+'\"', \n \n'Déterminez si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : \"'+sentence1+'\\n Phrase 2 : \"'+sentence2+'\"', \n \n'Détermine si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : \"'+sentence1+'\\n Phrase 2 : \"'+sentence2+'\"', \n \n'\"'+sentence1+'\" Est-ce une paraphrase de la phrase suivante ? \"'+sentence2+'\"', \n \n'\"'+sentence1+'\" Est-ce une paraphrase de la phrase suivante ? \"'+sentence2+'\" Oui ou Non ?', \n \n'\"'+sentence1+'\" Question : \"'+sentence2+'\" est une paraphrase ou non ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : La phrase 1 et la phrase 2 expriment-elles le même sens ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : La phrase 1 et la phrase 2 expriment-elles le même sens ? Oui ou Non ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : Peut-on réécrire la phrase 1 en phrase 2 ?' , \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : Puis-je réécrire la phrase 1 en phrase 2 ?' , \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : Peut-on réécrire la phrase 1 en phrase 2 ? Oui ou Non ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : Puis-je réécrire la phrase 1 en phrase 2 ? Oui ou Non ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : La phrase 1 paraphrase-t-elle la phrase 2 ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : La phrase 1 paraphrase-t-elle la phrase 2 ? Oui ou Non ?'`\nAn example:\n\n\n\nDatasets\n--------",
"### paws-x\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @InProceedings{pawsx2019emnlp,\n> title = {{PAWS-X: A Cross-lingual Adversarial Dataset for Paraphrase Identification}}, \n> \n> \n> \n>",
"#### License\n\n\nThe dataset may be freely used for any purpose, although acknowledgement of Google LLC (\"Google\") as the data source would be appreciated. The dataset is provided \"AS IS\" without any warranty, express or implied. Google disclaims all liability for any damages, direct or indirect, resulting from the use of the dataset.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'paws-x\\_fr\\_prompt\\_paraphrase\\_detection' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nParaphrase generation\n=====================\n\n\nParaphrase generation consists to generate a sentence semantically similar to a given sentence.\n24 prompts\n----------\n\n\n`'Générer une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Génère une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Générez une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Paraphraser la phrase suivante : \"'+sentence1+'\"', \n \n'Paraphrase la phrase suivante : \"'+sentence1+'\"', \n \n'Paraphrasez la phrase suivante : \"'+sentence1+'\"', \n \n'Créer une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Crée une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Créez une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Créer une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Crée une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Créez une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Ecrire une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Ecris une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Ecrivez une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Ecrire une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Ecris une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Ecrivez une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Rédiger une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Rédige une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Rédigez une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Rédiger une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Rédige une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Rédigez une paraphrase de la phrase suivante : \"'+sentence1+'\"'`\nAn example:\n\n\n\nDatasets\n--------",
"### paws-x\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'paws-x\\_fr\\_prompt\\_paraphrase\\_generation' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nTextual entailment\n==================\n\n\nThis task consists of indicating whether a hypothesis applied to a sentence is true, false or unsure.\nIn our case, the target/output is \"vrai\", \"faux\" or \"incertain\".\n22 prompts\n----------\n\n\n`\"\"\"Prendre l'énoncé suivant comme vrai : \" \"\"\"+premise+\"\"\" \"\\n Alors l'énoncé suivant : \" \"\"\"+hypothesis+\"\"\" \" est \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Prends l'énoncé suivant comme vrai : \" \"\"\"+premise+\"\"\" \"\\n Alors l'énoncé suivant : \" \"\"\"+hypothesis+\"\"\" \" est \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Prenez l'énoncé suivant comme vrai : \" \"\"\"+premise+\"\"\" \"\\n Alors l'énoncé suivant : \" \"\"\"+hypothesis+\"\"\" \" est \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n'\"'+premise+'\"\\nQuestion : Cela implique-t-il que \"'+hypothesis+'\" ? \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'\"'+premise+'\"\\nQuestion : \"'+hypothesis+'\" est \"vrai\", \"faux\", ou \"peut-être\" ?', \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\n D'après le passage précédent, est-il vrai que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nSur la base de ces informations, l'énoncé est-il : \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nEn gardant à l'esprit le texte ci-dessus, considérez : \" \"\"\"+hypothesis+\"\"\" \"\\n Est-ce que c'est \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nEn gardant à l'esprit le texte ci-dessus, considére : \" \"\"\"+hypothesis+\"\"\" \"\\n Est-ce que c'est \"vrai\", \"faux\", ou \"peut-être\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nEn utilisant uniquement la description ci-dessus et ce que vous savez du monde, \" \"\"\"+hypothesis+\"\"\" \" est-ce \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nEn utilisant uniquement la description ci-dessus et ce que tu sais du monde, \" \"\"\"+hypothesis+\"\"\" \" est-ce \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Étant donné que \" \"\"\"+premise+\"\"\" \", s'ensuit-il que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Étant donné que \" \"\"\"+premise+\"\"\" \", est-il garanti que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n'Étant donné '+premise+', doit-on supposer que '+hypothesis+' est \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'Étant donné '+premise+', dois-je supposer que '+hypothesis+' est \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'Sachant que '+premise+', doit-on supposer que '+hypothesis+' est \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'Sachant que '+premise+', dois-je supposer que '+hypothesis+' est \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'Étant donné que '+premise+', il doit donc être vrai que '+hypothesis+' ? \"vrai\", \"faux\", ou \"incertain\" ?', \n \n\"\"\"Supposons que \" \"\"\"+premise+\"\"\" \", pouvons-nous déduire que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Supposons que \" \"\"\"+premise+\"\"\" \", puis-je déduire que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Supposons qu'il est vrai que \" \"\"\"+premise+\"\"\" \". Alors, est-ce que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Supposons qu'il soit vrai que \" \"\"\"+premise+\"\"\" \",\\n Donc, \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\"`\nAn example:\n\n\n\nDatasets\n--------",
"### xnli\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @InProceedings{conneau2018xnli, \n> \n> \n> \n>",
"#### License\n\n\nThe majority of the corpus sentences are released under the OANC’s license which allows all content to be freely used, modified, and shared under permissive terms. The data in the Fiction genre from Captain Blood are in the public domain in the United States (but may be licensed differently elsewhere).\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'xnli\\_fr\\_prompt\\_textual\\_entailment' dataset has the same license as the original dataset from which it is derived.",
"### MoritzLaurer/multilingual-NLI-26lang-2mil7\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @article{laurer\\_less\\_2022,\n> title = {Less {Annotating}, {More} {Classifying} – {Addressing} the {Data} {Scarcity} {Issue} of {Supervised} {Machine} {Learning} with {Deep} {Transfer} {Learning} and {BERT} - {NLI}}, \n> \n> \n> \n>",
"#### License\n\n\nThe 'fr\\_anli' and 'fr\\_wanli' splits are licensed under cc-by-nc-4.0. \n\n\n\n\nWith prompts:\nURL \n\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'anli\\_fr\\_prompt\\_textual\\_entailment', 'fever\\_fr\\_prompt\\_textual\\_entailment', 'ling\\_fr\\_prompt\\_textual\\_entailment', 'mnli\\_fr\\_prompt\\_textual\\_entailment', 'wanli\\_fr\\_prompt\\_textual\\_entailment' datasets have the same license as the original dataset from which they are derived.\n\n\n\n\n\nTextual simplification\n======================\n\n\nThis task involves cutting a very long sentence into two smaller ones to simplify reading.\n20 prompts\n----------\n\n\n`'Simplifier la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Simplifie la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Simplifiez la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Alléger la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Allège la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Allégez la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Clarifier la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Clarifie la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Clarifiez la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'\"'+source+'\" La phrase ci-dessus est trop compliquée. Fournir une version simplifiée composée de plusieurs phrases : ', \n \n'\"'+source+'\" La phrase ci-dessus est trop compliquée. Fournis une version simplifiée composée de plusieurs phrases : ', \n \n'\"'+source+'\" La phrase ci-dessus est trop compliquée. Fournissez une version simplifiée composée de plusieurs phrases : ', \n \n'\"'+source+'\" Cette phrase est difficile à comprendre. Une version plus simple avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est difficile à comprendre. Une version moins complexe avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est difficile à comprendre. Une version plus légère avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est difficile à comprendre. Une version épurée avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est lourde. Une version plus simple avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est lourde. Une version moins complexe avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est lourde. Une version plus légère avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est lourde. Une version épurée avec une signification équivalente est la suivante : '`\nAn example:\n\n\n\nDatasets\n--------",
"### GEM/BiSECT\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{bisect2021, \n> \n> \n> \n>",
"#### License\n\n\ncc-by-nc-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'bisect\\_fr\\_prompt\\_textual\\_simplification' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nTextual merging\n===============\n\n\nThis task involves merging two short sentences into a single longer one.\n\n\n21 prompts\n----------\n\n\n`'Fusionner les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version fusionnée : ', \n\n'Fusionne les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version fusionnée : ', \n\n'Fusionnez les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version fusionnée : ', \n\n'Combiner les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version combinée : ', \n\n'Combine les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version combinée : ', \n\n'Combinez les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version combinée : ', \n\n'Réunir les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version réunie : ', \n\n'Réunis les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version réunie : ', \n\n'Réunissez les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version réunie : ', \n\n'\"'+source+' Fournir une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Fournis une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Fournissez une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Ecrire une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Ecris une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Ecrivez une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Rédiger une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Rédige une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Rédigez une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Générer une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Génère une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Générez une version synonyme en une phrase des deux phrases précédentes : '`\nAn example:\n\n\n\nDatasets\n--------",
"### GEM/BiSECT\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'bisect\\_fr\\_prompt\\_textual\\_merging' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nCoreference\n===========\n\n\nA Winograd schema is a pair of sentences that differ by only one or two words and contain an ambiguity that is resolved in opposite ways in both sentences, requiring the use of world knowledge and reasoning for its resolution.\n\n\n10 prompts\n----------\n\n\n`'\"'+sentence+'\"\\nRemplacer le \"_\" dans la phrase ci-dessus par la bonne option :\\n- \"'+option1+'\"\\n- \"'+option2+'\"', \n\n'\"'+sentence+'\"\\nRemplace le \"_\" dans la phrase ci-dessus par la bonne option :\\n- \"'+option1+'\"\\n- \"'+option2+'\"', \n\n'\"'+sentence+'\"\\nRemplacez le \"_\" dans la phrase ci-dessus par la bonne option :\\n- \"'+option1+'\"\\n- \"'+option2+'\"', \n\n'\"'+sentence+'\" Dans la phrase précédente, \"_\" fait-il référence à \"'+option1+'\" ou \"'+option2+'\" ?', \n\n'\"'+sentence+'\" À quoi le \"_\" dans la phrase ci-dessus fait-il référence ? \"'+option1+'\" ou \"'+option2+'\" ?', \n \n'\"'+sentence+'\" Le \"_\" dans la phrase ci-dessous fait référence à \"'+option1+'\"\\n- \"'+option2+'\" ?', \n\n'Remplisser le \"_\" de la phrase suivante : \"'+sentence+ '\"\\nChoix :\\n- \"'+option1+'\"\\n- \"'+option2+'\"\\nRéponse :', \n\n'Remplis le \"_\" de la phrase suivante : \"'+sentence+ '\"\\nChoix :\\n- \"'+option1+'\"\\n- \"'+option2+'\"\\nRéponse :', \n\n'Remplissez le \"_\" de la phrase suivante : \"'+sentence+ '\"\\nChoix :\\n- \"'+option1+'\"\\n- \"'+option2+'\"\\nRéponse :', \n\n'Dans la phrase ci-dessous, le \"_\" renvoie-t-il à \"'+option1+'\" ou \"'+option2+'\" ? : '+sentence,`\n\nDatasets\n--------",
"### Muennighoff/xwinograd\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @misc{muennighoff2022crosslingual,\n> title={Crosslingual Generalization through Multitask Finetuning}, \n> \n> \n> \n>",
"#### License\n\n\ncc-by-nc-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### demelin/wino\\_x\n\n\nOriginal: URL\nNote: only the French portion of this multilingual dataset is kept for our use.\nThe French split was obtained via an automatic translation of the English split.\n\n\n\nCitation and License\n\n> \n> @inproceedings{Emelin2021WinoXMW, title={Wino-X: Multilingual Winograd Schemas for Commonsense Reasoning and Coreference Resolution}, author={Denis Emelin and Rico Sennrich}, booktitle={EMNLP}, year={2021} }\n> \n> \n>",
"#### License\n\n\nMIT\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nSentiment analysis\n==================\n\n\nThe goal is to classify a text into one of two categories: positive or negative.\nIn our case, the target/output is \"pos\" (for positive) or \"neg\" (for negative).\n\n\n28 prompts\n----------\n\n\n`'Commentaire : \"'+review+'\" Le commentaire est-il positif ou négatif ?', \n\n\"\"\"Avis : \" \"\"\"+review+\"\"\" \" L'avis est-il positif ou négatif ?\"\"\", \n\n'Critique : \"'+review+'\" La critique est-elle positive ou négative ?', \n\n\"\"\"Evaluation : \" \"\"\"+review+\"\"\" \" L'évaluation est-elle positive ou négative ?\"\"\", \n\n'Ce commentaire sur le produit est-il positif ou négatif ? \\nCommentaire : \"'+review+'\"\\nRéponse :', \n\n'Cet avis sur le produit est-il positif ou négatif ? \\nAvis : \"'+review+'\"\\nRéponse :', \n\n'Cette critique sur le produit est-elle positive ou négative ? \\nCritique : \"'+review+'\"\\nRéponse :', \n\n'Cette évaluation sur le produit est-elle positive ou négative ? \\nEvaluation : \"'+review+'\"\\nRéponse :', \n\n'Commentaire : \"'+review+'\"\\n Ce commentaire sur le produit exprime-t-il un sentiment négatif ou positif ?', \n\n'Avis : \"'+review+'\"\\n Cet avis sur le produit exprime-t-il un sentiment négatif ou positif ?', \n\n'Critique : \"'+review+'\"\\n Cette critique sur le produit exprime-t-il un sentiment négatif ou positif ?', \n\n'Evaluation : \"'+review+'\"\\n Cette évaluation sur le produit exprime-t-il un sentiment négatif ou positif ?', \n\n'Ce commentaire sur le produit a-t-il un ton négatif ou positif ? \\n Commentaire : \"'+review+'\"\\n Réponse :', \n\n'Cet avis sur le produit a-t-il un ton négatif ou positif ? \\n Avis : \"'+review+'\"\\n Réponse :', \n\n'Cette critique sur le produit a-t-il un ton négatif ou positif ? \\n Evaluation : \"'+review+'\"\\n Réponse :', \n\n'Cette évaluation sur le produit a-t-il un ton négatif ou positif ? \\n Avis : \"'+review+'\"\\n Réponse :', \n\n\"\"\"Voici un commentaire laissé par un client sur un produit. Diriez-vous qu'il est négatif ou positif ? \\nCommentaire : \"\"\"+review, \n\n\"\"\"Voici un avis laissé par un client sur un produit. Diriez-vous qu'il est négatif ou positif ? \\nAvis : \"\"\"+review, \n\n\"\"\"Voici une critique laissée par un client sur un produit. Diriez-vous qu'elle est négative ou positive ? \\nCritique : \"\"\"+review, \n\n\"\"\"Voici une évaluation laissée par un client sur un produit. Diriez-vous qu'elle est négative ou positive ? \\nEvaluation : \"\"\"+review, \n\n'Commentaire du produit : \"'+review+'\" Ce commentaire dépeint le produit sous un angle négatif ou positif ?', \n\n'Avis du produit : \"'+review+'\" Cet avis dépeint le produit sous un angle négatif ou positif ?', \n\n'Critique du produit : \"'+review+'\" Cette critique dépeint le produit sous un angle négatif ou positif ?', \n \n'Evaluation du produit : \"'+review+'\" Cette évaluation dépeint le produit sous un angle négatif ou positif ?', \n\n'Le commentaire suivant exprime quel sentiment ?\\n Commentaire' +review, \n \n\"\"\"L'avis suivant exprime quel sentiment ?\\n Avis\"\"\" +review, \n\n'La critique suivante exprime quel sentiment ?\\n Critique' +review, \n\n\"\"\"L'évaluation suivante exprime quel sentiment ?\\n Evaluation\"\"\" +review`\nAn example:\n\n\n\nDatasets\n--------",
"### Abirate/french\\_book\\_reviews\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @misc {abir\\_eltaief\\_2023, \n> \n> \n> \n>",
"#### License\n\n\nCC0: Public Domain\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### allocine\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> Théophile Blard, French sentiment analysis with BERT, (2020), GitHub repository, URL\n> \n> \n>",
"#### License\n\n\nMIT\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{marc\\_reviews, \n> \n> \n> \n>",
"#### License\n\n\nURL\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nQuestion Answering\n==================\n\n\nIn the (extractive) Question Answering task, the model answers a question based on an associated contextual text.\nNote that here we handle cases where the answer is indeed in the text provided, but also the case where the answer may not be present in the text.\n\n\n42 prompts\n----------\n\n\n`# SQUAD 1.0 format \n \n'Question : \"'+question+'\"\\nContexte : \"'+context+'\" Réponse :', \n \n'La réponse à la question \"'+question+'\" se trouve dans \"'+context+'\" Pouvez-vous me la dire ?', \n \n'La réponse à la question \"'+question+'\" se trouve dans \"'+context+'\" Peux-tu me la dire ?', \n \n'Extraire la réponse à la question à partir du contexte suivant.\\n Question : \"'+question+'\" Contexte : \"'+context+'\"', \n \n'Extrais la réponse à la question à partir du contexte suivant.\\n Question : \"'+question+'\" Contexte : \"'+context+'\"', \n \n'Extrayez la réponse à la question à partir du contexte suivant.\\n Question : \"'+question+'\" Contexte : \"'+context+'\"', \n \n'Étant donné le passage suivant : \"'+context+'\"\\n Répondre à la question suivante sachant que la réponse est présente dans le texte.\\n Question : \"'+question+'\"', \n \n'Étant donné le passage suivant : \"'+context+'\"\\n Réponds à la question suivante sachant que la réponse est présente dans le texte.\\n Question : \"'+question+'\"', \n \n'Étant donné le passage suivant : \"'+context+'\"\\n Répondez à la question suivante sachant que la réponse est présente dans le texte.\\n Question : \"'+question+'\"', \n \n\"\"\"La réponse à la question : \" \"\"\"+question+\"\"\" \" se trouve dans le texte : \" \"\"\"+context+\"\"\" \"\\n Peux-tu l'indiquer ?\"\"\", \n \n\"\"\"La réponse à la question : \" \"\"\"+question+\"\"\" \" se trouve dans le texte : \" \"\"\"+context+\"\"\" \"\\n Pouvez-vous l'indiquer ?\"\"\", \n \n\"\"\"La réponse à la question : \" \"\"\"+question+\"\"\" \" se trouve dans le texte : \" \"\"\"+context+\"\"\" \"\\n Qu'elle est-elle ?\"\"\",",
"# SQUAD 2.0 format \n \n'\"'+question+'\"\\n Répondre à la question ci-dessus en se basant sur le contexte suivant : \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+question+'\"\\n Réponds à la question ci-dessus en te basant sur le contexte suivant : \"'+context+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'\"'+question+'\"\\n Répondez à la question ci-dessus en vous basant sur le contexte suivant : \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Utiliser le texte suivant pour répondre à la question : '+question+ '\\n\\n \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Utilise le texte suivant pour répondre à la question : '+question+ '\\n\\n \"'+context+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Utilisez le texte suivant pour répondre à la question : '+question+ '\\n\\n \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Lire le texte suivant et extraire la réponse à la question : \"'+question+'\"\\n\\n \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Lis le texte suivant et extrais la réponse à la question : \"'+question+'\"\\n\\n \"'+context+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Lisez le texte suivant et extrayez la réponse à la question : \"'+question+'\"\\n\\n \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n\\nSur la base du texte ci-dessus, répondre correctement à la question suivante : \\n\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n\\nSur la base du texte ci-dessus, réponds correctement à la question suivante : \\n\\n \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n\\nSur la base du texte ci-dessus, répondez répondre correctement à la question suivante : \\n\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Contexte : '+ context +'\\n Compte tenu du texte ci-dessus, répondre correctement à la question suivante : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Contexte : '+ context +'\\n Compte tenu du texte ci-dessus, réponds correctement à la question suivante : \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Contexte : '+ context +'\\n Compte tenu du texte ci-dessus, répondez correctement à la question suivante : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n Extraire du passage la réponse à la question suivante : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n Extrais du passage la réponse à la question suivante : \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n Extrayez du passage la réponse à la question suivante : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Compte tenu du passage suivant, répondre à la question qui suit : \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Compte tenu du passage suivant, réponds à la question qui suit : \"'+context+'\"\\n \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Compte tenu du passage suivant, répondez à la question qui suit : \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Après avoir lu le paragraphe, répondre à la question suivante : \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Après avoir lu le paragraphe, réponds à la question suivante : \"'+context+'\"\\n \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Après avoir lu le paragraphe, répondez à la question suivante : \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Se référer au passage ci-dessous et répondre à la question suivante:\\n Passage : \"'+context+'\"Question : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Référe-toi au passage ci-dessous et réponds à la question suivante:\\n Passage : \"'+context+'\"Question : \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Référez-vous au passage ci-dessous et répondez à la question suivante:\\n Passage : \"'+context+'\"Question : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Lire le passage suivant et répondez à la question qui suit : \\n \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Lis le passage suivant et répondez à la question qui suit : \\n \"'+context+'\"\\n \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Lisez le passage suivant et répondez à la question qui suit : \\n \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".',`\nAn example:\n\n\n\nDatasets\n--------",
"### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> Hugging Face repository: URL\n> \n> \n>",
"#### License\n\n\napache-2.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_qa' dataset has the same license as the original dataset from which it is derived.",
"### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @ARTICLE{2020arXiv200206071 \n> \n> \n> \n>",
"#### License\n\n\nCC BY-NC-SA 3.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_qa' dataset has the same license as the original dataset from which it is derived.",
"### etalab-ia/piaf\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @InProceedings{keraron-EtAl:2020:LREC, \n> \n> \n> \n>",
"#### License\n\n\nMIT\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_qa' dataset has the same license as the original dataset from which it is derived.",
"### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> Hugging Face repository: URL\n> \n> \n>",
"#### License\n\n\nCC BY-NC-SA 4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_qa' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nContext generation with answer and question\n===========================================\n\n\nText generation task where we use the answer and the question in a QA dataset to generate a context.\n\n\n24 prompts\n----------\n\n\n`'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", écrire un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", écris un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", écrivez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", rédiger un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", rédige un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", rédigez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", générer un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", génère un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", générez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", créer un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", crée un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", créez un texte explicatif.\\nTexte : ', \n\n'Ecrire un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Ecris un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Ecrivez un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Rédiger un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Rédige un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Rédigez un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Générer un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Génère un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Générez un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Créer un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Crée un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Créez un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : '`\nAn example:\n\n\n\nDatasets\n--------",
"### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_context\\_generation\\_with\\_answer\\_and\\_question' dataset has the same license as the original dataset from which it is derived.",
"### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_context\\_generation\\_with\\_answer\\_and\\_question' dataset has the same license as the original dataset from which it is derived.",
"### etalab-ia/piaf\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_context\\_generation\\_with\\_answer\\_and\\_question' dataset has the same license as the original dataset from which it is derived.",
"### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_context\\_generation\\_with\\_answer\\_and\\_question' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nQuestion generation with answer and context\n===========================================\n\n\nText generation task where we use the answer and the context in a QA dataset to generate a question.\n\n\n21 prompts\n----------\n\n\n`'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n \n'Quelle question aurais-tu pu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question auriez-vous pu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question peut être posée pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question peux-tu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question pouvez-vous poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Générer une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Génère une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Générez une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouver une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouves une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouvez une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Créer une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Crée trouver une bonne question pour le texte suivant : \"'+context+'\"', \n \n'Sachant la réponse suivante : \"'+answer+'\"\\n Créez trouver une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecrire une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecris une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecrivez une bonne question pour le texte suivant : \"'+context+'\"`\nAn example:\n\n\n\nDatasets\n--------",
"### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_question\\_generation\\_with\\_answer\\_and\\_context' dataset has the same license as the original dataset from which it is derived.",
"### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_question\\_generation\\_with\\_answer\\_and\\_context' dataset has the same license as the original dataset from which it is derived.",
"### etalab-ia/piaf\n\n\nOriginal: URL\nThe dataset is in native French.\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_question\\_generation\\_with\\_answer\\_and\\_context' dataset has the same license as the original dataset from which it is derived.",
"### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_question\\_generation\\_with\\_answer\\_and\\_context' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nQuestion generation with answer\n===============================\n\n\nText generation task where we use the answer in a QA dataset to generate a question.\n\n\n22 prompts\n----------\n\n\n`'Quelle question donnerait la réponse suivante ? Réponse : \"'+answer+'\";\\nQuestion :', \n\n'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante . \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurait pu être posée pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurais-tu pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question auriez-vous pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurait pu être posée pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurais-tu pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question auriez-vous pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Générer une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Génère une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Générez une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouver une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouves une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouvez une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Créer une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Crée trouver une bonne question : ', \n \n'Sachant la réponse suivante : \"'+answer+'\"\\n Créez trouver une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecrire une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecris une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecrivez une bonne question`\nAn example:\n\n\n\nDatasets\n--------",
"### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_question\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.",
"### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_question\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.",
"### etalab-ia/piaf\n\n\nOriginal: URL\nThe dataset is in native French.\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_question\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.",
"### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_question\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nQuestion generation with context\n================================\n\n\nText generation task where we use the context in a QA dataset to generate a question.\n\n\n24 prompts\n----------\n\n\n`'\"'+context+'\"\\n Générer une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Génère une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Générez une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Trouver une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Trouve une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Trouvez une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Créer une bonne question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Crée trouver une bonne question à partir du texte ci-dessus : ', \n \n'\"'+context+'\"\\n Créez trouver une bonne question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Ecrire une bonne question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Ecris une bonne question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Ecrivez une bonne question à partir du texte ci-dessus : ', \n\n'Générer une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Génère une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Générez une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Trouver une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Trouve une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Trouvez trouver une bonne question pour le texte suivant : \"'+context+'\"', \n \n'Créer une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Crée trouver une bonne question pour le texte suivant : \"'+context+'\"', \n \n'Créez trouver une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Ecrire une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Ecris une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Ecrivez une bonne question pour le texte suivant : \"'+context+'\"'`\nAn example:\n\n\n\nDatasets\n--------",
"### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_question\\_generation\\_with\\_context' dataset has the same license as the original dataset from which it is derived.",
"### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_question\\_generation\\_with\\_context' dataset has the same license as the original dataset from which it is derived.",
"### etalab-ia/piaf\n\n\nOriginal: URL\nThe dataset is in native French.\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_question\\_generation\\_with\\_context' dataset has the same license as the original dataset from which it is derived.",
"### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_question\\_generation\\_with\\_context' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nContext generation with question\n================================\n\n\nText generation task where we use the question in a QA dataset to generate a context.\n\n\n24 prompts\n----------\n\n\n`'Étant donné la question \"'+question+'\", écrire un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", écris un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", écrivez un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", rédiger un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", rédige un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", rédigez un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", générer un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", génère un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", générez un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", créer un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", crée un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", créez un texte explicatif.\\nTexte : ', \n\n'Ecrire un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Ecris un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Ecrivez un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Rédiger un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Rédige un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Rédigez un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Générer un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Génère un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Générez un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Créer un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Crée un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Créez un texte comme contexte à la question \"'+question+'\" \\nTexte : '`\nAn example:\n\n\n\nDatasets\n--------",
"### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_context\\_generation\\_with\\_question' dataset has the same license as the original dataset from which it is derived.",
"### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_context\\_generation\\_with\\_question' dataset has the same license as the original dataset from which it is derived.",
"### etalab-ia/piaf\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_context\\_generation\\_with\\_question' dataset has the same license as the original dataset from which it is derived.",
"### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_context\\_generation\\_with\\_question' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nContext generation with answer\n==============================\n\n\nText generation task where we use the answer in a QA dataset to generate a context.\n\n\n24 prompts\n----------\n\n\n`'Étant donné la réponse \"'+ answer+'\", écrire un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", écris un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", écrivez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", rédiger un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", rédige un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", rédigez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", générer un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", génère un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", générez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", créer un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", crée un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", créez un texte explicatif.\\nTexte : ', \n\n'Ecrire un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Ecris un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Ecrivez un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Rédiger un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Rédige un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Rédigez un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Générer un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Génère un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Générez un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Créer un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Crée un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Créez un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ',`\nAn example:\n\n\n\nDatasets\n--------",
"### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_context\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.",
"### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_context\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.",
"### etalab-ia/piaf\n\n\nOriginal: URL\nThe dataset is in native French.\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_context\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.",
"### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_context\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nSummarization\n=============\n\n\nSummarization is the task of producing a shorter version of a document while preserving its important information.\n\n\n28 prompts\n----------\n\n\n`'Résumer le texte suivant : \"'+document+'\"', \n\n'Résume le texte suivant : \"'+document+'\"', \n\n'Résumez le texte suivant : \"'+document+'\"', \n\n'Résumer le texte suivant en quelques mots : \"'+document+'\"', \n\n'Résume le texte suivant en quelques mots : \"'+document+'\"', \n\n'Résumez le texte suivant en quelques mots : \"'+document+'\"', \n\n\"Condenser le texte à l'essentiel :\" +document, \n\n\"Condense le texte à l'essentiel :\" +document, \n\n\"Condensez le texte à l'essentiel :\" +document, \n\n'\"'+document+' Rédiger un résumé du texte ci-dessus :', \n \n'\"'+document+' Rédige un résumé du texte ci-dessus :', \n\n'\"'+document+' Rédigez un résumé du texte ci-dessus :', \n\n'Premièrement, lire le texte ci-dessous. \\n\\n \"'+document+'\"\\n\\n Maintenant, rédiger un court résumé.', \n \n'Premièrement, lis le texte ci-dessous. \\n\\n \"'+document+'\"\\n\\n Maintenant, rédige un court résumé.', \n\n'Premièrement, lisez le texte ci-dessous. \\n\\n \"'+document+'\"\\n\\n Maintenant, rédigez un court résumé.', \n\n'Article : \"'+document+'\"/n Résumé : ', \n\n'\"'+document+' Comment reformuler cela en quelques mots ?', \n \n'\"'+document+' Comment peux-tu reformuler cela en quelques mots ?', \n\n'\"'+document+' Comment pouvez-vous reformuler cela en quelques mots ?', \n\n'Résumer ce document : \"'+document+'\" Résumé :', \n\n'Résume ce document : \"'+document+'\" Résumé :', \n\n'Résumez ce document : \"'+document+'\" Résumé :', \n\n'\"'+document+' Compte tenu du document ci-dessus, écrire une phrase pour le résumer :', \n\n'\"'+document+' Compte tenu du document ci-dessus, écris une phrase pour le résumer :', \n\n'\"'+document+' Compte tenu du document ci-dessus, écrivez une phrase pour le résumer :', \n\n'\"'+document+' Rédiger un résumé du texte ci-dessus : ', \n\n'\"'+document+' Rédige un résumé du texte ci-dessus : ', \n\n'\"'+document+' Rédigez un résumé du texte ci-dessus : '`\nAn example:\n\n\n\nDatasets\n--------",
"### orange\\_sum\n\n\nNote: we use the split 'abstract'. \n\n\n\n\nCitation and License\n\n> \n> @article{eddine2020barthez, \n> \n> \n> \n>",
"#### License\n\n\nCC-BY-SA-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_summarization' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nText generation from an article\n===============================\n\n\nThe task consists in using a text base to generate a suite to this text.\n\n\n24 prompts\n----------\n\n\n`'\"'+document+'\"\\n Continuer le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Continue le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Continuez le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Poursuivre le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Poursuis le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Poursuivez le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Prolonger le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Prolonge le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Prolongez le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Rédiger la suite du texte : ', \n \n'\"'+document+'\"\\n Rédige la suite du texte : ', \n \n'\"'+document+'\"\\n Rédigez la suite du texte : ', \n \n'\"'+document+'\"\\n Imaginer la suite du texte : ', \n \n'\"'+document+'\"\\n Imagine la suite du texte : ', \n \n'\"'+document+'\"\\n Imaginez la suite du texte : ', \n \n'\"'+document+'\"\\n Ecrire la suite du texte : ', \n \n'\"'+document+'\"\\n Ecris la suite du texte : ', \n \n'\"'+document+'\"\\n Ecriver la suite du texte : ', \n \n'\"'+document+'\"\\n Développer la suite du texte : ', \n \n'\"'+document+'\"\\n Développe la suite du texte : ', \n \n'\"'+document+'\"\\n Développez la suite du texte : ', \n \n'\"'+document+'\"\\nGénérer la suite du texte : ', \n \n'\"'+document+'\"\\nGénère la suite du texte : ', \n \n'\"'+document+'\"\\n Générez la suite du texte : ',`\nAn example:\n\n\n\nDatasets\n--------",
"### orange\\_sum\n\n\nNote: we use the split 'abstract'. \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_text\\_generation\\_from\\_an\\_article' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nTitle generation from an article\n================================\n\n\nThe aim is to generate a title for a given text.\n\n\n19 prompts\n----------\n\n\n`'\"'+document+'\"\\n Générer un titre pour cet article :', \n \n'\"'+document+'\"\\n Génère un titre pour cet article :', \n \n'\"'+document+'\"\\n Générez un titre pour cet article :', \n \n'\"'+document+'\"\\n Rédiger un titre pour cet article :', \n \n'\"'+document+'\"\\n Rédige un titre pour cet article :', \n \n'\"'+document+'\"\\n Rédigez un titre pour cet article :', \n \n'\"'+document+'\"\\n Ecrire un titre pour cet article :', \n \n'\"'+document+'\"\\n Ecris un titre pour cet article :', \n \n'\"'+document+'\"\\n Ecrivez un titre pour cet article :', \n \n\"Générer un titre pour l'article suivant : \"+document, \n \n\"Génère un titre pour l'article suivant : \"+document, \n \n\"Générez un titre pour l'article suivant : \"+document, \n \n\"Rédiger un titre pour l'article suivant : \"+document, \n \n\"Rédige un titre pour l'article suivant : \"+document, \n \n\"Rédigez un titre pour l'article suivant : \"+document, \n \n\"Ecrire un titre pour l'article suivant : \"+document, \n \n\"Ecris un titre pour l'article suivant : \"+document, \n \n\"Ecrivez un titre pour l'article suivant : \"+document, \n'\"'+document+'\"\\n Titre :\\n '`\nAn example:\n\n\n\nDatasets\n--------",
"### orange\\_sum\n\n\nNote: we use the split 'title'. \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_title\\_generation\\_from\\_an\\_article' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nFill mask\n=========\n\n\nMasked language modeling is the task of masking some of the words in a sentence and predicting which words should replace those masks.\nIn our case, for a given text, we have hidden one word per sentence of the text.\n\n\n24 prompts\n----------\n\n\n'Remplacer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Remplace le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Remplacez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Remplacer le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Remplace le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Remplacez le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Substituer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Substitue le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Substituez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Substituer le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Substitue le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Substituez le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Changer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Change le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Changez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Changer le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Change le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Changez le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Transformer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Transforme le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Transformez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Transformer le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Transforme le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Transformez le <mask> dans le texte suivant par le mot le plus probable : '+text,\n\n\nAn example:\n\n\n\nDatasets\n--------",
"### orange\\_sum\n\n\nNote: we use the split 'abstract'. \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_fill\\_mask' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nBinary text generation from a title of a review\n===============================================\n\n\nThe aim is to generate a text positive ou negative depending on the prompt selected by the user.\n\n\n36 prompts\n----------\n\n\n`# negative \n\n'Rédiger un commentaire négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédige un commentaire négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédigez un commentaire négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédiger un avis négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédige un avis négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédigez un avis négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédiger une critique négative dont le titre est : \"'+title+'\"\".', \n\n'Rédige une critique négative dont le titre est : \"'+title+'\"\".', \n\n'Rédigez une critique négative dont le titre est : \"'+title+'\"\".', \n\n'Rédiger une évaluation négative dont le titre est : \"'+title+'\"\".', \n\n'Rédige une évaluation négative dont le titre est : \"'+title+'\"\".', \n\n'Rédigez une évaluation négative dont le titre est : \"'+title+'\"\".', \n\n\"\"\"Générer un commentaire négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Génère un commentaire négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générez un commentaire négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générer un avis négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Génère un avis négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générez un avis négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générer une critique négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Génère une critique négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générez une critique négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générer une évaluation négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Génère une évaluation négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Générez une évaluation négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n'Titre : \"'+title +'\"\\n Ecrire un commentaire négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris un commentaire négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez un commentaire négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire un avis négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris un avis négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez un avis négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire une critique négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris une critique négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez une critique négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire une évaluation négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris une évaluation négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez une évaluation négative de 1 à 5 phrases sur le titre précédent : ',",
"# positive \n\n'Rédiger un commentaire positif dont le titre est : '+title+'.', \n\n'Rédige un commentaire positif dont le titre est : '+title+'.', \n\n'Rédigez un commentaire positif dont le titre est : '+title+'.', \n\n'Rédiger un avis positif dont le titre est : '+title+'.', \n\n'Rédige un avis positif dont le titre est : '+title+'.', \n\n'Rédigez un avis positif dont le titre est : '+title+'.', \n\n'Rédiger une critique positive dont le titre est : '+title+'.', \n\n'Rédige une critique positive dont le titre est : '+title+'.', \n\n'Rédigez une critique positive dont le titre est : '+title+'.', \n\n'Rédiger une évaluation positive dont le titre est : '+title+'.', \n\n'Rédige une évaluation positive dont le titre est : '+title+'.', \n\n'Rédigez une évaluation positive dont le titre est : '+title+'.', \n\n\"\"\"Générer un commentaire positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Génère un commentaire positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générez un commentaire positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générer un avis positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Génère un avis positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générez un avis positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générer une critique positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Génère une critique positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générez une critique positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générer une évaluation positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Génère une évaluation positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Générez une évaluation positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n'Titre : \"'+title +'\"\\n Ecrire un commentaire positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris un commentaire positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez un commentaire positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire un avis positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris un avis positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez un avis positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire une critique positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris une critique positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez une critique positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire une évaluation positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris une évaluation positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez une évaluation positive de 1 à 5 phrases sur le titre précédent : ',`\nAn example:\n\n\n\nDatasets\n--------",
"### Abirate/french\\_book\\_reviews\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nText generation from a title of a review type\n=============================================\n\n\nReview generation from a title.\n\n\n36 prompts\n----------\n\n\n`'Rédiger un commentaire dont le titre est : \"'+title+'\"', \n\n'Rédige un commentaire dont le titre est : \"'+title+'\"', \n\n'Rédigez un commentaire dont le titre est : \"'+title+'\"', \n\n'Rédiger un avis dont le titre est : \"'+title+'\"', \n\n'Rédige un avis dont le titre est : \"'+title+'\"', \n\n'Rédigez un avis dont le titre est : \"'+title+'\"', \n\n'Rédiger une critique dont le titre est : \"'+title+'\"', \n\n'Rédige une critique dont le titre est : \"'+title+'\"', \n\n'Rédigez une critique dont le titre est : \"'+title+'\"', \n\n'Rédiger une évaluation dont le titre est : \"'+title+'\"', \n\n'Rédige une évaluation dont le titre est : \"'+title+'\"', \n\n'Rédigez une évaluation dont le titre est : \"'+title+'\"', \n\n\"\"\"Générer un commentaire d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Génère un commentaire d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générez un commentaire d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générer un avis d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Génére un avis d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générez un avis d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générer une critique d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Génère une critique d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générez une critique d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générer une évaluation d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Génère une évaluation d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Générez une évaluation d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n'Titre : \"'+title +'\"\\nEcrire un commentaire de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcris un commentaire de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrivez un commentaire de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrire un avis de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcris un avis de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrivez un avis de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrire une critique de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcris une critique de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrivez une critique de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrire une évaluation de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcris une évaluation de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrivez une évaluation de 1 à 5 phrases sur le titre précédent : ',`\nAn example:\n\n\n\nDatasets\n--------",
"### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nText generation from a title of an article\n==========================================\n\n\nArticle generation from a title.\n\n\n27 prompts\n----------\n\n\n`'Rédiger un texte dont le titre est : \"'+title+'\".', \n\n'Rédige un texte dont le titre est : \"'+title+'\".', \n\n'Rédigez un texte dont le titre est : \"'+title+'\".', \n\n'Rédiger une article dont le titre est : \"'+title+'\".', \n\n'Rédige un article dont le titre est : \"'+title+'\".', \n\n'Rédigez un article dont le titre est : \"'+title+'\".', \n\n'Rédiger un document dont le titre est : \"'+title+'\".', \n\n'Rédige un document dont le titre est : \"'+title+'\".', \n\n'Rédigez un document dont le titre est : \"'+title+'\".', \n\n‘Génèrer un texte dont le titre est : \"'+title+'\".\\nTexte : ', \n\n'Génère un texte dont le titre est : \"'+title+'\".\\nTexte : ', \n\n‘Génèrez un texte dont le titre est : \"'+title+'\".\\nTexte : ', \n\n‘Génèrer un article dont le titre est : \"'+title+'\".\\nArticle : ', \n\n‘Génère un article dont le titre est : \"'+title+'\".\\nArticle : ', \n\n‘Génèrez un article dont le titre est : \"'+title+'\".\\nArticle : ', \n\n‘Génèrer un document dont le titre est : \"'+title+'\".\\nDocument : ', \n\n'Génère un document dont le titre est : \"'+title+'\".\\nDocument : ', \n\n‘Génèrez un document dont le titre est : \"'+title+'\".\\nDocument : ', \n\n'\"'+title +'\"\\n Ecrire un texte de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecris un texte de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrivez un texte de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrire un article de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecris un article de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrivez un article de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrire un document de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecris un document de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrivez un document de 1 à 5 phrases sur le titre précédent : '`\nAn example:\n\n\n\nDatasets\n--------\n\n\nDatasets\n--------",
"### orange\\_sum\n\n\nNote: we use the split 'abstract'. \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_text\\_generation\\_from\\_title\\_of\\_an\\_article' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nTitle generation from a review\n==============================\n\n\nThe aim is to generate a title for a given text which is a review.\n\n\n18 prompts\n----------\n\n\n`review+'\\n Générer un titre pour cet avis : ', \n \nreview+'\\n Génère un titre pour cet avis : ', \n \nreview+'\\n Générez un titre pour cet avis : ', \n \nreview+'\\n Rédiger un titre pour cet avis : ', \n \nreview+'\\n Rédige un titre pour cet avis : ', \n \nreview+'\\n Rédigez un titre pour cet avis : ', \n \nreview+'\\n Ecrire un titre pour cet avis : ', \n \nreview+'\\n Ecris un titre pour cet avis : ', \n \nreview+'\\n Ecrivez un titre pour cet avis : ', \n \n\"\"\"Générer un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Génère un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Générez un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Rédiger un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Rédige un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Rédigez un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Ecrire un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Ecris un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Ecrivez un titre pour l'avis suivant : \"\"\"+review,\nreview+'\\n Titre :\\n '`\nAn example:",
"### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nClasses classfication\n=====================\n\n\nTask of assigning a label/class to a given text.\n\n\n21 prompts\n----------\n\n\n`'Le texte suivant parle-t-il de \"'+classes+'\" ?\\n Texte : '+text, \n\n'Le texte suivant concerne-t-il \"'+classes+'\" ?\\n Texte : '+text, \n\n'Le texte suivant évoque-t-il \"'+classes+'\" ?\\n Texte : '+text, \n\ntext+'\\n Étant donné la liste de catégories suivante : \"'+classes+'\" à quelle catégorie appartient le texte ?', \n\ntext+'\\n Étant donné la liste de classes suivante : \"'+classes+'\" à quelle classe appartient le texte ?', \n\n'Étant donné une liste de catégories : \"'+classes+'\" à quelle catégorie appartient le texte suivant ?\\n Texte : '+text, \n\n'Étant donné une liste de classes : \"'+classes+'\" à quelle classe appartient le texte suivant ?\\n Texte : '+text, \n\n'Étant donné un choix de catégories : \"'+classes+'\", le texte fait référence à laquelle ?\\n Texte : '+text, \n\n'Étant donné un choix de classe : \"'+classes+'\", le texte fait référence à laquelle ?\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text`\nAn example:\n\n\n\nDatasets\n--------",
"### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nStars classfication\n===================\n\n\nTask consisting in assigning a score between 1 and 5 to a review text.\n\n\n22 prompts\n----------\n\n\n`\"\"\"Donner un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donne un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donnez un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donner un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donne un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donnez un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donner un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donne un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donnez un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Noter avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Note avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Notez avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Noter avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Note avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Notez avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Noter avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Note avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Notez avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\nreview+'Pour ce texte, je donne la note de ', \n\n'Texte : '+review+'\\n Étoiles :', \n\n'Texte : '+review+'\\n Note (entre 1 et 5) :', \n\n'Commentaire : '+review+'\\n Sur une échelle de 1 à 5, je donnerais une note de :'`\nAn example:\n\n\n\nDatasets\n--------",
"### Abirate/french\\_book\\_reviews\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.",
"#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nIntent classfication\n====================\n\n\nTask consisting in assigning an intent to a text.\n\n\n30 prompts\n----------\n\n\n`text+'\\n Étant donné la liste de catégories suivante : \"'+classes+'\" à quelle catégorie appartient le texte ?', \n\ntext+'\\n Étant donné la liste de classes suivante : \"'+classes+'\" à quelle classe appartient le texte ?', \n\n'Étant donné une liste de catégories : \"'+classes+'\" à quelle catégorie appartient le texte suivant ?\\n Texte : '+text, \n\n'Étant donné une liste de classes : \"'+classes+'\" à quelle classe appartient le texte suivant ?\\n Texte : '+text, \n\n'Étant donné un choix de catégories : \"'+classes+'\", le texte fait référence à laquelle ?\\n Texte : '+text, \n\n'Étant donné un choix de classe : \"'+classes+'\", le texte fait référence à laquelle ?\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Parmi la liste de catégories suivantes : \"'+classes+'\",\\n indiquer celle présente dans le texte : '+text, \n\n'Parmi la liste de classes suivantes : \"'+classes+'\",\\n indiquer celle présente dans le texte : '+text, \n\n\"\"\"Parmi la liste d'intentions suivantes : \" \"\"\"+classes+\"\"\" \",\\n indiquer celle présente dans le texte : \"\"\"+text, \n\ntext+\"\"\"\\n Étant donné la liste d'intentions suivante : \" \"\"\"+classes+\"\"\" \", à quelle intention appartient le texte ?\"\"\", \n\n\"\"\"Étant donné une liste d'intentions : \" \"\"\"+classes+\"\"\" \", à quelle intention appartient le texte suivant ?\\n Texte : \"\"\"+text, \n\n\"\"\"Étant donné un choix d'intentions : \" \"\"\"+classes+\"\"\" \", le texte fait référence à laquelle ?\"\"\", \n\n'Choisir une intention pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une intention pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une intention pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une intention pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une intention pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une intention pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text`\nAn example:\n\n\n\nDatasets\n--------",
"### SetFit/amazon\\_massive\\_intent\\_fr-FR\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> @misc{fitzgerald2022massive, \n> \n> \n> \n>",
"#### License\n\n\nApache 2.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### mteb/mtop\\_domain\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @misc{li2021mtop, \n> \n> \n> \n>",
"#### License\n\n\nUnknown\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nNamed Entity Recognition\n========================\n\n\nAssigns a class to each word in a text. Possible classes here are People, Location, Organizations, and Other.\n\n\n21 prompts\n----------\n\n\n`'Extraire les entités nommées du texte suivant : '+text, \n\n'Extrais les entités nommées du texte suivant : '+text, \n\n'Extrayez les entités nommées du texte suivant : '+text, \n\n'Isoler les entités nommées du texte suivant : '+text, \n\n'Isole les entités nommées du texte suivant : '+text, \n\n'Isolez les entités nommées du texte suivant : '+text, \n\n'Dégager des entités nommées dans le texte : '+text, \n\n'Dégage des entités nommées dans le texte : '+text, \n\n'Dégagez des entités nommées dans le texte : '+text, \n\n'Générer des entités nommées issues du texte suivant : '+text, \n\n'Génère des entités nommées issues du texte suivant : '+text, \n\n'Générez des entités nommées issues du texte suivant : '+text, \n\n'Trouver les entités nommées du texte : '+text, \n\n'Trouve les entités nommées du texte : '+text, \n\n'Trouvez les entités nommées du texte : '+text, \n\n'Repérer les entités nommées présentes dans le texte suivant : '+text, \n\n'Repère les entités nommées présentes dans le texte suivant : '+text, \n\n'Repérez les entités nommées présentes dans le texte suivant : '+text, \n\n'Indiquer les entités nommées du texte :'+text, \n\n'Indique les entités nommées du texte : '+text, \n\n'Indiquez les entités nommées du texte : '+text`\nAn example:\n\n\n\nDatasets\n--------",
"### tner/wikiann\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{pan-etal-2017-cross, \n> \n> \n> \n>",
"#### License\n\n\nUnknow\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### tner/wikineural\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{tedeschi-etal-2021-wikineural-combined, \n> \n> \n> \n>",
"#### License\n\n\nUnknow\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### tner/multinerd\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{tedeschi-navigli-2022-multinerd, \n> \n> \n> \n>",
"#### License\n\n\nUnknow\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.",
"### Jean-Baptiste/wikiner\\_fr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @article{NOTHMAN2013151, \n> \n> \n> \n>",
"#### License\n\n\nUnknow\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nPart-of-speech\n==============\n\n\nAssigns a class to each word in a text. Possible classes here are Adposition, Adjective, Adverb, Auxiliary, Coordinating conjunction, Determiner, Interjection, Noun, Numeral, Particle, Pronoun, Proper noun, Punctuation, Subordinating conjunction, Symbol, Verb and Other.\n\n\n21 prompts\n----------\n\n\n`'Extraire les classes des mots du texte suivant : '+text, \n \n'Extrais les classes des mots du texte suivant : '+text, \n \n'Extrayez les classes des mots du texte suivant : '+text, \n \n'Isoler les classes des mots du texte suivant : '+text, \n \n'Isole les classes des mots du texte suivant : '+text, \n \n'Isolez les classes des mots du texte suivant : '+text, \n \n'Dégager les classes des mots dans le texte : '+text, \n \n'Dégage les classes des mots dans le texte : '+text, \n \n'Dégagez les classes des mots dans le texte : '+text, \n \n'Générer les classes des mots issues du texte suivant : '+text, \n \n'Génère les classes des mots issues du texte suivant : '+text, \n \n'Générez les classes des mots issues du texte suivant : '+text, \n \n'Trouver les classes des mots du texte : '+text, \n \n'Trouve les classes des mots du texte : '+text, \n \n'Trouvez les classes des mots du texte : '+text, \n \n'Repérer les classes des mots présentes dans le texte suivant : '+text, \n \n'Repère les classes des mots présentes dans le texte suivant : '+text, \n \n'Repérez les classes des mots présentes dans le texte suivant : '+text, \n \n'Indiquer les classes des mots du texte :'+text, \n \n'Indique les classes des mots du texte : '+text, \n \n'Indiquez les classes des mots du texte : '+text`\nAn example:",
"### universal\\_dependencies\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{nivre-etal-2020-universal, \n> \n> \n> \n>",
"#### License\n\n\nThe 'fr\\_gsd', 'fr\\_partut' and 'fr\\_spoken' splits are licensed under cc-by-nc-4.0. \n\n\n\n\nWith prompts:\nURL \n\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'universal\\_dependencies\\_fr\\_fqb\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_gsd\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_partut\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_pud\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_sequoia\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_spoken\\_fr\\_prompt\\_pos' datasets have the same license as the original dataset from which they are derived.\n\n\n\n\n\nData-to-text\n============\n\n\nText generation from keywords.\n30 prompts\n----------\n\n\n`'Assembler les concepts suivants pour former une phrase : \"'+concepts+'\".', \n\n'Assemble les concepts suivants pour former une phrase : \"'+concepts+'\".', \n\n'Assemblez les concepts suivants pour former une phrase : \"'+concepts+'\".', \n\n'Étant donné la liste des concepts : \"'+concepts+'\". Générer une phrase avec tous les concepts : ', \n\n'Étant donné la liste des concepts : \"'+concepts+'\". Génère une phrase avec tous les concepts : ', \n\n'Étant donné la liste des concepts : \"'+concepts+'\". Générez une phrase avec tous les concepts : ', \n\n'Convertir les concepts en une phrase : \"'+concepts+'\".', \n\n'Convertis les concepts en une phrase : \"'+concepts+'\".', \n\n'Convertissez les concepts en une phrase : \"'+concepts+'\".', \n\n'Combiner tous les concepts suivants dans un texte concis et grammaticalement correct \"'+concepts+'\". Texte : ', \n\n'Combine tous les concepts suivants dans un texte concis et grammaticalement correct \"'+concepts+'\". Texte : ', \n\n'Combinez tous les concepts suivants dans un texte concis et grammaticalement correct \"'+concepts+'\". Texte : ', \n\n'Générer une phrase à partir des informations fournies ci-contre : \"'+concepts+'\".', \n\n'Génère une phrase à partir des informations fournies ci-contre : \"'+concepts+'\".', \n\n'Générez une phrase à partir des informations fournies ci-contre : \"'+concepts+'\".', \n\n'Verbaliser les concepts suivants séparés par une virgule : \"'+concepts+'\".', \n\n'Verbalise les concepts suivants séparés par une virgule : \"'+concepts+'\".', \n\n'Verbalisez les concepts suivants séparés par une virgule : \"'+concepts+'\".', \n\n'Générer un texte intégrant les concepts suivants '+concepts+'\". Texte :', \n\n'Génère un texte intégrant les concepts suivants '+concepts+'\". Texte :', \n\n'Générez un texte intégrant les concepts suivants '+concepts+'\". Texte :', \n\n'\"'+concepts+'\". Ecrire 1 à 5 phrases sur les concepts précédents.', \n\n'\"'+concepts+'\". Ecris 1 à 5 phrases sur les concepts précédents.', \n\n'\"'+concepts+'\". Ecrivez 1 à 5 phrases sur les concepts précédents.', \n\n'Rédiger un texte avec : \"'+concepts+'\".', \n\n'Rédige un texte avec : \"'+concepts+'\".', \n\n'Rédigez un texte avec : \"'+concepts+'\".', \n\n'Écrire un texte sur les concepts suivants : \"'+concepts+'\".', \n\n'Écris un texte sur les concepts suivants : \"'+concepts+'\".', \n\n'Écrivez un texte sur les concepts suivants : \"'+concepts+'\".',`\nAn example:\n\n\n\nDatasets\n--------",
"### taln-ls2n/termith-eval\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>",
"#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'termith-eval\\_fr\\_prompt\\_data\\_to\\_text' dataset has the same license as the original dataset from which it is derived.",
"### taln-ls2n/taln-archives\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>",
"#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'taln-archives\\_fr\\_prompt\\_data\\_to\\_text' dataset has the same license as the original dataset from which it is derived.",
"### taln-ls2n/wikinews-fr-100\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>",
"#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'wikinews-fr-100\\_fr\\_prompt\\_data\\_to\\_text' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nKeywords extraction\n===================\n\n\n21 prompts\n----------\n\n\n`'Extraire les mots clés importants du texte suivant : '+text, \n\n'Extrais les mots clés importants du texte suivant : '+text, \n\n'Extrayez les mots clés importants du texte suivant : '+text, \n\n'Isoler les mots clés importants du texte suivant : '+text, \n\n'Isole les mots clés importants du texte suivant : '+text, \n\n'Isolez les mots clés importants du texte suivant : '+text, \n\n'Dégager des mots clés dans le texte : '+text, \n\n'Dégage des mots clés dans le texte : '+text, \n\n'Dégagez des mots clés dans le texte : '+text, \n\n'Générer des mots clés issus du texte suivant : '+text, \n\n'Génère des mots clés issus du texte suivant : '+text, \n\n'Générez des mots clés issus du texte suivant : '+text, \n\n'Trouver les mots clés du texte : '+text, \n\n'Trouve les mots clés du texte : '+text, \n\n'Trouvez les mots clés du texte : '+text, \n\n'Repérer les mots clés importants présents dans le texte suivant : '+text, \n\n'Repère les mots clés importants présents dans le texte suivant : '+text, \n\n'Repérez les mots clés importants présents dans le texte suivant : '+text, \n\n'Indiquer les mots clés du texte : '+text, \n\n'Indiquer les mots clés du texte : '+text, \n\n'Indiquer les mots clés du texte : '+text`\nAn example:\n\n\n\nDatasets\n--------",
"### taln-ls2n/termith-eval\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>",
"#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'termith-eval\\_fr\\_prompt\\_keywords\\_extraction' dataset has the same license as the original dataset from which it is derived.",
"### taln-ls2n/taln-archives\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>",
"#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'taln-archives\\_fr\\_prompt\\_keywords\\_extraction' dataset has the same license as the original dataset from which it is derived.",
"### taln-ls2n/wikinews-fr-100\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>",
"#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"#### License\n\n\nThe 'wikinews-fr-100\\_fr\\_prompt\\_keywords\\_extraction' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\n> \n> @misc {centre\\_aquitain\\_des\\_technologies\\_de\\_l'information\\_et\\_electroniques\\_2023, \n> \n> \n> \n>"
] |
[
213,
50,
26,
1110,
61,
100,
695,
29,
41,
1410,
33,
90,
44,
118,
56,
827,
32,
33,
685,
31,
41,
624,
57,
33,
24,
128,
26,
1000,
43,
30,
24,
42,
26,
24,
38,
26,
632,
1671,
42,
29,
51,
29,
32,
37,
40,
26,
37,
29,
32,
993,
45,
41,
70,
27,
41,
56,
32,
41,
56,
32,
41,
1053,
45,
41,
70,
27,
41,
56,
41,
41,
56,
32,
41,
777,
45,
41,
63,
27,
41,
49,
41,
41,
49,
32,
41,
670,
45,
41,
63,
27,
41,
49,
41,
41,
49,
32,
41,
756,
45,
41,
63,
27,
41,
49,
32,
41,
49,
32,
41,
738,
45,
41,
63,
27,
41,
49,
41,
41,
49,
32,
41,
721,
38,
32,
588,
39,
41,
438,
37,
41,
657,
39,
41,
1267,
1126,
38,
41,
24,
34,
41,
1153,
34,
41,
724,
39,
41,
434,
34,
41,
744,
34,
41,
789,
38,
41,
24,
34,
41,
1092,
45,
28,
24,
34,
28,
461,
35,
27,
24,
45,
27,
24,
42,
27,
24,
35,
27,
471,
38,
64,
1020,
223,
31,
46,
223,
31,
46,
223,
31,
420,
223,
31,
46,
223,
31,
46,
223,
31,
90
] |
[
"passage: TAGS\n#task_categories-text-classification #task_categories-token-classification #task_categories-question-answering #task_categories-zero-shot-classification #task_categories-summarization #task_categories-text-generation #task_categories-text2text-generation #task_categories-fill-mask #task_categories-sentence-similarity #annotations_creators-found #language_creators-found #multilinguality-monolingual #size_categories-100M<n<1B #language-French #DFP #french prompts #arxiv-2211.01786 #arxiv-2002.06071 #arxiv-2204.08582 #arxiv-2008.09335 #doi-10.57967/hf/1200 #region-us \n### stsb\\_multi\\_mt\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @InProceedings{huggingface:dataset:stsb\\_multi\\_mt, \n> \n> \n> \n>#### License\n\n\nURL\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'stsb\\_multi\\_mt\\_fr\\_prompt\\_sentence\\_similarity' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nParaphrase detection\n====================\n\n\nParaphrase detection consists in indicating whether two sentences have the same meaning or not.\nIn our case, the target/output is \"Oui\" or \"Non\".\n22 prompts\n----------\n\n\n`'Puis-je remplacer la phrase \"'+sentence1+'\" par la phrase \"'+sentence2+'\" et que cela garde la même signification ?', \n \n'Peut-on remplacer la phrase \"'+sentence1+'\" par la phrase \"'+sentence2+'\" et que cela garde la même signification ?', \n \n'Les deux phrases suivantes signifient-elles la même chose ? \\n \"'+sentence1+'\"\\n \"'+sentence2+'\"', \n \n'Je veux savoir si les deux phrases suivantes signifient la même chose. \\n \"'+sentence1+'\"\\n \"'+sentence2+'\"\\n Le sont-elles ?', \n \n'On veut savoir si les deux phrases suivantes signifient la même chose. \\n \"'+sentence1+'\"\\n \"'+sentence2+'\"\\n Le sont-elles ?', \n \n'Nous voulons savoir si les deux phrases suivantes signifient la même chose. \\n \"'+sentence1+'\"\\n \"'+sentence2+'\"\\n Le sont-elles ?', \n \n'La phrase \"'+sentence1+'\" paraphrase-t-elle (= signifie-t-elle la même chose que) cette phrase ? \"'+sentence2+'\"', \n \n'Les deux phrases suivantes sont-elles équivalentes ou non équivalentes ? \"'+ sentence1+'\"\\n\"'+sentence2+'\"', \n \n'Déterminer si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : \"'+sentence1+'\\n Phrase 2 : \"'+sentence2+'\"', \n \n'Déterminez si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : \"'+sentence1+'\\n Phrase 2 : \"'+sentence2+'\"', \n \n'Détermine si les deux phrases suivantes se paraphrasent ou non. Phrase 1 : \"'+sentence1+'\\n Phrase 2 : \"'+sentence2+'\"', \n \n'\"'+sentence1+'\" Est-ce une paraphrase de la phrase suivante ? \"'+sentence2+'\"', \n \n'\"'+sentence1+'\" Est-ce une paraphrase de la phrase suivante ? \"'+sentence2+'\" Oui ou Non ?', \n \n'\"'+sentence1+'\" Question : \"'+sentence2+'\" est une paraphrase ou non ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : La phrase 1 et la phrase 2 expriment-elles le même sens ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : La phrase 1 et la phrase 2 expriment-elles le même sens ? Oui ou Non ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : Peut-on réécrire la phrase 1 en phrase 2 ?' , \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : Puis-je réécrire la phrase 1 en phrase 2 ?' , \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : Peut-on réécrire la phrase 1 en phrase 2 ? Oui ou Non ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : Puis-je réécrire la phrase 1 en phrase 2 ? Oui ou Non ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : La phrase 1 paraphrase-t-elle la phrase 2 ?', \n \n'Phrase 1 : \"'+sentence1+'\"\\n Phrase 2 : \"'+sentence2+'\"\\n Question : La phrase 1 paraphrase-t-elle la phrase 2 ? Oui ou Non ?'`\nAn example:\n\n\n\nDatasets\n--------### paws-x\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @InProceedings{pawsx2019emnlp,\n> title = {{PAWS-X: A Cross-lingual Adversarial Dataset for Paraphrase Identification}}, \n> \n> \n> \n>#### License\n\n\nThe dataset may be freely used for any purpose, although acknowledgement of Google LLC (\"Google\") as the data source would be appreciated. The dataset is provided \"AS IS\" without any warranty, express or implied. Google disclaims all liability for any damages, direct or indirect, resulting from the use of the dataset.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'paws-x\\_fr\\_prompt\\_paraphrase\\_detection' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nParaphrase generation\n=====================\n\n\nParaphrase generation consists to generate a sentence semantically similar to a given sentence.\n24 prompts\n----------\n\n\n`'Générer une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Génère une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Générez une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Paraphraser la phrase suivante : \"'+sentence1+'\"', \n \n'Paraphrase la phrase suivante : \"'+sentence1+'\"', \n \n'Paraphrasez la phrase suivante : \"'+sentence1+'\"', \n \n'Créer une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Crée une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Créez une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Créer une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Crée une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Créez une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Ecrire une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Ecris une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Ecrivez une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Ecrire une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Ecris une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Ecrivez une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Rédiger une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Rédige une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Rédigez une phrase qui signifie la même chose que celle-ci : \"'+sentence1+'\"', \n \n'Rédiger une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Rédige une paraphrase de la phrase suivante : \"'+sentence1+'\"', \n \n'Rédigez une paraphrase de la phrase suivante : \"'+sentence1+'\"'`\nAn example:\n\n\n\nDatasets\n--------### paws-x\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'paws-x\\_fr\\_prompt\\_paraphrase\\_generation' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nTextual entailment\n==================\n\n\nThis task consists of indicating whether a hypothesis applied to a sentence is true, false or unsure.\nIn our case, the target/output is \"vrai\", \"faux\" or \"incertain\".\n22 prompts\n----------\n\n\n`\"\"\"Prendre l'énoncé suivant comme vrai : \" \"\"\"+premise+\"\"\" \"\\n Alors l'énoncé suivant : \" \"\"\"+hypothesis+\"\"\" \" est \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Prends l'énoncé suivant comme vrai : \" \"\"\"+premise+\"\"\" \"\\n Alors l'énoncé suivant : \" \"\"\"+hypothesis+\"\"\" \" est \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Prenez l'énoncé suivant comme vrai : \" \"\"\"+premise+\"\"\" \"\\n Alors l'énoncé suivant : \" \"\"\"+hypothesis+\"\"\" \" est \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n'\"'+premise+'\"\\nQuestion : Cela implique-t-il que \"'+hypothesis+'\" ? \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'\"'+premise+'\"\\nQuestion : \"'+hypothesis+'\" est \"vrai\", \"faux\", ou \"peut-être\" ?', \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\n D'après le passage précédent, est-il vrai que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nSur la base de ces informations, l'énoncé est-il : \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nEn gardant à l'esprit le texte ci-dessus, considérez : \" \"\"\"+hypothesis+\"\"\" \"\\n Est-ce que c'est \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nEn gardant à l'esprit le texte ci-dessus, considére : \" \"\"\"+hypothesis+\"\"\" \"\\n Est-ce que c'est \"vrai\", \"faux\", ou \"peut-être\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nEn utilisant uniquement la description ci-dessus et ce que vous savez du monde, \" \"\"\"+hypothesis+\"\"\" \" est-ce \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\" \" \"\"\"+premise+\"\"\" \"\\nEn utilisant uniquement la description ci-dessus et ce que tu sais du monde, \" \"\"\"+hypothesis+\"\"\" \" est-ce \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Étant donné que \" \"\"\"+premise+\"\"\" \", s'ensuit-il que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Étant donné que \" \"\"\"+premise+\"\"\" \", est-il garanti que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n'Étant donné '+premise+', doit-on supposer que '+hypothesis+' est \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'Étant donné '+premise+', dois-je supposer que '+hypothesis+' est \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'Sachant que '+premise+', doit-on supposer que '+hypothesis+' est \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'Sachant que '+premise+', dois-je supposer que '+hypothesis+' est \"vrai\", \"faux\", ou \"incertain\" ?', \n \n'Étant donné que '+premise+', il doit donc être vrai que '+hypothesis+' ? \"vrai\", \"faux\", ou \"incertain\" ?', \n \n\"\"\"Supposons que \" \"\"\"+premise+\"\"\" \", pouvons-nous déduire que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Supposons que \" \"\"\"+premise+\"\"\" \", puis-je déduire que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Supposons qu'il est vrai que \" \"\"\"+premise+\"\"\" \". Alors, est-ce que \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\", \n \n\"\"\"Supposons qu'il soit vrai que \" \"\"\"+premise+\"\"\" \",\\n Donc, \" \"\"\"+hypothesis+\"\"\" \" ? \"vrai\", \"faux\", ou \"incertain\" ?\"\"\"`\nAn example:\n\n\n\nDatasets\n--------### xnli\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @InProceedings{conneau2018xnli, \n> \n> \n> \n>#### License\n\n\nThe majority of the corpus sentences are released under the OANC’s license which allows all content to be freely used, modified, and shared under permissive terms. The data in the Fiction genre from Captain Blood are in the public domain in the United States (but may be licensed differently elsewhere).\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'xnli\\_fr\\_prompt\\_textual\\_entailment' dataset has the same license as the original dataset from which it is derived.### MoritzLaurer/multilingual-NLI-26lang-2mil7\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @article{laurer\\_less\\_2022,\n> title = {Less {Annotating}, {More} {Classifying} – {Addressing} the {Data} {Scarcity} {Issue} of {Supervised} {Machine} {Learning} with {Deep} {Transfer} {Learning} and {BERT} - {NLI}}, \n> \n> \n> \n>#### License\n\n\nThe 'fr\\_anli' and 'fr\\_wanli' splits are licensed under cc-by-nc-4.0. \n\n\n\n\nWith prompts:\nURL \n\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'anli\\_fr\\_prompt\\_textual\\_entailment', 'fever\\_fr\\_prompt\\_textual\\_entailment', 'ling\\_fr\\_prompt\\_textual\\_entailment', 'mnli\\_fr\\_prompt\\_textual\\_entailment', 'wanli\\_fr\\_prompt\\_textual\\_entailment' datasets have the same license as the original dataset from which they are derived.\n\n\n\n\n\nTextual simplification\n======================\n\n\nThis task involves cutting a very long sentence into two smaller ones to simplify reading.\n20 prompts\n----------\n\n\n`'Simplifier la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Simplifie la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Simplifiez la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Alléger la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Allège la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Allégez la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Clarifier la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Clarifie la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'Clarifiez la phrase suivante en la divisant tout en conservant son sens complet : \"'+source+'\" Version simplifiée : ', \n \n'\"'+source+'\" La phrase ci-dessus est trop compliquée. Fournir une version simplifiée composée de plusieurs phrases : ', \n \n'\"'+source+'\" La phrase ci-dessus est trop compliquée. Fournis une version simplifiée composée de plusieurs phrases : ', \n \n'\"'+source+'\" La phrase ci-dessus est trop compliquée. Fournissez une version simplifiée composée de plusieurs phrases : ', \n \n'\"'+source+'\" Cette phrase est difficile à comprendre. Une version plus simple avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est difficile à comprendre. Une version moins complexe avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est difficile à comprendre. Une version plus légère avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est difficile à comprendre. Une version épurée avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est lourde. Une version plus simple avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est lourde. Une version moins complexe avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est lourde. Une version plus légère avec une signification équivalente est la suivante : ', \n \n'\"'+source+'\" Cette phrase est lourde. Une version épurée avec une signification équivalente est la suivante : '`\nAn example:\n\n\n\nDatasets\n--------### GEM/BiSECT\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{bisect2021, \n> \n> \n> \n>#### License\n\n\ncc-by-nc-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'bisect\\_fr\\_prompt\\_textual\\_simplification' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nTextual merging\n===============\n\n\nThis task involves merging two short sentences into a single longer one.\n\n\n21 prompts\n----------\n\n\n`'Fusionner les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version fusionnée : ', \n\n'Fusionne les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version fusionnée : ', \n\n'Fusionnez les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version fusionnée : ', \n\n'Combiner les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version combinée : ', \n\n'Combine les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version combinée : ', \n\n'Combinez les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version combinée : ', \n\n'Réunir les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version réunie : ', \n\n'Réunis les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version réunie : ', \n\n'Réunissez les deux phrases suivantes en une seule tout en conservant leurs sens : \"'+source+'\" Version réunie : ', \n\n'\"'+source+' Fournir une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Fournis une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Fournissez une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Ecrire une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Ecris une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Ecrivez une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Rédiger une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Rédige une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Rédigez une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Générer une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Génère une version synonyme en une phrase des deux phrases précédentes : ', \n\n'\"'+source+' Générez une version synonyme en une phrase des deux phrases précédentes : '`\nAn example:\n\n\n\nDatasets\n--------### GEM/BiSECT\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'bisect\\_fr\\_prompt\\_textual\\_merging' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nCoreference\n===========\n\n\nA Winograd schema is a pair of sentences that differ by only one or two words and contain an ambiguity that is resolved in opposite ways in both sentences, requiring the use of world knowledge and reasoning for its resolution.\n\n\n10 prompts\n----------\n\n\n`'\"'+sentence+'\"\\nRemplacer le \"_\" dans la phrase ci-dessus par la bonne option :\\n- \"'+option1+'\"\\n- \"'+option2+'\"', \n\n'\"'+sentence+'\"\\nRemplace le \"_\" dans la phrase ci-dessus par la bonne option :\\n- \"'+option1+'\"\\n- \"'+option2+'\"', \n\n'\"'+sentence+'\"\\nRemplacez le \"_\" dans la phrase ci-dessus par la bonne option :\\n- \"'+option1+'\"\\n- \"'+option2+'\"', \n\n'\"'+sentence+'\" Dans la phrase précédente, \"_\" fait-il référence à \"'+option1+'\" ou \"'+option2+'\" ?', \n\n'\"'+sentence+'\" À quoi le \"_\" dans la phrase ci-dessus fait-il référence ? \"'+option1+'\" ou \"'+option2+'\" ?', \n \n'\"'+sentence+'\" Le \"_\" dans la phrase ci-dessous fait référence à \"'+option1+'\"\\n- \"'+option2+'\" ?', \n\n'Remplisser le \"_\" de la phrase suivante : \"'+sentence+ '\"\\nChoix :\\n- \"'+option1+'\"\\n- \"'+option2+'\"\\nRéponse :', \n\n'Remplis le \"_\" de la phrase suivante : \"'+sentence+ '\"\\nChoix :\\n- \"'+option1+'\"\\n- \"'+option2+'\"\\nRéponse :', \n\n'Remplissez le \"_\" de la phrase suivante : \"'+sentence+ '\"\\nChoix :\\n- \"'+option1+'\"\\n- \"'+option2+'\"\\nRéponse :', \n\n'Dans la phrase ci-dessous, le \"_\" renvoie-t-il à \"'+option1+'\" ou \"'+option2+'\" ? : '+sentence,`\n\nDatasets\n--------### Muennighoff/xwinograd\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @misc{muennighoff2022crosslingual,\n> title={Crosslingual Generalization through Multitask Finetuning}, \n> \n> \n> \n>#### License\n\n\ncc-by-nc-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.### demelin/wino\\_x\n\n\nOriginal: URL\nNote: only the French portion of this multilingual dataset is kept for our use.\nThe French split was obtained via an automatic translation of the English split.\n\n\n\nCitation and License\n\n> \n> @inproceedings{Emelin2021WinoXMW, title={Wino-X: Multilingual Winograd Schemas for Commonsense Reasoning and Coreference Resolution}, author={Denis Emelin and Rico Sennrich}, booktitle={EMNLP}, year={2021} }\n> \n> \n>#### License\n\n\nMIT\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nSentiment analysis\n==================\n\n\nThe goal is to classify a text into one of two categories: positive or negative.\nIn our case, the target/output is \"pos\" (for positive) or \"neg\" (for negative).\n\n\n28 prompts\n----------\n\n\n`'Commentaire : \"'+review+'\" Le commentaire est-il positif ou négatif ?', \n\n\"\"\"Avis : \" \"\"\"+review+\"\"\" \" L'avis est-il positif ou négatif ?\"\"\", \n\n'Critique : \"'+review+'\" La critique est-elle positive ou négative ?', \n\n\"\"\"Evaluation : \" \"\"\"+review+\"\"\" \" L'évaluation est-elle positive ou négative ?\"\"\", \n\n'Ce commentaire sur le produit est-il positif ou négatif ? \\nCommentaire : \"'+review+'\"\\nRéponse :', \n\n'Cet avis sur le produit est-il positif ou négatif ? \\nAvis : \"'+review+'\"\\nRéponse :', \n\n'Cette critique sur le produit est-elle positive ou négative ? \\nCritique : \"'+review+'\"\\nRéponse :', \n\n'Cette évaluation sur le produit est-elle positive ou négative ? \\nEvaluation : \"'+review+'\"\\nRéponse :', \n\n'Commentaire : \"'+review+'\"\\n Ce commentaire sur le produit exprime-t-il un sentiment négatif ou positif ?', \n\n'Avis : \"'+review+'\"\\n Cet avis sur le produit exprime-t-il un sentiment négatif ou positif ?', \n\n'Critique : \"'+review+'\"\\n Cette critique sur le produit exprime-t-il un sentiment négatif ou positif ?', \n\n'Evaluation : \"'+review+'\"\\n Cette évaluation sur le produit exprime-t-il un sentiment négatif ou positif ?', \n\n'Ce commentaire sur le produit a-t-il un ton négatif ou positif ? \\n Commentaire : \"'+review+'\"\\n Réponse :', \n\n'Cet avis sur le produit a-t-il un ton négatif ou positif ? \\n Avis : \"'+review+'\"\\n Réponse :', \n\n'Cette critique sur le produit a-t-il un ton négatif ou positif ? \\n Evaluation : \"'+review+'\"\\n Réponse :', \n\n'Cette évaluation sur le produit a-t-il un ton négatif ou positif ? \\n Avis : \"'+review+'\"\\n Réponse :', \n\n\"\"\"Voici un commentaire laissé par un client sur un produit. Diriez-vous qu'il est négatif ou positif ? \\nCommentaire : \"\"\"+review, \n\n\"\"\"Voici un avis laissé par un client sur un produit. Diriez-vous qu'il est négatif ou positif ? \\nAvis : \"\"\"+review, \n\n\"\"\"Voici une critique laissée par un client sur un produit. Diriez-vous qu'elle est négative ou positive ? \\nCritique : \"\"\"+review, \n\n\"\"\"Voici une évaluation laissée par un client sur un produit. Diriez-vous qu'elle est négative ou positive ? \\nEvaluation : \"\"\"+review, \n\n'Commentaire du produit : \"'+review+'\" Ce commentaire dépeint le produit sous un angle négatif ou positif ?', \n\n'Avis du produit : \"'+review+'\" Cet avis dépeint le produit sous un angle négatif ou positif ?', \n\n'Critique du produit : \"'+review+'\" Cette critique dépeint le produit sous un angle négatif ou positif ?', \n \n'Evaluation du produit : \"'+review+'\" Cette évaluation dépeint le produit sous un angle négatif ou positif ?', \n\n'Le commentaire suivant exprime quel sentiment ?\\n Commentaire' +review, \n \n\"\"\"L'avis suivant exprime quel sentiment ?\\n Avis\"\"\" +review, \n\n'La critique suivante exprime quel sentiment ?\\n Critique' +review, \n\n\"\"\"L'évaluation suivante exprime quel sentiment ?\\n Evaluation\"\"\" +review`\nAn example:\n\n\n\nDatasets\n--------### Abirate/french\\_book\\_reviews\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @misc {abir\\_eltaief\\_2023, \n> \n> \n> \n>#### License\n\n\nCC0: Public Domain\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.### allocine\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> Théophile Blard, French sentiment analysis with BERT, (2020), GitHub repository, URL\n> \n> \n>#### License\n\n\nMIT\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{marc\\_reviews, \n> \n> \n> \n>#### License\n\n\nURL\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nQuestion Answering\n==================\n\n\nIn the (extractive) Question Answering task, the model answers a question based on an associated contextual text.\nNote that here we handle cases where the answer is indeed in the text provided, but also the case where the answer may not be present in the text.\n\n\n42 prompts\n----------\n\n\n`# SQUAD 1.0 format \n \n'Question : \"'+question+'\"\\nContexte : \"'+context+'\" Réponse :', \n \n'La réponse à la question \"'+question+'\" se trouve dans \"'+context+'\" Pouvez-vous me la dire ?', \n \n'La réponse à la question \"'+question+'\" se trouve dans \"'+context+'\" Peux-tu me la dire ?', \n \n'Extraire la réponse à la question à partir du contexte suivant.\\n Question : \"'+question+'\" Contexte : \"'+context+'\"', \n \n'Extrais la réponse à la question à partir du contexte suivant.\\n Question : \"'+question+'\" Contexte : \"'+context+'\"', \n \n'Extrayez la réponse à la question à partir du contexte suivant.\\n Question : \"'+question+'\" Contexte : \"'+context+'\"', \n \n'Étant donné le passage suivant : \"'+context+'\"\\n Répondre à la question suivante sachant que la réponse est présente dans le texte.\\n Question : \"'+question+'\"', \n \n'Étant donné le passage suivant : \"'+context+'\"\\n Réponds à la question suivante sachant que la réponse est présente dans le texte.\\n Question : \"'+question+'\"', \n \n'Étant donné le passage suivant : \"'+context+'\"\\n Répondez à la question suivante sachant que la réponse est présente dans le texte.\\n Question : \"'+question+'\"', \n \n\"\"\"La réponse à la question : \" \"\"\"+question+\"\"\" \" se trouve dans le texte : \" \"\"\"+context+\"\"\" \"\\n Peux-tu l'indiquer ?\"\"\", \n \n\"\"\"La réponse à la question : \" \"\"\"+question+\"\"\" \" se trouve dans le texte : \" \"\"\"+context+\"\"\" \"\\n Pouvez-vous l'indiquer ?\"\"\", \n \n\"\"\"La réponse à la question : \" \"\"\"+question+\"\"\" \" se trouve dans le texte : \" \"\"\"+context+\"\"\" \"\\n Qu'elle est-elle ?\"\"\",",
"passage: # SQUAD 2.0 format \n \n'\"'+question+'\"\\n Répondre à la question ci-dessus en se basant sur le contexte suivant : \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+question+'\"\\n Réponds à la question ci-dessus en te basant sur le contexte suivant : \"'+context+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'\"'+question+'\"\\n Répondez à la question ci-dessus en vous basant sur le contexte suivant : \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Utiliser le texte suivant pour répondre à la question : '+question+ '\\n\\n \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Utilise le texte suivant pour répondre à la question : '+question+ '\\n\\n \"'+context+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Utilisez le texte suivant pour répondre à la question : '+question+ '\\n\\n \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Lire le texte suivant et extraire la réponse à la question : \"'+question+'\"\\n\\n \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Lis le texte suivant et extrais la réponse à la question : \"'+question+'\"\\n\\n \"'+context+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Lisez le texte suivant et extrayez la réponse à la question : \"'+question+'\"\\n\\n \"'+context+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n\\nSur la base du texte ci-dessus, répondre correctement à la question suivante : \\n\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n\\nSur la base du texte ci-dessus, réponds correctement à la question suivante : \\n\\n \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n\\nSur la base du texte ci-dessus, répondez répondre correctement à la question suivante : \\n\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Contexte : '+ context +'\\n Compte tenu du texte ci-dessus, répondre correctement à la question suivante : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Contexte : '+ context +'\\n Compte tenu du texte ci-dessus, réponds correctement à la question suivante : \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Contexte : '+ context +'\\n Compte tenu du texte ci-dessus, répondez correctement à la question suivante : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n Extraire du passage la réponse à la question suivante : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n Extrais du passage la réponse à la question suivante : \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'\"'+context+'\"\\n Extrayez du passage la réponse à la question suivante : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Compte tenu du passage suivant, répondre à la question qui suit : \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Compte tenu du passage suivant, réponds à la question qui suit : \"'+context+'\"\\n \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Compte tenu du passage suivant, répondez à la question qui suit : \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Après avoir lu le paragraphe, répondre à la question suivante : \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Après avoir lu le paragraphe, réponds à la question suivante : \"'+context+'\"\\n \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Après avoir lu le paragraphe, répondez à la question suivante : \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Se référer au passage ci-dessous et répondre à la question suivante:\\n Passage : \"'+context+'\"Question : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Référe-toi au passage ci-dessous et réponds à la question suivante:\\n Passage : \"'+context+'\"Question : \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Référez-vous au passage ci-dessous et répondez à la question suivante:\\n Passage : \"'+context+'\"Question : \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Lire le passage suivant et répondez à la question qui suit : \\n \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".', \n \n'Lis le passage suivant et répondez à la question qui suit : \\n \"'+context+'\"\\n \"'+question+'\"\\n Si tu ne trouves pas la réponse, répondre \"sans réponse\".', \n \n'Lisez le passage suivant et répondez à la question qui suit : \\n \"'+context+'\"\\n \"'+question+'\"\\n Si vous ne trouvez pas la réponse, répondre \"sans réponse\".',`\nAn example:\n\n\n\nDatasets\n--------### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> Hugging Face repository: URL\n> \n> \n>#### License\n\n\napache-2.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_qa' dataset has the same license as the original dataset from which it is derived.### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @ARTICLE{2020arXiv200206071 \n> \n> \n> \n>#### License\n\n\nCC BY-NC-SA 3.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_qa' dataset has the same license as the original dataset from which it is derived.### etalab-ia/piaf\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @InProceedings{keraron-EtAl:2020:LREC, \n> \n> \n> \n>#### License\n\n\nMIT\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_qa' dataset has the same license as the original dataset from which it is derived.### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> Hugging Face repository: URL\n> \n> \n>#### License\n\n\nCC BY-NC-SA 4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_qa' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nContext generation with answer and question\n===========================================\n\n\nText generation task where we use the answer and the question in a QA dataset to generate a context.\n\n\n24 prompts\n----------\n\n\n`'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", écrire un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", écris un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", écrivez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", rédiger un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", rédige un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", rédigez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", générer un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", génère un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", générez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", créer un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", crée un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\" à la question \"'+question+'\", créez un texte explicatif.\\nTexte : ', \n\n'Ecrire un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Ecris un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Ecrivez un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Rédiger un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Rédige un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Rédigez un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Générer un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Génère un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Générez un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Créer un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Crée un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : ', \n\n'Créez un texte comme contexte de la réponse \"'+ answer+'\" à la question \"'+question+'\" \\nTexte : '`\nAn example:\n\n\n\nDatasets\n--------### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_context\\_generation\\_with\\_answer\\_and\\_question' dataset has the same license as the original dataset from which it is derived.### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_context\\_generation\\_with\\_answer\\_and\\_question' dataset has the same license as the original dataset from which it is derived.### etalab-ia/piaf\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_context\\_generation\\_with\\_answer\\_and\\_question' dataset has the same license as the original dataset from which it is derived.### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_context\\_generation\\_with\\_answer\\_and\\_question' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nQuestion generation with answer and context\n===========================================\n\n\nText generation task where we use the answer and the context in a QA dataset to generate a question.\n\n\n21 prompts\n----------\n\n\n`'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n \n'Quelle question aurais-tu pu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question auriez-vous pu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question peut être posée pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question peux-tu poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question pouvez-vous poser pour obtenir la réponse suivante dans le contexte donné. \\n Contexte : \"'+context+'\";\\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Générer une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Génère une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Générez une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouver une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouves une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouvez une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Créer une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Crée trouver une bonne question pour le texte suivant : \"'+context+'\"', \n \n'Sachant la réponse suivante : \"'+answer+'\"\\n Créez trouver une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecrire une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecris une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecrivez une bonne question pour le texte suivant : \"'+context+'\"`\nAn example:\n\n\n\nDatasets\n--------### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_question\\_generation\\_with\\_answer\\_and\\_context' dataset has the same license as the original dataset from which it is derived.### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_question\\_generation\\_with\\_answer\\_and\\_context' dataset has the same license as the original dataset from which it is derived.### etalab-ia/piaf\n\n\nOriginal: URL\nThe dataset is in native French.\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_question\\_generation\\_with\\_answer\\_and\\_context' dataset has the same license as the original dataset from which it is derived.### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_question\\_generation\\_with\\_answer\\_and\\_context' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nQuestion generation with answer\n===============================\n\n\nText generation task where we use the answer in a QA dataset to generate a question.\n\n\n22 prompts\n----------\n\n\n`'Quelle question donnerait la réponse suivante ? Réponse : \"'+answer+'\";\\nQuestion :', \n\n'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante . \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurait pu être posée pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurais-tu pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question auriez-vous pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurait pu être posée pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question aurais-tu pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Quelle question auriez-vous pu poser pour obtenir la réponse suivante. \\n Réponse : \"'+answer+'\";\\n Question :', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Générer une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Génère une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Générez une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouver une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouves une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Trouvez une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Créer une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Crée trouver une bonne question : ', \n \n'Sachant la réponse suivante : \"'+answer+'\"\\n Créez trouver une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecrire une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecris une bonne question : ', \n\n'Sachant la réponse suivante : \"'+answer+'\"\\n Ecrivez une bonne question`\nAn example:\n\n\n\nDatasets\n--------### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_question\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_question\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.### etalab-ia/piaf\n\n\nOriginal: URL\nThe dataset is in native French.\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_question\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_question\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nQuestion generation with context\n================================\n\n\nText generation task where we use the context in a QA dataset to generate a question.\n\n\n24 prompts\n----------\n\n\n`'\"'+context+'\"\\n Générer une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Génère une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Générez une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Trouver une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Trouve une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Trouvez une question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Créer une bonne question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Crée trouver une bonne question à partir du texte ci-dessus : ', \n \n'\"'+context+'\"\\n Créez trouver une bonne question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Ecrire une bonne question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Ecris une bonne question à partir du texte ci-dessus : ', \n\n'\"'+context+'\"\\n Ecrivez une bonne question à partir du texte ci-dessus : ', \n\n'Générer une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Génère une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Générez une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Trouver une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Trouve une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Trouvez trouver une bonne question pour le texte suivant : \"'+context+'\"', \n \n'Créer une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Crée trouver une bonne question pour le texte suivant : \"'+context+'\"', \n \n'Créez trouver une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Ecrire une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Ecris une bonne question pour le texte suivant : \"'+context+'\"', \n\n'Ecrivez une bonne question pour le texte suivant : \"'+context+'\"'`\nAn example:\n\n\n\nDatasets\n--------### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_question\\_generation\\_with\\_context' dataset has the same license as the original dataset from which it is derived.### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_question\\_generation\\_with\\_context' dataset has the same license as the original dataset from which it is derived.### etalab-ia/piaf\n\n\nOriginal: URL\nThe dataset is in native French.\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_question\\_generation\\_with\\_context' dataset has the same license as the original dataset from which it is derived.### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_question\\_generation\\_with\\_context' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nContext generation with question\n================================\n\n\nText generation task where we use the question in a QA dataset to generate a context.\n\n\n24 prompts\n----------\n\n\n`'Étant donné la question \"'+question+'\", écrire un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", écris un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", écrivez un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", rédiger un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", rédige un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", rédigez un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", générer un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", génère un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", générez un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", créer un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", crée un texte explicatif.\\nTexte : ', \n\n'Étant donné la question \"'+question+'\", créez un texte explicatif.\\nTexte : ', \n\n'Ecrire un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Ecris un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Ecrivez un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Rédiger un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Rédige un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Rédigez un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Générer un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Génère un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Générez un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Créer un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Crée un texte comme contexte à la question \"'+question+'\" \\nTexte : ', \n\n'Créez un texte comme contexte à la question \"'+question+'\" \\nTexte : '`\nAn example:\n\n\n\nDatasets\n--------### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_context\\_generation\\_with\\_question' dataset has the same license as the original dataset from which it is derived.### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_context\\_generation\\_with\\_question' dataset has the same license as the original dataset from which it is derived.### etalab-ia/piaf\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_context\\_generation\\_with\\_question' dataset has the same license as the original dataset from which it is derived.### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_context\\_generation\\_with\\_question' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nContext generation with answer\n==============================\n\n\nText generation task where we use the answer in a QA dataset to generate a context.\n\n\n24 prompts\n----------\n\n\n`'Étant donné la réponse \"'+ answer+'\", écrire un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", écris un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", écrivez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", rédiger un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", rédige un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", rédigez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", générer un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", génère un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", générez un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", créer un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", crée un texte explicatif.\\nTexte : ', \n\n'Étant donné la réponse \"'+ answer+'\", créez un texte explicatif.\\nTexte : ', \n\n'Ecrire un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Ecris un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Ecrivez un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Rédiger un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Rédige un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Rédigez un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Générer un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Génère un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Générez un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Créer un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Crée un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ', \n\n'Créez un texte comme contexte de la réponse \"'+ answer+'\" \\nTexte : ',`\nAn example:\n\n\n\nDatasets\n--------### pragnakalp/squad\\_v2\\_french\\_translated\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'squad\\_v2\\_french\\_translated\\_fr\\_prompt\\_context\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.### fquad\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'fquad\\_fr\\_prompt\\_context\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.### etalab-ia/piaf\n\n\nOriginal: URL\nThe dataset is in native French.\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'piaf\\_fr\\_prompt\\_context\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.### lincoln/newsquadfr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'newsquadfr\\_fr\\_prompt\\_context\\_generation\\_with\\_answer' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nSummarization\n=============\n\n\nSummarization is the task of producing a shorter version of a document while preserving its important information.\n\n\n28 prompts\n----------\n\n\n`'Résumer le texte suivant : \"'+document+'\"', \n\n'Résume le texte suivant : \"'+document+'\"', \n\n'Résumez le texte suivant : \"'+document+'\"', \n\n'Résumer le texte suivant en quelques mots : \"'+document+'\"', \n\n'Résume le texte suivant en quelques mots : \"'+document+'\"', \n\n'Résumez le texte suivant en quelques mots : \"'+document+'\"', \n\n\"Condenser le texte à l'essentiel :\" +document, \n\n\"Condense le texte à l'essentiel :\" +document, \n\n\"Condensez le texte à l'essentiel :\" +document, \n\n'\"'+document+' Rédiger un résumé du texte ci-dessus :', \n \n'\"'+document+' Rédige un résumé du texte ci-dessus :', \n\n'\"'+document+' Rédigez un résumé du texte ci-dessus :', \n\n'Premièrement, lire le texte ci-dessous. \\n\\n \"'+document+'\"\\n\\n Maintenant, rédiger un court résumé.', \n \n'Premièrement, lis le texte ci-dessous. \\n\\n \"'+document+'\"\\n\\n Maintenant, rédige un court résumé.', \n\n'Premièrement, lisez le texte ci-dessous. \\n\\n \"'+document+'\"\\n\\n Maintenant, rédigez un court résumé.', \n\n'Article : \"'+document+'\"/n Résumé : ', \n\n'\"'+document+' Comment reformuler cela en quelques mots ?', \n \n'\"'+document+' Comment peux-tu reformuler cela en quelques mots ?', \n\n'\"'+document+' Comment pouvez-vous reformuler cela en quelques mots ?', \n\n'Résumer ce document : \"'+document+'\" Résumé :', \n\n'Résume ce document : \"'+document+'\" Résumé :', \n\n'Résumez ce document : \"'+document+'\" Résumé :', \n\n'\"'+document+' Compte tenu du document ci-dessus, écrire une phrase pour le résumer :', \n\n'\"'+document+' Compte tenu du document ci-dessus, écris une phrase pour le résumer :', \n\n'\"'+document+' Compte tenu du document ci-dessus, écrivez une phrase pour le résumer :', \n\n'\"'+document+' Rédiger un résumé du texte ci-dessus : ', \n\n'\"'+document+' Rédige un résumé du texte ci-dessus : ', \n\n'\"'+document+' Rédigez un résumé du texte ci-dessus : '`\nAn example:\n\n\n\nDatasets\n--------### orange\\_sum\n\n\nNote: we use the split 'abstract'. \n\n\n\n\nCitation and License\n\n> \n> @article{eddine2020barthez, \n> \n> \n> \n>#### License\n\n\nCC-BY-SA-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_summarization' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nText generation from an article\n===============================\n\n\nThe task consists in using a text base to generate a suite to this text.\n\n\n24 prompts\n----------\n\n\n`'\"'+document+'\"\\n Continuer le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Continue le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Continuez le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Poursuivre le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Poursuis le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Poursuivez le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Prolonger le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Prolonge le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Prolongez le texte sur 1000 caractères maximum :', \n \n'\"'+document+'\"\\n Rédiger la suite du texte : ', \n \n'\"'+document+'\"\\n Rédige la suite du texte : ', \n \n'\"'+document+'\"\\n Rédigez la suite du texte : ', \n \n'\"'+document+'\"\\n Imaginer la suite du texte : ', \n \n'\"'+document+'\"\\n Imagine la suite du texte : ', \n \n'\"'+document+'\"\\n Imaginez la suite du texte : ', \n \n'\"'+document+'\"\\n Ecrire la suite du texte : ', \n \n'\"'+document+'\"\\n Ecris la suite du texte : ', \n \n'\"'+document+'\"\\n Ecriver la suite du texte : ', \n \n'\"'+document+'\"\\n Développer la suite du texte : ', \n \n'\"'+document+'\"\\n Développe la suite du texte : ', \n \n'\"'+document+'\"\\n Développez la suite du texte : ', \n \n'\"'+document+'\"\\nGénérer la suite du texte : ', \n \n'\"'+document+'\"\\nGénère la suite du texte : ', \n \n'\"'+document+'\"\\n Générez la suite du texte : ',`\nAn example:\n\n\n\nDatasets\n--------### orange\\_sum\n\n\nNote: we use the split 'abstract'. \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_text\\_generation\\_from\\_an\\_article' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nTitle generation from an article\n================================\n\n\nThe aim is to generate a title for a given text.\n\n\n19 prompts\n----------\n\n\n`'\"'+document+'\"\\n Générer un titre pour cet article :', \n \n'\"'+document+'\"\\n Génère un titre pour cet article :', \n \n'\"'+document+'\"\\n Générez un titre pour cet article :', \n \n'\"'+document+'\"\\n Rédiger un titre pour cet article :', \n \n'\"'+document+'\"\\n Rédige un titre pour cet article :', \n \n'\"'+document+'\"\\n Rédigez un titre pour cet article :', \n \n'\"'+document+'\"\\n Ecrire un titre pour cet article :', \n \n'\"'+document+'\"\\n Ecris un titre pour cet article :', \n \n'\"'+document+'\"\\n Ecrivez un titre pour cet article :', \n \n\"Générer un titre pour l'article suivant : \"+document, \n \n\"Génère un titre pour l'article suivant : \"+document, \n \n\"Générez un titre pour l'article suivant : \"+document, \n \n\"Rédiger un titre pour l'article suivant : \"+document, \n \n\"Rédige un titre pour l'article suivant : \"+document, \n \n\"Rédigez un titre pour l'article suivant : \"+document, \n \n\"Ecrire un titre pour l'article suivant : \"+document, \n \n\"Ecris un titre pour l'article suivant : \"+document, \n \n\"Ecrivez un titre pour l'article suivant : \"+document, \n'\"'+document+'\"\\n Titre :\\n '`\nAn example:\n\n\n\nDatasets\n--------### orange\\_sum\n\n\nNote: we use the split 'title'. \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_title\\_generation\\_from\\_an\\_article' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nFill mask\n=========\n\n\nMasked language modeling is the task of masking some of the words in a sentence and predicting which words should replace those masks.\nIn our case, for a given text, we have hidden one word per sentence of the text.\n\n\n24 prompts\n----------\n\n\n'Remplacer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Remplace le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Remplacez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Remplacer le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Remplace le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Remplacez le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Substituer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Substitue le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Substituez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Substituer le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Substitue le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Substituez le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Changer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Change le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Changez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Changer le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Change le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Changez le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Transformer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Transforme le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Transformez le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, \n\n'Transformer le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Transforme le <mask> dans le texte suivant par le mot le plus probable : '+text, \n\n'Transformez le <mask> dans le texte suivant par le mot le plus probable : '+text,\n\n\nAn example:\n\n\n\nDatasets\n--------### orange\\_sum\n\n\nNote: we use the split 'abstract'. \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_fill\\_mask' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nBinary text generation from a title of a review\n===============================================\n\n\nThe aim is to generate a text positive ou negative depending on the prompt selected by the user.\n\n\n36 prompts\n----------\n\n\n`# negative \n\n'Rédiger un commentaire négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédige un commentaire négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédigez un commentaire négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédiger un avis négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédige un avis négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédigez un avis négatif dont le titre est : \"'+title+'\"\".', \n\n'Rédiger une critique négative dont le titre est : \"'+title+'\"\".', \n\n'Rédige une critique négative dont le titre est : \"'+title+'\"\".', \n\n'Rédigez une critique négative dont le titre est : \"'+title+'\"\".', \n\n'Rédiger une évaluation négative dont le titre est : \"'+title+'\"\".', \n\n'Rédige une évaluation négative dont le titre est : \"'+title+'\"\".', \n\n'Rédigez une évaluation négative dont le titre est : \"'+title+'\"\".', \n\n\"\"\"Générer un commentaire négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Génère un commentaire négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générez un commentaire négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générer un avis négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Génère un avis négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générez un avis négatif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générer une critique négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Génère une critique négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générez une critique négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générer une évaluation négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Génère une évaluation négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Générez une évaluation négative d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n'Titre : \"'+title +'\"\\n Ecrire un commentaire négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris un commentaire négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez un commentaire négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire un avis négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris un avis négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez un avis négatif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire une critique négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris une critique négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez une critique négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire une évaluation négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris une évaluation négative de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez une évaluation négative de 1 à 5 phrases sur le titre précédent : ',",
"passage: # positive \n\n'Rédiger un commentaire positif dont le titre est : '+title+'.', \n\n'Rédige un commentaire positif dont le titre est : '+title+'.', \n\n'Rédigez un commentaire positif dont le titre est : '+title+'.', \n\n'Rédiger un avis positif dont le titre est : '+title+'.', \n\n'Rédige un avis positif dont le titre est : '+title+'.', \n\n'Rédigez un avis positif dont le titre est : '+title+'.', \n\n'Rédiger une critique positive dont le titre est : '+title+'.', \n\n'Rédige une critique positive dont le titre est : '+title+'.', \n\n'Rédigez une critique positive dont le titre est : '+title+'.', \n\n'Rédiger une évaluation positive dont le titre est : '+title+'.', \n\n'Rédige une évaluation positive dont le titre est : '+title+'.', \n\n'Rédigez une évaluation positive dont le titre est : '+title+'.', \n\n\"\"\"Générer un commentaire positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Génère un commentaire positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générez un commentaire positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générer un avis positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Génère un avis positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générez un avis positif d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générer une critique positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Génère une critique positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générez une critique positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générer une évaluation positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Génère une évaluation positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Générez une évaluation positive d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n'Titre : \"'+title +'\"\\n Ecrire un commentaire positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris un commentaire positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez un commentaire positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire un avis positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris un avis positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez un avis positif de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire une critique positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris une critique positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez une critique positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrire une évaluation positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecris une évaluation positive de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\n Ecrivez une évaluation positive de 1 à 5 phrases sur le titre précédent : ',`\nAn example:\n\n\n\nDatasets\n--------### Abirate/french\\_book\\_reviews\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nText generation from a title of a review type\n=============================================\n\n\nReview generation from a title.\n\n\n36 prompts\n----------\n\n\n`'Rédiger un commentaire dont le titre est : \"'+title+'\"', \n\n'Rédige un commentaire dont le titre est : \"'+title+'\"', \n\n'Rédigez un commentaire dont le titre est : \"'+title+'\"', \n\n'Rédiger un avis dont le titre est : \"'+title+'\"', \n\n'Rédige un avis dont le titre est : \"'+title+'\"', \n\n'Rédigez un avis dont le titre est : \"'+title+'\"', \n\n'Rédiger une critique dont le titre est : \"'+title+'\"', \n\n'Rédige une critique dont le titre est : \"'+title+'\"', \n\n'Rédigez une critique dont le titre est : \"'+title+'\"', \n\n'Rédiger une évaluation dont le titre est : \"'+title+'\"', \n\n'Rédige une évaluation dont le titre est : \"'+title+'\"', \n\n'Rédigez une évaluation dont le titre est : \"'+title+'\"', \n\n\"\"\"Générer un commentaire d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Génère un commentaire d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générez un commentaire d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLe commentaire : \"\"\", \n\n\"\"\"Générer un avis d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Génére un avis d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générez un avis d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'avis : \"\"\", \n\n\"\"\"Générer une critique d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Génère une critique d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générez une critique d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nLa critique : \"\"\", \n\n\"\"\"Générer une évaluation d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Génère une évaluation d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n\"\"\"Générez une évaluation d'un produit imaginaire dont le titre est : \" \"\"\"+title+\"\"\" \"\\nL'évaluation : \"\"\", \n\n'Titre : \"'+title +'\"\\nEcrire un commentaire de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcris un commentaire de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrivez un commentaire de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrire un avis de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcris un avis de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrivez un avis de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrire une critique de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcris une critique de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrivez une critique de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrire une évaluation de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcris une évaluation de 1 à 5 phrases sur le titre précédent : ', \n\n'Titre : \"'+title +'\"\\nEcrivez une évaluation de 1 à 5 phrases sur le titre précédent : ',`\nAn example:\n\n\n\nDatasets\n--------### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nText generation from a title of an article\n==========================================\n\n\nArticle generation from a title.\n\n\n27 prompts\n----------\n\n\n`'Rédiger un texte dont le titre est : \"'+title+'\".', \n\n'Rédige un texte dont le titre est : \"'+title+'\".', \n\n'Rédigez un texte dont le titre est : \"'+title+'\".', \n\n'Rédiger une article dont le titre est : \"'+title+'\".', \n\n'Rédige un article dont le titre est : \"'+title+'\".', \n\n'Rédigez un article dont le titre est : \"'+title+'\".', \n\n'Rédiger un document dont le titre est : \"'+title+'\".', \n\n'Rédige un document dont le titre est : \"'+title+'\".', \n\n'Rédigez un document dont le titre est : \"'+title+'\".', \n\n‘Génèrer un texte dont le titre est : \"'+title+'\".\\nTexte : ', \n\n'Génère un texte dont le titre est : \"'+title+'\".\\nTexte : ', \n\n‘Génèrez un texte dont le titre est : \"'+title+'\".\\nTexte : ', \n\n‘Génèrer un article dont le titre est : \"'+title+'\".\\nArticle : ', \n\n‘Génère un article dont le titre est : \"'+title+'\".\\nArticle : ', \n\n‘Génèrez un article dont le titre est : \"'+title+'\".\\nArticle : ', \n\n‘Génèrer un document dont le titre est : \"'+title+'\".\\nDocument : ', \n\n'Génère un document dont le titre est : \"'+title+'\".\\nDocument : ', \n\n‘Génèrez un document dont le titre est : \"'+title+'\".\\nDocument : ', \n\n'\"'+title +'\"\\n Ecrire un texte de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecris un texte de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrivez un texte de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrire un article de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecris un article de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrivez un article de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrire un document de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecris un document de 1 à 5 phrases sur le titre précédent : ', \n\n'\"'+title +'\"\\n Ecrivez un document de 1 à 5 phrases sur le titre précédent : '`\nAn example:\n\n\n\nDatasets\n--------\n\n\nDatasets\n--------### orange\\_sum\n\n\nNote: we use the split 'abstract'. \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'orange\\_sum\\_fr\\_prompt\\_text\\_generation\\_from\\_title\\_of\\_an\\_article' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nTitle generation from a review\n==============================\n\n\nThe aim is to generate a title for a given text which is a review.\n\n\n18 prompts\n----------\n\n\n`review+'\\n Générer un titre pour cet avis : ', \n \nreview+'\\n Génère un titre pour cet avis : ', \n \nreview+'\\n Générez un titre pour cet avis : ', \n \nreview+'\\n Rédiger un titre pour cet avis : ', \n \nreview+'\\n Rédige un titre pour cet avis : ', \n \nreview+'\\n Rédigez un titre pour cet avis : ', \n \nreview+'\\n Ecrire un titre pour cet avis : ', \n \nreview+'\\n Ecris un titre pour cet avis : ', \n \nreview+'\\n Ecrivez un titre pour cet avis : ', \n \n\"\"\"Générer un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Génère un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Générez un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Rédiger un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Rédige un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Rédigez un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Ecrire un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Ecris un titre pour l'avis suivant : \"\"\"+review, \n \n\"\"\"Ecrivez un titre pour l'avis suivant : \"\"\"+review,\nreview+'\\n Titre :\\n '`\nAn example:### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nClasses classfication\n=====================\n\n\nTask of assigning a label/class to a given text.\n\n\n21 prompts\n----------\n\n\n`'Le texte suivant parle-t-il de \"'+classes+'\" ?\\n Texte : '+text, \n\n'Le texte suivant concerne-t-il \"'+classes+'\" ?\\n Texte : '+text, \n\n'Le texte suivant évoque-t-il \"'+classes+'\" ?\\n Texte : '+text, \n\ntext+'\\n Étant donné la liste de catégories suivante : \"'+classes+'\" à quelle catégorie appartient le texte ?', \n\ntext+'\\n Étant donné la liste de classes suivante : \"'+classes+'\" à quelle classe appartient le texte ?', \n\n'Étant donné une liste de catégories : \"'+classes+'\" à quelle catégorie appartient le texte suivant ?\\n Texte : '+text, \n\n'Étant donné une liste de classes : \"'+classes+'\" à quelle classe appartient le texte suivant ?\\n Texte : '+text, \n\n'Étant donné un choix de catégories : \"'+classes+'\", le texte fait référence à laquelle ?\\n Texte : '+text, \n\n'Étant donné un choix de classe : \"'+classes+'\", le texte fait référence à laquelle ?\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text`\nAn example:\n\n\n\nDatasets\n--------### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nStars classfication\n===================\n\n\nTask consisting in assigning a score between 1 and 5 to a review text.\n\n\n22 prompts\n----------\n\n\n`\"\"\"Donner un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donne un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donnez un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donner un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donne un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donnez un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donner un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donne un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Donnez un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Noter avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Note avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Notez avec un nombre d'étoiles l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Noter avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Note avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Notez avec un nombre d'étoiles le commentaire ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Noter avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Note avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\n\"\"\"Notez avec un nombre d'étoiles la critique ci-dessous (1 étant le plus bas et 5 le plus haut) : \"\"\"+review, \n\nreview+'Pour ce texte, je donne la note de ', \n\n'Texte : '+review+'\\n Étoiles :', \n\n'Texte : '+review+'\\n Note (entre 1 et 5) :', \n\n'Commentaire : '+review+'\\n Sur une échelle de 1 à 5, je donnerais une note de :'`\nAn example:\n\n\n\nDatasets\n--------### Abirate/french\\_book\\_reviews\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.### amazon\\_reviews\\_multi\n\n\nOriginal: URL \n\n\n\n\nCitation and License\nIdentical to the first citation of this dataset earlier in the card.#### License\n\n\nIdentical to the first citation of this dataset earlier in the card.\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nIntent classfication\n====================\n\n\nTask consisting in assigning an intent to a text.\n\n\n30 prompts\n----------\n\n\n`text+'\\n Étant donné la liste de catégories suivante : \"'+classes+'\" à quelle catégorie appartient le texte ?', \n\ntext+'\\n Étant donné la liste de classes suivante : \"'+classes+'\" à quelle classe appartient le texte ?', \n\n'Étant donné une liste de catégories : \"'+classes+'\" à quelle catégorie appartient le texte suivant ?\\n Texte : '+text, \n\n'Étant donné une liste de classes : \"'+classes+'\" à quelle classe appartient le texte suivant ?\\n Texte : '+text, \n\n'Étant donné un choix de catégories : \"'+classes+'\", le texte fait référence à laquelle ?\\n Texte : '+text, \n\n'Étant donné un choix de classe : \"'+classes+'\", le texte fait référence à laquelle ?\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une catégorie pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une classe pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une catégorie pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une classe pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Parmi la liste de catégories suivantes : \"'+classes+'\",\\n indiquer celle présente dans le texte : '+text, \n\n'Parmi la liste de classes suivantes : \"'+classes+'\",\\n indiquer celle présente dans le texte : '+text, \n\n\"\"\"Parmi la liste d'intentions suivantes : \" \"\"\"+classes+\"\"\" \",\\n indiquer celle présente dans le texte : \"\"\"+text, \n\ntext+\"\"\"\\n Étant donné la liste d'intentions suivante : \" \"\"\"+classes+\"\"\" \", à quelle intention appartient le texte ?\"\"\", \n\n\"\"\"Étant donné une liste d'intentions : \" \"\"\"+classes+\"\"\" \", à quelle intention appartient le texte suivant ?\\n Texte : \"\"\"+text, \n\n\"\"\"Étant donné un choix d'intentions : \" \"\"\"+classes+\"\"\" \", le texte fait référence à laquelle ?\"\"\", \n\n'Choisir une intention pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une intention pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Choisir une intention pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une intention pour le texte suivant. Les options sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une intention pour le texte suivant. Les possibilités sont les suivantes : \"'+classes+'\"\\n Texte : '+text, \n\n'Sélectionner une intention pour le texte suivant. Les choix sont les suivants : \"'+classes+'\"\\n Texte : '+text`\nAn example:\n\n\n\nDatasets\n--------### SetFit/amazon\\_massive\\_intent\\_fr-FR\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> @misc{fitzgerald2022massive, \n> \n> \n> \n>#### License\n\n\nApache 2.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.### mteb/mtop\\_domain\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @misc{li2021mtop, \n> \n> \n> \n>#### License\n\n\nUnknown\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nNamed Entity Recognition\n========================\n\n\nAssigns a class to each word in a text. Possible classes here are People, Location, Organizations, and Other.\n\n\n21 prompts\n----------\n\n\n`'Extraire les entités nommées du texte suivant : '+text, \n\n'Extrais les entités nommées du texte suivant : '+text, \n\n'Extrayez les entités nommées du texte suivant : '+text, \n\n'Isoler les entités nommées du texte suivant : '+text, \n\n'Isole les entités nommées du texte suivant : '+text, \n\n'Isolez les entités nommées du texte suivant : '+text, \n\n'Dégager des entités nommées dans le texte : '+text, \n\n'Dégage des entités nommées dans le texte : '+text, \n\n'Dégagez des entités nommées dans le texte : '+text, \n\n'Générer des entités nommées issues du texte suivant : '+text, \n\n'Génère des entités nommées issues du texte suivant : '+text, \n\n'Générez des entités nommées issues du texte suivant : '+text, \n\n'Trouver les entités nommées du texte : '+text, \n\n'Trouve les entités nommées du texte : '+text, \n\n'Trouvez les entités nommées du texte : '+text, \n\n'Repérer les entités nommées présentes dans le texte suivant : '+text, \n\n'Repère les entités nommées présentes dans le texte suivant : '+text, \n\n'Repérez les entités nommées présentes dans le texte suivant : '+text, \n\n'Indiquer les entités nommées du texte :'+text, \n\n'Indique les entités nommées du texte : '+text, \n\n'Indiquez les entités nommées du texte : '+text`\nAn example:\n\n\n\nDatasets\n--------### tner/wikiann\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{pan-etal-2017-cross, \n> \n> \n> \n>#### License\n\n\nUnknow\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.### tner/wikineural\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{tedeschi-etal-2021-wikineural-combined, \n> \n> \n> \n>#### License\n\n\nUnknow\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.### tner/multinerd\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{tedeschi-navigli-2022-multinerd, \n> \n> \n> \n>#### License\n\n\nUnknow\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.### Jean-Baptiste/wikiner\\_fr\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @article{NOTHMAN2013151, \n> \n> \n> \n>#### License\n\n\nUnknow\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'URL dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nPart-of-speech\n==============\n\n\nAssigns a class to each word in a text. Possible classes here are Adposition, Adjective, Adverb, Auxiliary, Coordinating conjunction, Determiner, Interjection, Noun, Numeral, Particle, Pronoun, Proper noun, Punctuation, Subordinating conjunction, Symbol, Verb and Other.\n\n\n21 prompts\n----------\n\n\n`'Extraire les classes des mots du texte suivant : '+text, \n \n'Extrais les classes des mots du texte suivant : '+text, \n \n'Extrayez les classes des mots du texte suivant : '+text, \n \n'Isoler les classes des mots du texte suivant : '+text, \n \n'Isole les classes des mots du texte suivant : '+text, \n \n'Isolez les classes des mots du texte suivant : '+text, \n \n'Dégager les classes des mots dans le texte : '+text, \n \n'Dégage les classes des mots dans le texte : '+text, \n \n'Dégagez les classes des mots dans le texte : '+text, \n \n'Générer les classes des mots issues du texte suivant : '+text, \n \n'Génère les classes des mots issues du texte suivant : '+text, \n \n'Générez les classes des mots issues du texte suivant : '+text, \n \n'Trouver les classes des mots du texte : '+text, \n \n'Trouve les classes des mots du texte : '+text, \n \n'Trouvez les classes des mots du texte : '+text, \n \n'Repérer les classes des mots présentes dans le texte suivant : '+text, \n \n'Repère les classes des mots présentes dans le texte suivant : '+text, \n \n'Repérez les classes des mots présentes dans le texte suivant : '+text, \n \n'Indiquer les classes des mots du texte :'+text, \n \n'Indique les classes des mots du texte : '+text, \n \n'Indiquez les classes des mots du texte : '+text`\nAn example:### universal\\_dependencies\n\n\nOriginal: URL \n\n\n\n\nCitation and License\n\n> \n> @inproceedings{nivre-etal-2020-universal, \n> \n> \n> \n>#### License\n\n\nThe 'fr\\_gsd', 'fr\\_partut' and 'fr\\_spoken' splits are licensed under cc-by-nc-4.0. \n\n\n\n\nWith prompts:\nURL \n\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'universal\\_dependencies\\_fr\\_fqb\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_gsd\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_partut\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_pud\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_sequoia\\_fr\\_prompt\\_pos', 'universal\\_dependencies\\_fr\\_spoken\\_fr\\_prompt\\_pos' datasets have the same license as the original dataset from which they are derived.\n\n\n\n\n\nData-to-text\n============\n\n\nText generation from keywords.\n30 prompts\n----------\n\n\n`'Assembler les concepts suivants pour former une phrase : \"'+concepts+'\".', \n\n'Assemble les concepts suivants pour former une phrase : \"'+concepts+'\".', \n\n'Assemblez les concepts suivants pour former une phrase : \"'+concepts+'\".', \n\n'Étant donné la liste des concepts : \"'+concepts+'\". Générer une phrase avec tous les concepts : ', \n\n'Étant donné la liste des concepts : \"'+concepts+'\". Génère une phrase avec tous les concepts : ', \n\n'Étant donné la liste des concepts : \"'+concepts+'\". Générez une phrase avec tous les concepts : ', \n\n'Convertir les concepts en une phrase : \"'+concepts+'\".', \n\n'Convertis les concepts en une phrase : \"'+concepts+'\".', \n\n'Convertissez les concepts en une phrase : \"'+concepts+'\".', \n\n'Combiner tous les concepts suivants dans un texte concis et grammaticalement correct \"'+concepts+'\". Texte : ', \n\n'Combine tous les concepts suivants dans un texte concis et grammaticalement correct \"'+concepts+'\". Texte : ', \n\n'Combinez tous les concepts suivants dans un texte concis et grammaticalement correct \"'+concepts+'\". Texte : ', \n\n'Générer une phrase à partir des informations fournies ci-contre : \"'+concepts+'\".', \n\n'Génère une phrase à partir des informations fournies ci-contre : \"'+concepts+'\".', \n\n'Générez une phrase à partir des informations fournies ci-contre : \"'+concepts+'\".', \n\n'Verbaliser les concepts suivants séparés par une virgule : \"'+concepts+'\".', \n\n'Verbalise les concepts suivants séparés par une virgule : \"'+concepts+'\".', \n\n'Verbalisez les concepts suivants séparés par une virgule : \"'+concepts+'\".', \n\n'Générer un texte intégrant les concepts suivants '+concepts+'\". Texte :', \n\n'Génère un texte intégrant les concepts suivants '+concepts+'\". Texte :', \n\n'Générez un texte intégrant les concepts suivants '+concepts+'\". Texte :', \n\n'\"'+concepts+'\". Ecrire 1 à 5 phrases sur les concepts précédents.', \n\n'\"'+concepts+'\". Ecris 1 à 5 phrases sur les concepts précédents.', \n\n'\"'+concepts+'\". Ecrivez 1 à 5 phrases sur les concepts précédents.', \n\n'Rédiger un texte avec : \"'+concepts+'\".', \n\n'Rédige un texte avec : \"'+concepts+'\".', \n\n'Rédigez un texte avec : \"'+concepts+'\".', \n\n'Écrire un texte sur les concepts suivants : \"'+concepts+'\".', \n\n'Écris un texte sur les concepts suivants : \"'+concepts+'\".', \n\n'Écrivez un texte sur les concepts suivants : \"'+concepts+'\".',`\nAn example:\n\n\n\nDatasets\n--------### taln-ls2n/termith-eval\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'termith-eval\\_fr\\_prompt\\_data\\_to\\_text' dataset has the same license as the original dataset from which it is derived.",
"passage: ### taln-ls2n/taln-archives\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'taln-archives\\_fr\\_prompt\\_data\\_to\\_text' dataset has the same license as the original dataset from which it is derived.### taln-ls2n/wikinews-fr-100\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.",
"passage: #### License\n\n\nThe 'wikinews-fr-100\\_fr\\_prompt\\_data\\_to\\_text' dataset has the same license as the original dataset from which it is derived.\n\n\n\n\n\nKeywords extraction\n===================\n\n\n21 prompts\n----------\n\n\n`'Extraire les mots clés importants du texte suivant : '+text, \n\n'Extrais les mots clés importants du texte suivant : '+text, \n\n'Extrayez les mots clés importants du texte suivant : '+text, \n\n'Isoler les mots clés importants du texte suivant : '+text, \n\n'Isole les mots clés importants du texte suivant : '+text, \n\n'Isolez les mots clés importants du texte suivant : '+text, \n\n'Dégager des mots clés dans le texte : '+text, \n\n'Dégage des mots clés dans le texte : '+text, \n\n'Dégagez des mots clés dans le texte : '+text, \n\n'Générer des mots clés issus du texte suivant : '+text, \n\n'Génère des mots clés issus du texte suivant : '+text, \n\n'Générez des mots clés issus du texte suivant : '+text, \n\n'Trouver les mots clés du texte : '+text, \n\n'Trouve les mots clés du texte : '+text, \n\n'Trouvez les mots clés du texte : '+text, \n\n'Repérer les mots clés importants présents dans le texte suivant : '+text, \n\n'Repère les mots clés importants présents dans le texte suivant : '+text, \n\n'Repérez les mots clés importants présents dans le texte suivant : '+text, \n\n'Indiquer les mots clés du texte : '+text, \n\n'Indiquer les mots clés du texte : '+text, \n\n'Indiquer les mots clés du texte : '+text`\nAn example:\n\n\n\nDatasets\n--------### taln-ls2n/termith-eval\n\n\nOriginal: URL\n\n\n\nCitation and License\n\n> \n> * (Boudin, 2013) Florian Boudin. 2013.\n> [TALN Archives : a digital archive of French research articles in Natural Language Processing (TALN Archives : une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue) [in French]](URL).\n> In Proceedings of TALN 2013 (Volume 2: Short Papers), pages 507–514, Les Sables d’Olonne, France. ATALA.\n> * (Boudin and Gallina, 2021) Florian Boudin and Ygor Gallina. 2021.\n> [Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness](URL).\n> In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4185–4193, Online. Association for Computational Linguistics.\n> \n> \n>#### License\n\n\ncc-by-4.0\n\n\n\nWith prompts: URL\n\n\n\nCitation and License\nSee the DOI at the end of this dataset card.#### License\n\n\nThe 'termith-eval\\_fr\\_prompt\\_keywords\\_extraction' dataset has the same license as the original dataset from which it is derived."
] |
2f35604a7db610539d7f7c59d77df7c2c6b80cb5
|
# Dataset Card for "cot_explanation_targets_falcon-7b-instruct-sharded"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
LahiruLowe/cot_explanation_targets_falcon-7b-instruct-sharded
|
[
"region:us"
] |
2023-08-22T06:59:06+00:00
|
{"dataset_info": {"features": [{"name": "inputs", "dtype": "string"}, {"name": "targets", "dtype": "string"}, {"name": "task_source", "dtype": "string"}, {"name": "task_name", "dtype": "string"}, {"name": "template_type", "dtype": "string"}, {"name": "system_message", "dtype": "string"}, {"name": "explained_targets", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 3005, "num_examples": 5}], "download_size": 8703, "dataset_size": 3005}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-22T08:47:53+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "cot_explanation_targets_falcon-7b-instruct-sharded"
More Information needed
|
[
"# Dataset Card for \"cot_explanation_targets_falcon-7b-instruct-sharded\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"cot_explanation_targets_falcon-7b-instruct-sharded\"\n\nMore Information needed"
] |
[
6,
31
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"cot_explanation_targets_falcon-7b-instruct-sharded\"\n\nMore Information needed"
] |
e7976b9fc977474294abb249e404c797e1371409
|
# TextTrend Corpus: Exploring Linguistic Shifts and Semantic Patterns
## Overview
The TextTrend Corpus is a unique dataset designed for fine-tuning language models. It consists of a diverse collection of text generated by AI over a span of approximately 19 hours, from 9 PM yesterday to 4 PM today. This dataset captures a snapshot of language evolution during this period, offering insights into linguistic trends and semantic shifts that can be explored and utilized for various natural language processing tasks.
## Sources
This dataset is a fusion of AI-generated text from an overnight session and two existing datasets provided by mlabonne (credits to them for their contribution). The combination of these sources enhances the dataset's richness and coverage, making it a valuable resource for fine-tuning language models.
## Usage
The TextTrend Corpus is primarily intended for fine-tuning language models. Researchers, developers, and data scientists can use this dataset to enhance the performance and adaptability of language models for various applications, including text generation, sentiment analysis, named entity recognition, and more. The dataset's temporal aspect allows for the exploration of real-time language dynamics, making it especially useful for understanding linguistic shifts and adapting models to current language trends.
## Dataset Details
- Name: TextTrend Corpus
- Generation Time: Approximately 19 hours (9 PM yesterday to 4 PM today)
- Source: AI-generated text from overnight session, combined with two datasets from mlabonne
- Purpose: Fine-tuning language models for improved performance and adaptability
- Applications: Text generation, sentiment analysis, named entity recognition, language trend analysis, and more
## License
The TextTrend Corpus is released under a permissive license, allowing for widespread use and adaptation. Refer to the accompanying license documentation for specific details.
|
FinchResearch/TexTrend-llama2
|
[
"size_categories:10K<n<100K",
"language:en",
"license:bigscience-openrail-m",
"region:us"
] |
2023-08-22T07:10:36+00:00
|
{"language": ["en"], "license": "bigscience-openrail-m", "size_categories": ["10K<n<100K"]}
|
2023-08-24T07:18:44+00:00
|
[] |
[
"en"
] |
TAGS
#size_categories-10K<n<100K #language-English #license-bigscience-openrail-m #region-us
|
# TextTrend Corpus: Exploring Linguistic Shifts and Semantic Patterns
## Overview
The TextTrend Corpus is a unique dataset designed for fine-tuning language models. It consists of a diverse collection of text generated by AI over a span of approximately 19 hours, from 9 PM yesterday to 4 PM today. This dataset captures a snapshot of language evolution during this period, offering insights into linguistic trends and semantic shifts that can be explored and utilized for various natural language processing tasks.
## Sources
This dataset is a fusion of AI-generated text from an overnight session and two existing datasets provided by mlabonne (credits to them for their contribution). The combination of these sources enhances the dataset's richness and coverage, making it a valuable resource for fine-tuning language models.
## Usage
The TextTrend Corpus is primarily intended for fine-tuning language models. Researchers, developers, and data scientists can use this dataset to enhance the performance and adaptability of language models for various applications, including text generation, sentiment analysis, named entity recognition, and more. The dataset's temporal aspect allows for the exploration of real-time language dynamics, making it especially useful for understanding linguistic shifts and adapting models to current language trends.
## Dataset Details
- Name: TextTrend Corpus
- Generation Time: Approximately 19 hours (9 PM yesterday to 4 PM today)
- Source: AI-generated text from overnight session, combined with two datasets from mlabonne
- Purpose: Fine-tuning language models for improved performance and adaptability
- Applications: Text generation, sentiment analysis, named entity recognition, language trend analysis, and more
## License
The TextTrend Corpus is released under a permissive license, allowing for widespread use and adaptation. Refer to the accompanying license documentation for specific details.
|
[
"# TextTrend Corpus: Exploring Linguistic Shifts and Semantic Patterns",
"## Overview\nThe TextTrend Corpus is a unique dataset designed for fine-tuning language models. It consists of a diverse collection of text generated by AI over a span of approximately 19 hours, from 9 PM yesterday to 4 PM today. This dataset captures a snapshot of language evolution during this period, offering insights into linguistic trends and semantic shifts that can be explored and utilized for various natural language processing tasks.",
"## Sources\nThis dataset is a fusion of AI-generated text from an overnight session and two existing datasets provided by mlabonne (credits to them for their contribution). The combination of these sources enhances the dataset's richness and coverage, making it a valuable resource for fine-tuning language models.",
"## Usage\nThe TextTrend Corpus is primarily intended for fine-tuning language models. Researchers, developers, and data scientists can use this dataset to enhance the performance and adaptability of language models for various applications, including text generation, sentiment analysis, named entity recognition, and more. The dataset's temporal aspect allows for the exploration of real-time language dynamics, making it especially useful for understanding linguistic shifts and adapting models to current language trends.",
"## Dataset Details\n- Name: TextTrend Corpus\n- Generation Time: Approximately 19 hours (9 PM yesterday to 4 PM today)\n- Source: AI-generated text from overnight session, combined with two datasets from mlabonne\n- Purpose: Fine-tuning language models for improved performance and adaptability\n- Applications: Text generation, sentiment analysis, named entity recognition, language trend analysis, and more",
"## License\nThe TextTrend Corpus is released under a permissive license, allowing for widespread use and adaptation. Refer to the accompanying license documentation for specific details."
] |
[
"TAGS\n#size_categories-10K<n<100K #language-English #license-bigscience-openrail-m #region-us \n",
"# TextTrend Corpus: Exploring Linguistic Shifts and Semantic Patterns",
"## Overview\nThe TextTrend Corpus is a unique dataset designed for fine-tuning language models. It consists of a diverse collection of text generated by AI over a span of approximately 19 hours, from 9 PM yesterday to 4 PM today. This dataset captures a snapshot of language evolution during this period, offering insights into linguistic trends and semantic shifts that can be explored and utilized for various natural language processing tasks.",
"## Sources\nThis dataset is a fusion of AI-generated text from an overnight session and two existing datasets provided by mlabonne (credits to them for their contribution). The combination of these sources enhances the dataset's richness and coverage, making it a valuable resource for fine-tuning language models.",
"## Usage\nThe TextTrend Corpus is primarily intended for fine-tuning language models. Researchers, developers, and data scientists can use this dataset to enhance the performance and adaptability of language models for various applications, including text generation, sentiment analysis, named entity recognition, and more. The dataset's temporal aspect allows for the exploration of real-time language dynamics, making it especially useful for understanding linguistic shifts and adapting models to current language trends.",
"## Dataset Details\n- Name: TextTrend Corpus\n- Generation Time: Approximately 19 hours (9 PM yesterday to 4 PM today)\n- Source: AI-generated text from overnight session, combined with two datasets from mlabonne\n- Purpose: Fine-tuning language models for improved performance and adaptability\n- Applications: Text generation, sentiment analysis, named entity recognition, language trend analysis, and more",
"## License\nThe TextTrend Corpus is released under a permissive license, allowing for widespread use and adaptation. Refer to the accompanying license documentation for specific details."
] |
[
33,
20,
98,
70,
105,
92,
38
] |
[
"passage: TAGS\n#size_categories-10K<n<100K #language-English #license-bigscience-openrail-m #region-us \n# TextTrend Corpus: Exploring Linguistic Shifts and Semantic Patterns## Overview\nThe TextTrend Corpus is a unique dataset designed for fine-tuning language models. It consists of a diverse collection of text generated by AI over a span of approximately 19 hours, from 9 PM yesterday to 4 PM today. This dataset captures a snapshot of language evolution during this period, offering insights into linguistic trends and semantic shifts that can be explored and utilized for various natural language processing tasks.## Sources\nThis dataset is a fusion of AI-generated text from an overnight session and two existing datasets provided by mlabonne (credits to them for their contribution). The combination of these sources enhances the dataset's richness and coverage, making it a valuable resource for fine-tuning language models.## Usage\nThe TextTrend Corpus is primarily intended for fine-tuning language models. Researchers, developers, and data scientists can use this dataset to enhance the performance and adaptability of language models for various applications, including text generation, sentiment analysis, named entity recognition, and more. The dataset's temporal aspect allows for the exploration of real-time language dynamics, making it especially useful for understanding linguistic shifts and adapting models to current language trends.## Dataset Details\n- Name: TextTrend Corpus\n- Generation Time: Approximately 19 hours (9 PM yesterday to 4 PM today)\n- Source: AI-generated text from overnight session, combined with two datasets from mlabonne\n- Purpose: Fine-tuning language models for improved performance and adaptability\n- Applications: Text generation, sentiment analysis, named entity recognition, language trend analysis, and more## License\nThe TextTrend Corpus is released under a permissive license, allowing for widespread use and adaptation. Refer to the accompanying license documentation for specific details."
] |
15ad1fae045e8e395f70a5e1eaaef0ac9c6f4d7b
|
This dataset contains chunked extracts (of ~300 tokens) from papers related to aeroponic agriculture.
|
a-moron/aeroponics
|
[
"language:en",
"region:us"
] |
2023-08-22T07:34:24+00:00
|
{"language": ["en"], "pretty_name": "Chunked Papers for Aeroponics"}
|
2023-08-24T05:44:03+00:00
|
[] |
[
"en"
] |
TAGS
#language-English #region-us
|
This dataset contains chunked extracts (of ~300 tokens) from papers related to aeroponic agriculture.
|
[] |
[
"TAGS\n#language-English #region-us \n"
] |
[
10
] |
[
"passage: TAGS\n#language-English #region-us \n"
] |
5ecafdaf5918e5688d0adb27d2e1f3367799220a
|
# Dataset of commandant_teste (Kantai Collection)
This is the dataset of commandant_teste (Kantai Collection), containing 395 images and their tags.
The core tags of this character are `blonde_hair, long_hair, blue_hair, multicolored_hair, red_hair, streaked_hair, white_hair, blue_eyes, hat, beret, wavy_hair, bangs, breasts, swept_bangs`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:-----------------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 395 | 394.98 MiB | [Download](https://huggingface.co/datasets/CyberHarem/commandant_teste_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 395 | 263.26 MiB | [Download](https://huggingface.co/datasets/CyberHarem/commandant_teste_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 855 | 524.20 MiB | [Download](https://huggingface.co/datasets/CyberHarem/commandant_teste_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 395 | 361.85 MiB | [Download](https://huggingface.co/datasets/CyberHarem/commandant_teste_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 855 | 688.43 MiB | [Download](https://huggingface.co/datasets/CyberHarem/commandant_teste_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/commandant_teste_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 9 |  |  |  |  |  | 1girl, cleavage, double-breasted, dress, jacket, looking_at_viewer, multicolored_scarf, pom_pom_(clothes), smile, solo, plaid_scarf, belt, large_breasts, long_sleeves, anchor_hair_ornament, open_mouth, simple_background, white_background |
| 1 | 12 |  |  |  |  |  | 1girl, jacket, looking_at_viewer, pom_pom_(clothes), simple_background, smile, solo, double-breasted, multicolored_scarf, white_background, plaid_scarf, upper_body, belt, dress, long_sleeves |
| 2 | 8 |  |  |  |  |  | 1girl, belt, double-breasted, jacket, pom_pom_(clothes), solo, black_socks, blue_dress, looking_at_viewer, plaid_scarf, smile, full_body, platform_footwear, anchor_hair_ornament, shoes, sitting |
| 3 | 6 |  |  |  |  |  | 1girl, looking_at_viewer, simple_background, solo, white_background, alternate_costume, dated, shirt, upper_body, smile |
| 4 | 6 |  |  |  |  |  | 1girl, cleavage, detached_collar, fake_animal_ears, looking_at_viewer, playboy_bunny, rabbit_ears, solo, strapless_leotard, wrist_cuffs, alternate_costume, large_breasts, smile, white_background, cowboy_shot, fishnet_pantyhose, hair_ornament, highleg_leotard, red_bowtie, simple_background, black_leotard, covered_navel, dated, open_mouth, rabbit_tail |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | cleavage | double-breasted | dress | jacket | looking_at_viewer | multicolored_scarf | pom_pom_(clothes) | smile | solo | plaid_scarf | belt | large_breasts | long_sleeves | anchor_hair_ornament | open_mouth | simple_background | white_background | upper_body | black_socks | blue_dress | full_body | platform_footwear | shoes | sitting | alternate_costume | dated | shirt | detached_collar | fake_animal_ears | playboy_bunny | rabbit_ears | strapless_leotard | wrist_cuffs | cowboy_shot | fishnet_pantyhose | hair_ornament | highleg_leotard | red_bowtie | black_leotard | covered_navel | rabbit_tail |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:-----------|:------------------|:--------|:---------|:--------------------|:---------------------|:--------------------|:--------|:-------|:--------------|:-------|:----------------|:---------------|:-----------------------|:-------------|:--------------------|:-------------------|:-------------|:--------------|:-------------|:------------|:--------------------|:--------|:----------|:--------------------|:--------|:--------|:------------------|:-------------------|:----------------|:--------------|:--------------------|:--------------|:--------------|:--------------------|:----------------|:------------------|:-------------|:----------------|:----------------|:--------------|
| 0 | 9 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 12 |  |  |  |  |  | X | | X | X | X | X | X | X | X | X | X | X | | X | | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 8 |  |  |  |  |  | X | | X | | X | X | | X | X | X | X | X | | | X | | | | | X | X | X | X | X | X | | | | | | | | | | | | | | | | | |
| 3 | 6 |  |  |  |  |  | X | | | | | X | | | X | X | | | | | | | X | X | X | | | | | | | X | X | X | | | | | | | | | | | | | | |
| 4 | 6 |  |  |  |  |  | X | X | | | | X | | | X | X | | | X | | | X | X | X | | | | | | | | X | X | | X | X | X | X | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/commandant_teste_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T07:41:48+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-16T06:08:45+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of commandant\_teste (Kantai Collection)
================================================
This is the dataset of commandant\_teste (Kantai Collection), containing 395 images and their tags.
The core tags of this character are 'blonde\_hair, long\_hair, blue\_hair, multicolored\_hair, red\_hair, streaked\_hair, white\_hair, blue\_eyes, hat, beret, wavy\_hair, bangs, breasts, swept\_bangs', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
7a619a7187a5206c5f840062bf474735cbe68d5a
|
# Dataset of hatsuyuki/初雪/初雪 (Kantai Collection)
This is the dataset of hatsuyuki/初雪/初雪 (Kantai Collection), containing 500 images and their tags.
The core tags of this character are `long_hair, bangs, black_hair, blunt_bangs, hime_cut, brown_eyes`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:----------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 500 | 367.12 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hatsuyuki_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 500 | 256.65 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hatsuyuki_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 1057 | 502.68 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hatsuyuki_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 500 | 342.22 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hatsuyuki_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 1057 | 643.25 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hatsuyuki_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/hatsuyuki_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 12 |  |  |  |  |  | 1girl, blue_sailor_collar, collared_shirt, neckerchief, pleated_skirt, serafuku, solo, blue_skirt, looking_at_viewer, cowboy_shot, simple_background, white_background, one-hour_drawing_challenge, twitter_username |
| 1 | 17 |  |  |  |  |  | 1girl, serafuku, upper_body, blue_sailor_collar, neckerchief, simple_background, solo, white_background, collared_shirt, looking_at_viewer, short_sleeves |
| 2 | 12 |  |  |  |  |  | 1girl, black_socks, blue_skirt, full_body, kneehighs, pleated_skirt, serafuku, solo, blue_sailor_collar, standing, shoes, neckerchief, short_sleeves, anchor_symbol, looking_at_viewer, simple_background, black_eyes, collared_shirt, grey_footwear, sidelocks |
| 3 | 5 |  |  |  |  |  | 1girl, blue_sailor_collar, blue_skirt, pleated_skirt, serafuku, short_sleeves, solo, sidelocks |
| 4 | 11 |  |  |  |  |  | blue_skirt, pleated_skirt, serafuku, blue_sailor_collar, 2girls, solo_focus, short_sleeves, neckerchief, open_mouth |
| 5 | 9 |  |  |  |  |  | 1girl, solo, looking_at_viewer, simple_background, small_breasts, white_background, blush, collarbone, upper_body, navel, white_bra, underwear_only |
| 6 | 6 |  |  |  |  |  | 1girl, solo, collarbone, looking_at_viewer, school_swimsuit, blush, covered_navel, simple_background, white_background, blue_one-piece_swimsuit, open_mouth, sitting, small_breasts |
| 7 | 5 |  |  |  |  |  | 1girl, alternate_costume, blush, alternate_hairstyle, obi, sidelocks, blue_kimono, single_hair_bun, yukata, candy_apple, floral_print, long_sleeves, looking_at_viewer, omikuji, solo_focus, upper_body, wide_sleeves |
| 8 | 12 |  |  |  |  |  | 1girl, looking_at_viewer, solo, alternate_costume, dated, simple_background, cowboy_shot, strapless_leotard, artist_logo, blush, fake_animal_ears, playboy_bunny, rabbit_ears, white_background, black_leotard, bowtie, cosplay, detached_collar, rabbit_tail, small_breasts |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | blue_sailor_collar | collared_shirt | neckerchief | pleated_skirt | serafuku | solo | blue_skirt | looking_at_viewer | cowboy_shot | simple_background | white_background | one-hour_drawing_challenge | twitter_username | upper_body | short_sleeves | black_socks | full_body | kneehighs | standing | shoes | anchor_symbol | black_eyes | grey_footwear | sidelocks | 2girls | solo_focus | open_mouth | small_breasts | blush | collarbone | navel | white_bra | underwear_only | school_swimsuit | covered_navel | blue_one-piece_swimsuit | sitting | alternate_costume | alternate_hairstyle | obi | blue_kimono | single_hair_bun | yukata | candy_apple | floral_print | long_sleeves | omikuji | wide_sleeves | dated | strapless_leotard | artist_logo | fake_animal_ears | playboy_bunny | rabbit_ears | black_leotard | bowtie | cosplay | detached_collar | rabbit_tail |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:---------------------|:-----------------|:--------------|:----------------|:-----------|:-------|:-------------|:--------------------|:--------------|:--------------------|:-------------------|:-----------------------------|:-------------------|:-------------|:----------------|:--------------|:------------|:------------|:-----------|:--------|:----------------|:-------------|:----------------|:------------|:---------|:-------------|:-------------|:----------------|:--------|:-------------|:--------|:------------|:-----------------|:------------------|:----------------|:--------------------------|:----------|:--------------------|:----------------------|:------|:--------------|:------------------|:---------|:--------------|:---------------|:---------------|:----------|:---------------|:--------|:--------------------|:--------------|:-------------------|:----------------|:--------------|:----------------|:---------|:----------|:------------------|:--------------|
| 0 | 12 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 17 |  |  |  |  |  | X | X | X | X | | X | X | | X | | X | X | | | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 12 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | | X | | | | | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 5 |  |  |  |  |  | X | X | | | X | X | X | X | | | | | | | | X | | | | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 11 |  |  |  |  |  | | X | | X | X | X | | X | | | | | | | | X | | | | | | | | | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 9 |  |  |  |  |  | X | | | | | | X | | X | | X | X | | | X | | | | | | | | | | | | | | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 6 | 6 |  |  |  |  |  | X | | | | | | X | | X | | X | X | | | | | | | | | | | | | | | | X | X | X | X | | | | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | |
| 7 | 5 |  |  |  |  |  | X | | | | | | | | X | | | | | | X | | | | | | | | | | X | | X | | | X | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | |
| 8 | 12 |  |  |  |  |  | X | | | | | | X | | X | X | X | X | | | | | | | | | | | | | | | | | X | X | | | | | | | | | X | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/hatsuyuki_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T07:42:34+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T06:07:08+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of hatsuyuki/初雪/初雪 (Kantai Collection)
==============================================
This is the dataset of hatsuyuki/初雪/初雪 (Kantai Collection), containing 500 images and their tags.
The core tags of this character are 'long\_hair, bangs, black\_hair, blunt\_bangs, hime\_cut, brown\_eyes', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
a82710d8c2509f605de36c326c2b527207f3b2c2
|
# Dataset Card for "NovelImg"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
minwook/NovelImg
|
[
"region:us"
] |
2023-08-22T07:44:13+00:00
|
{"dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "text", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 9932475788.685, "num_examples": 63839}], "download_size": 9249007048, "dataset_size": 9932475788.685}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-22T10:21:33+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "NovelImg"
More Information needed
|
[
"# Dataset Card for \"NovelImg\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"NovelImg\"\n\nMore Information needed"
] |
[
6,
14
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"NovelImg\"\n\nMore Information needed"
] |
1055d23a94b449928cb935ad22843408264b3e44
|
# Dataset Card for "downsampled_upsampled"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
Cmarti24/downsampled_upsampled
|
[
"region:us"
] |
2023-08-22T07:44:24+00:00
|
{"dataset_info": {"features": [{"name": "text", "dtype": "string"}, {"name": "inputs", "struct": [{"name": "text", "dtype": "string"}]}, {"name": "prediction", "dtype": "null"}, {"name": "prediction_agent", "dtype": "null"}, {"name": "annotation", "sequence": "string"}, {"name": "annotation_agent", "dtype": "string"}, {"name": "vectors", "dtype": "null"}, {"name": "multi_label", "dtype": "bool"}, {"name": "explanation", "dtype": "null"}, {"name": "id", "dtype": "string"}, {"name": "metadata", "struct": [{"name": "split", "dtype": "string"}]}, {"name": "status", "dtype": "string"}, {"name": "event_timestamp", "dtype": "timestamp[us]"}, {"name": "metrics", "struct": [{"name": "text_length", "dtype": "int64"}]}], "splits": [{"name": "train", "num_bytes": 15655201.915976798, "num_examples": 37289}, {"name": "test", "num_bytes": 6709792.084023202, "num_examples": 15982}], "download_size": 12515554, "dataset_size": 22364994.0}}
|
2023-08-22T08:56:53+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "downsampled_upsampled"
More Information needed
|
[
"# Dataset Card for \"downsampled_upsampled\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"downsampled_upsampled\"\n\nMore Information needed"
] |
[
6,
18
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"downsampled_upsampled\"\n\nMore Information needed"
] |
5989aae745c726578564be868ee3ee510bb954eb
|
# Dataset Card for "hurt"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
PatrickHaller/hurt
|
[
"region:us"
] |
2023-08-22T08:10:32+00:00
|
{"dataset_info": {"features": [{"name": "text", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 777000, "num_examples": 1000}, {"name": "validation", "num_bytes": 77700, "num_examples": 100}], "download_size": 11908, "dataset_size": 854700}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "validation", "path": "data/validation-*"}]}]}
|
2023-08-22T08:25:09+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "hurt"
More Information needed
|
[
"# Dataset Card for \"hurt\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"hurt\"\n\nMore Information needed"
] |
[
6,
12
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"hurt\"\n\nMore Information needed"
] |
cc2b4e5f73c35301032cfb2d0039823294111028
|
# 你各位的 Alpaca Data Taiwan Chinese 正體中文數據集
|
botp/alpaca-taiwan-dataset
|
[
"task_categories:text-generation",
"task_categories:question-answering",
"task_categories:conversational",
"size_categories:100M<n<1B",
"language:zh",
"language:en",
"license:apache-2.0",
"gpt",
"alpaca",
"llama",
"fine-tune",
"Traditional Chinese",
"Taiwan",
"region:us"
] |
2023-08-22T08:36:29+00:00
|
{"language": ["zh", "en"], "license": "apache-2.0", "size_categories": ["100M<n<1B"], "task_categories": ["text-generation", "question-answering", "conversational"], "pretty_name": "Alpaca-Data-Taiwan-Chinese", "tags": ["gpt", "alpaca", "llama", "fine-tune", "Traditional Chinese", "Taiwan"]}
|
2023-08-22T08:39:03+00:00
|
[] |
[
"zh",
"en"
] |
TAGS
#task_categories-text-generation #task_categories-question-answering #task_categories-conversational #size_categories-100M<n<1B #language-Chinese #language-English #license-apache-2.0 #gpt #alpaca #llama #fine-tune #Traditional Chinese #Taiwan #region-us
|
# 你各位的 Alpaca Data Taiwan Chinese 正體中文數據集
|
[
"# 你各位的 Alpaca Data Taiwan Chinese 正體中文數據集"
] |
[
"TAGS\n#task_categories-text-generation #task_categories-question-answering #task_categories-conversational #size_categories-100M<n<1B #language-Chinese #language-English #license-apache-2.0 #gpt #alpaca #llama #fine-tune #Traditional Chinese #Taiwan #region-us \n",
"# 你各位的 Alpaca Data Taiwan Chinese 正體中文數據集"
] |
[
89,
15
] |
[
"passage: TAGS\n#task_categories-text-generation #task_categories-question-answering #task_categories-conversational #size_categories-100M<n<1B #language-Chinese #language-English #license-apache-2.0 #gpt #alpaca #llama #fine-tune #Traditional Chinese #Taiwan #region-us \n# 你各位的 Alpaca Data Taiwan Chinese 正體中文數據集"
] |
ece7a81a3fdc76b226083dd66a54a5071f5d413a
|
# Dataset of takanami/高波/高波 (Kantai Collection)
This is the dataset of takanami/高波/高波 (Kantai Collection), containing 415 images and their tags.
The core tags of this character are `short_hair, green_hair, brown_eyes, sidelocks, bob_cut, braid, bow`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:---------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 415 | 333.13 MiB | [Download](https://huggingface.co/datasets/CyberHarem/takanami_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 415 | 226.63 MiB | [Download](https://huggingface.co/datasets/CyberHarem/takanami_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 824 | 447.31 MiB | [Download](https://huggingface.co/datasets/CyberHarem/takanami_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 415 | 307.77 MiB | [Download](https://huggingface.co/datasets/CyberHarem/takanami_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 824 | 576.45 MiB | [Download](https://huggingface.co/datasets/CyberHarem/takanami_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/takanami_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 10 |  |  |  |  |  | 1girl, bowtie, long_sleeves, looking_at_viewer, school_uniform, sleeveless_dress, white_shirt, solo, open_mouth, smile, bangs, blush, white_background, purple_dress, cowboy_shot, grey_pantyhose, simple_background, blue_bow |
| 1 | 6 |  |  |  |  |  | 1girl, bangs, long_sleeves, school_uniform, simple_background, solo, white_shirt, bowtie, looking_at_viewer, upper_body, white_background, short_hair_with_long_locks, blush, purple_dress |
| 2 | 8 |  |  |  |  |  | 1girl, hair_flower, solo, umbrella, looking_at_viewer, school_uniform, blush, pantyhose, teruterubouzu, hydrangea, smile |
| 3 | 15 |  |  |  |  |  | bowtie, pleated_skirt, purple_skirt, short_sleeves, white_shirt, 1girl, fingerless_gloves, purple_vest, solo, brown_gloves, school_uniform, blouse, grey_thighhighs, short_hair_with_long_locks, cowboy_shot, simple_background, white_background |
| 4 | 14 |  |  |  |  |  | playboy_bunny, rabbit_ears, wrist_cuffs, 1girl, detached_collar, fake_animal_ears, solo, rabbit_tail, strapless_leotard, purple_leotard, small_breasts, adapted_costume, short_hair_with_long_locks, looking_at_viewer, blue_bowtie, grey_pantyhose |
| 5 | 5 |  |  |  |  |  | 1girl, casual_one-piece_swimsuit, solo, full_body, simple_background, striped_one-piece_swimsuit, white_one-piece_swimsuit, looking_at_viewer, sandals, short_hair_with_long_locks, standing, white_background, hat, orange_eyes, small_breasts |
| 6 | 5 |  |  |  |  |  | 1girl, casual_one-piece_swimsuit, looking_at_viewer, small_breasts, solo, short_hair_with_long_locks, white_one-piece_swimsuit, barefoot, blush, covered_navel, frilled_swimsuit, cowboy_shot, sitting, white_background |
| 7 | 5 |  |  |  |  |  | 1girl, solo, black_bikini, cowboy_shot, frilled_bikini, navel, short_hair_with_long_locks, bikini_skirt, looking_at_viewer, official_alternate_costume, small_breasts, brown_headwear, floral_print, mismatched_bikini, simple_background, sun_hat |
| 8 | 7 |  |  |  |  |  | 1girl, solo, blush, small_breasts, camisole, yellow_panties, looking_at_viewer, plaid, short_hair_with_long_locks, navel, sitting, underwear_only, white_background |
| 9 | 6 |  |  |  |  |  | 1girl, short_hair_with_long_locks, solo, cowboy_shot, fur-trimmed_headwear, red_dress, red_headwear, santa_costume, santa_hat, fur-trimmed_dress, looking_at_viewer, black_thighhighs, christmas, fur-trimmed_capelet, gloves, official_alternate_costume, one-hour_drawing_challenge, red_capelet, simple_background, white_background |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | bowtie | long_sleeves | looking_at_viewer | school_uniform | sleeveless_dress | white_shirt | solo | open_mouth | smile | bangs | blush | white_background | purple_dress | cowboy_shot | grey_pantyhose | simple_background | blue_bow | upper_body | short_hair_with_long_locks | hair_flower | umbrella | pantyhose | teruterubouzu | hydrangea | pleated_skirt | purple_skirt | short_sleeves | fingerless_gloves | purple_vest | brown_gloves | blouse | grey_thighhighs | playboy_bunny | rabbit_ears | wrist_cuffs | detached_collar | fake_animal_ears | rabbit_tail | strapless_leotard | purple_leotard | small_breasts | adapted_costume | blue_bowtie | casual_one-piece_swimsuit | full_body | striped_one-piece_swimsuit | white_one-piece_swimsuit | sandals | standing | hat | orange_eyes | barefoot | covered_navel | frilled_swimsuit | sitting | black_bikini | frilled_bikini | navel | bikini_skirt | official_alternate_costume | brown_headwear | floral_print | mismatched_bikini | sun_hat | camisole | yellow_panties | plaid | underwear_only | fur-trimmed_headwear | red_dress | red_headwear | santa_costume | santa_hat | fur-trimmed_dress | black_thighhighs | christmas | fur-trimmed_capelet | gloves | one-hour_drawing_challenge | red_capelet |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:---------|:---------------|:--------------------|:-----------------|:-------------------|:--------------|:-------|:-------------|:--------|:--------|:--------|:-------------------|:---------------|:--------------|:-----------------|:--------------------|:-----------|:-------------|:-----------------------------|:--------------|:-----------|:------------|:----------------|:------------|:----------------|:---------------|:----------------|:--------------------|:--------------|:---------------|:---------|:------------------|:----------------|:--------------|:--------------|:------------------|:-------------------|:--------------|:--------------------|:-----------------|:----------------|:------------------|:--------------|:----------------------------|:------------|:-----------------------------|:---------------------------|:----------|:-----------|:------|:--------------|:-----------|:----------------|:-------------------|:----------|:---------------|:-----------------|:--------|:---------------|:-----------------------------|:-----------------|:---------------|:--------------------|:----------|:-----------|:-----------------|:--------|:-----------------|:-----------------------|:------------|:---------------|:----------------|:------------|:--------------------|:-------------------|:------------|:----------------------|:---------|:-----------------------------|:--------------|
| 0 | 10 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 6 |  |  |  |  |  | X | X | X | X | X | | X | X | | | X | X | X | X | | | X | | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 8 |  |  |  |  |  | X | | | X | X | | | X | | X | | X | | | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 15 |  |  |  |  |  | X | X | | | X | | X | X | | | | | X | | X | | X | | | X | | | | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 14 |  |  |  |  |  | X | | | X | | | | X | | | | | | | | X | | | | X | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 5 |  |  |  |  |  | X | | | X | | | | X | | | | | X | | | | X | | | X | | | | | | | | | | | | | | | | | | | | | | X | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 6 | 5 |  |  |  |  |  | X | | | X | | | | X | | | | X | X | | X | | | | | X | | | | | | | | | | | | | | | | | | | | | | X | | | X | | | X | | | | | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | |
| 7 | 5 |  |  |  |  |  | X | | | X | | | | X | | | | | | | X | | X | | | X | | | | | | | | | | | | | | | | | | | | | | X | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | |
| 8 | 7 |  |  |  |  |  | X | | | X | | | | X | | | | X | X | | | | | | | X | | | | | | | | | | | | | | | | | | | | | | X | | | | | | | | | | | | | | X | | | X | | | | | | | X | X | X | X | | | | | | | | | | | | |
| 9 | 6 |  |  |  |  |  | X | | | X | | | | X | | | | | X | | X | | X | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/takanami_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T08:39:06+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T20:46:29+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of takanami/高波/高波 (Kantai Collection)
=============================================
This is the dataset of takanami/高波/高波 (Kantai Collection), containing 415 images and their tags.
The core tags of this character are 'short\_hair, green\_hair, brown\_eyes, sidelocks, bob\_cut, braid, bow', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
194e674d6401df76b35a60e1a38a300b5033c09d
|
# Dataset of pola/ポーラ (Kantai Collection)
This is the dataset of pola/ポーラ (Kantai Collection), containing 500 images and their tags.
The core tags of this character are `long_hair, grey_hair, wavy_hair, brown_eyes, breasts, hair_between_eyes, hat, mini_hat, large_breasts, thick_eyebrows, tilted_headwear, bow`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:-----------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 500 | 672.56 MiB | [Download](https://huggingface.co/datasets/CyberHarem/pola_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 500 | 364.54 MiB | [Download](https://huggingface.co/datasets/CyberHarem/pola_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 1204 | 788.68 MiB | [Download](https://huggingface.co/datasets/CyberHarem/pola_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 500 | 586.33 MiB | [Download](https://huggingface.co/datasets/CyberHarem/pola_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 1204 | 1.14 GiB | [Download](https://huggingface.co/datasets/CyberHarem/pola_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/pola_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 7 |  |  |  |  |  | 1girl, black_gloves, solo, white_coat, pink_scarf, upper_body, long_sleeves, white_headwear, looking_at_viewer, grey_coat, official_alternate_costume, simple_background, white_background |
| 1 | 7 |  |  |  |  |  | 1girl, blush, long_sleeves, simple_background, solo, white_background, white_shirt, wine_glass, holding_cup, naked_shirt, open_shirt, sitting, cleavage, looking_at_viewer, open_mouth, smile, closed_eyes, collarbone, collared_shirt, cropped_legs, navel, one-hour_drawing_challenge, sparkle, twitter_username |
| 2 | 5 |  |  |  |  |  | 1girl, corset, long_sleeves, looking_at_viewer, red_bowtie, red_skirt, simple_background, solo, white_background, white_shirt, white_thighhighs, miniskirt, blush, open_mouth, sitting, smile |
| 3 | 13 |  |  |  |  |  | 1girl, solo, upper_body, white_shirt, corset, looking_at_viewer, red_bowtie, simple_background, long_sleeves, white_background, smile, blush, one-hour_drawing_challenge |
| 4 | 5 |  |  |  |  |  | 1girl, blush, solo, wine_glass, drunk, looking_at_viewer, open_mouth, white_thighhighs, wine_bottle, sitting, smile, areola_slip, brown_hair, convenient_censoring, miniskirt, no_panties |
| 5 | 5 |  |  |  |  |  | 1girl, blush, white_shirt, holding_cup, long_sleeves, looking_at_viewer, smile, solo, upper_body, open_mouth, simple_background, white_background, collared_shirt |
| 6 | 18 |  |  |  |  |  | 1girl, fake_animal_ears, rabbit_ears, solo, detached_collar, playboy_bunny, alternate_costume, strapless_leotard, simple_background, wrist_cuffs, cleavage, looking_at_viewer, black_pantyhose, black_leotard, red_bowtie, white_background, wine_bottle, wine_glass, rabbit_tail |
| 7 | 5 |  |  |  |  |  | 1girl, enmaided, looking_at_viewer, maid_headdress, simple_background, solo, black_dress, cowboy_shot, frilled_apron, holding, long_sleeves, white_apron, white_background, cleavage_cutout, alcohol, blush, dated, one-hour_drawing_challenge, wine_glass |
| 8 | 6 |  |  |  |  |  | 1girl, cloud, outdoors, solo, looking_at_viewer, blue_sky, cleavage, cowboy_shot, day, red_bikini, beach, navel, ocean, shirt, water |
| 9 | 8 |  |  |  |  |  | 1girl, solo, alternate_costume, looking_at_viewer, white_dress, blush, smile, cleavage, flower, bouquet, jewelry, wedding_dress |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | black_gloves | solo | white_coat | pink_scarf | upper_body | long_sleeves | white_headwear | looking_at_viewer | grey_coat | official_alternate_costume | simple_background | white_background | blush | white_shirt | wine_glass | holding_cup | naked_shirt | open_shirt | sitting | cleavage | open_mouth | smile | closed_eyes | collarbone | collared_shirt | cropped_legs | navel | one-hour_drawing_challenge | sparkle | twitter_username | corset | red_bowtie | red_skirt | white_thighhighs | miniskirt | drunk | wine_bottle | areola_slip | brown_hair | convenient_censoring | no_panties | fake_animal_ears | rabbit_ears | detached_collar | playboy_bunny | alternate_costume | strapless_leotard | wrist_cuffs | black_pantyhose | black_leotard | rabbit_tail | enmaided | maid_headdress | black_dress | cowboy_shot | frilled_apron | holding | white_apron | cleavage_cutout | alcohol | dated | cloud | outdoors | blue_sky | day | red_bikini | beach | ocean | shirt | water | white_dress | flower | bouquet | jewelry | wedding_dress |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:---------------|:-------|:-------------|:-------------|:-------------|:---------------|:-----------------|:--------------------|:------------|:-----------------------------|:--------------------|:-------------------|:--------|:--------------|:-------------|:--------------|:--------------|:-------------|:----------|:-----------|:-------------|:--------|:--------------|:-------------|:-----------------|:---------------|:--------|:-----------------------------|:----------|:-------------------|:---------|:-------------|:------------|:-------------------|:------------|:--------|:--------------|:--------------|:-------------|:-----------------------|:-------------|:-------------------|:--------------|:------------------|:----------------|:--------------------|:--------------------|:--------------|:------------------|:----------------|:--------------|:-----------|:-----------------|:--------------|:--------------|:----------------|:----------|:--------------|:------------------|:----------|:--------|:--------|:-----------|:-----------|:------|:-------------|:--------|:--------|:--------|:--------|:--------------|:---------|:----------|:----------|:----------------|
| 0 | 7 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 7 |  |  |  |  |  | X | | X | | | | X | | X | | | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 5 |  |  |  |  |  | X | | X | | | | X | | X | | | X | X | X | X | | | | | X | | X | X | | | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 13 |  |  |  |  |  | X | | X | | | X | X | | X | | | X | X | X | X | | | | | | | | X | | | | | | X | | | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 5 |  |  |  |  |  | X | | X | | | | | | X | | | | | X | | X | | | | X | | X | X | | | | | | | | | | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 5 |  |  |  |  |  | X | | X | | | X | X | | X | | | X | X | X | X | | X | | | | | X | X | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 6 | 18 |  |  |  |  |  | X | | X | | | | | | X | | | X | X | | | X | | | | | X | | | | | | | | | | | | X | | | | | X | | | | | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | |
| 7 | 5 |  |  |  |  |  | X | | X | | | | X | | X | | | X | X | X | | X | | | | | | | | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | |
| 8 | 6 |  |  |  |  |  | X | | X | | | | | | X | | | | | | | | | | | | X | | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | | | | | | | X | X | X | X | X | X | X | X | X | | | | | |
| 9 | 8 |  |  |  |  |  | X | | X | | | | | | X | | | | | X | | | | | | | X | | X | | | | | | | | | | | | | | | | | | | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X |
|
CyberHarem/pola_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T08:42:13+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T14:27:11+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of pola/ポーラ (Kantai Collection)
=======================================
This is the dataset of pola/ポーラ (Kantai Collection), containing 500 images and their tags.
The core tags of this character are 'long\_hair, grey\_hair, wavy\_hair, brown\_eyes, breasts, hair\_between\_eyes, hat, mini\_hat, large\_breasts, thick\_eyebrows, tilted\_headwear, bow', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
1ab8e7eeb70ec0d12799c0db2a84b1bc4f6a725d
|
- [ ] Lọc theo từng domain ưu tiên từ lớn tới bé (size)
- [ ] Dedup giữa các domain cùng thể loại (truyen)
- [ ] Nối các chương còn lại (ở trong từng domain) thành một doc lớn.
- [ ] Gom các hàm hay dùng vào `utils.py` + viết unit tests
- [ ] Lọc content theo loại truyện dịch vs convert, build classifier để phân loại
- [ ] Lọc hết tên truyện / chapter + urls để dedup trên toàn bộ tập dataset truyện
- - -
Note: domain nào được chọn có `+` ở trước, domain nào bị loại `-`, còn lại là đang xử lý và cân nhắc.
|
tiendung/cc-vi_truyen-filters
|
[
"region:us"
] |
2023-08-22T08:56:32+00:00
|
{}
|
2023-10-03T07:03:48+00:00
|
[] |
[] |
TAGS
#region-us
|
- [ ] Lọc theo từng domain ưu tiên từ lớn tới bé (size)
- [ ] Dedup giữa các domain cùng thể loại (truyen)
- [ ] Nối các chương còn lại (ở trong từng domain) thành một doc lớn.
- [ ] Gom các hàm hay dùng vào 'URL' + viết unit tests
- [ ] Lọc content theo loại truyện dịch vs convert, build classifier để phân loại
- [ ] Lọc hết tên truyện / chapter + urls để dedup trên toàn bộ tập dataset truyện
- - -
Note: domain nào được chọn có '+' ở trước, domain nào bị loại '-', còn lại là đang xử lý và cân nhắc.
|
[] |
[
"TAGS\n#region-us \n"
] |
[
6
] |
[
"passage: TAGS\n#region-us \n"
] |
f57ae1f4ef8375805e0c29d11c01f566808d65d4
|
# Dataset Card for "bloom"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
samop/bloom
|
[
"region:us"
] |
2023-08-22T08:59:05+00:00
|
{"dataset_info": {"features": [{"name": "input_ids", "sequence": "int32"}], "splits": [{"name": "train", "num_bytes": 2196528.0, "num_examples": 268}, {"name": "test", "num_bytes": 245880.0, "num_examples": 30}], "download_size": 1127825, "dataset_size": 2442408.0}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "test", "path": "data/test-*"}]}]}
|
2023-08-23T13:59:18+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "bloom"
More Information needed
|
[
"# Dataset Card for \"bloom\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"bloom\"\n\nMore Information needed"
] |
[
6,
12
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"bloom\"\n\nMore Information needed"
] |
3402c00eed98a26901d0eb4c7df08c2708fbc6ff
|
# Dataset Card for "dataset_silcon"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
JayalekshmiGopakumar/dataset_silcon
|
[
"region:us"
] |
2023-08-22T09:09:06+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "test", "path": "data/test-*"}]}], "dataset_info": {"features": [{"name": "texts", "sequence": "string"}, {"name": "image", "dtype": "image"}, {"name": "label", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 1122257806.0, "num_examples": 3000}, {"name": "test", "num_bytes": 118044994.0, "num_examples": 300}], "download_size": 1234806135, "dataset_size": 1240302800.0}}
|
2023-08-22T09:24:50+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "dataset_silcon"
More Information needed
|
[
"# Dataset Card for \"dataset_silcon\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"dataset_silcon\"\n\nMore Information needed"
] |
[
6,
15
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"dataset_silcon\"\n\nMore Information needed"
] |
3d000d2960b332591c91b33f29414a50f5af3a4b
|
# Dataset Card for "imagenet-1k-baaaa-filtered"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
wiifyi/imagenet-1k-baaaa-filtered
|
[
"region:us"
] |
2023-08-22T09:24:48+00:00
|
{"dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "label", "dtype": {"class_label": {"names": {"0": "tench, Tinca tinca", "1": "goldfish, Carassius auratus", "2": "great white shark, white shark, man-eater, man-eating shark, Carcharodon carcharias", "3": "tiger shark, Galeocerdo cuvieri", "4": "hammerhead, hammerhead shark", "5": "electric ray, crampfish, numbfish, torpedo", "6": "stingray", "7": "cock", "8": "hen", "9": "ostrich, Struthio camelus", "10": "brambling, Fringilla montifringilla", "11": "goldfinch, Carduelis carduelis", "12": "house finch, linnet, Carpodacus mexicanus", "13": "junco, snowbird", "14": "indigo bunting, indigo finch, indigo bird, Passerina cyanea", "15": "robin, American robin, Turdus migratorius", "16": "bulbul", "17": "jay", "18": "magpie", "19": "chickadee", "20": "water ouzel, dipper", "21": "kite", "22": "bald eagle, American eagle, Haliaeetus leucocephalus", "23": "vulture", "24": "great grey owl, great gray owl, Strix nebulosa", "25": "European fire salamander, Salamandra salamandra", "26": "common newt, Triturus vulgaris", "27": "eft", "28": "spotted salamander, Ambystoma maculatum", "29": "axolotl, mud puppy, Ambystoma mexicanum", "30": "bullfrog, Rana catesbeiana", "31": "tree frog, tree-frog", "32": "tailed frog, bell toad, ribbed toad, tailed toad, Ascaphus trui", "33": "loggerhead, loggerhead turtle, Caretta caretta", "34": "leatherback turtle, leatherback, leathery turtle, Dermochelys coriacea", "35": "mud turtle", "36": "terrapin", "37": "box turtle, box tortoise", "38": "banded gecko", "39": "common iguana, iguana, Iguana iguana", "40": "American chameleon, anole, Anolis carolinensis", "41": "whiptail, whiptail lizard", "42": "agama", "43": "frilled lizard, Chlamydosaurus kingi", "44": "alligator lizard", "45": "Gila monster, Heloderma suspectum", "46": "green lizard, Lacerta viridis", "47": "African chameleon, Chamaeleo chamaeleon", "48": "Komodo dragon, Komodo lizard, dragon lizard, giant lizard, Varanus komodoensis", "49": "African crocodile, Nile crocodile, Crocodylus niloticus", "50": "American alligator, Alligator mississipiensis", "51": "triceratops", "52": "thunder snake, worm snake, Carphophis amoenus", "53": "ringneck snake, ring-necked snake, ring snake", "54": "hognose snake, puff adder, sand viper", "55": "green snake, grass snake", "56": "king snake, kingsnake", "57": "garter snake, grass snake", "58": "water snake", "59": "vine snake", "60": "night snake, Hypsiglena torquata", "61": "boa constrictor, Constrictor constrictor", "62": "rock python, rock snake, Python sebae", "63": "Indian cobra, Naja naja", "64": "green mamba", "65": "sea snake", "66": "horned viper, cerastes, sand viper, horned asp, Cerastes cornutus", "67": "diamondback, diamondback rattlesnake, Crotalus adamanteus", "68": "sidewinder, horned rattlesnake, Crotalus cerastes", "69": "trilobite", "70": "harvestman, daddy longlegs, Phalangium opilio", "71": "scorpion", "72": "black and gold garden spider, Argiope aurantia", "73": "barn spider, Araneus cavaticus", "74": "garden spider, Aranea diademata", "75": "black widow, Latrodectus mactans", "76": "tarantula", "77": "wolf spider, hunting spider", "78": "tick", "79": "centipede", "80": "black grouse", "81": "ptarmigan", "82": "ruffed grouse, partridge, Bonasa umbellus", "83": "prairie chicken, prairie grouse, prairie fowl", "84": "peacock", "85": "quail", "86": "partridge", "87": "African grey, African gray, Psittacus erithacus", "88": "macaw", "89": "sulphur-crested cockatoo, Kakatoe galerita, Cacatua galerita", "90": "lorikeet", "91": "coucal", "92": "bee eater", "93": "hornbill", "94": "hummingbird", "95": "jacamar", "96": "toucan", "97": "drake", "98": "red-breasted merganser, Mergus serrator", "99": "goose", "100": "black swan, Cygnus atratus", "101": "tusker", "102": "echidna, spiny anteater, anteater", "103": "platypus, duckbill, duckbilled platypus, duck-billed platypus, Ornithorhynchus anatinus", "104": "wallaby, brush kangaroo", "105": "koala, koala bear, kangaroo bear, native bear, Phascolarctos cinereus", "106": "wombat", "107": "jellyfish", "108": "sea anemone, anemone", "109": "brain coral", "110": "flatworm, platyhelminth", "111": "nematode, nematode worm, roundworm", "112": "conch", "113": "snail", "114": "slug", "115": "sea slug, nudibranch", "116": "chiton, coat-of-mail shell, sea cradle, polyplacophore", "117": "chambered nautilus, pearly nautilus, nautilus", "118": "Dungeness crab, Cancer magister", "119": "rock crab, Cancer irroratus", "120": "fiddler crab", "121": "king crab, Alaska crab, Alaskan king crab, Alaska king crab, Paralithodes camtschatica", "122": "American lobster, Northern lobster, Maine lobster, Homarus americanus", "123": "spiny lobster, langouste, rock lobster, crawfish, crayfish, sea crawfish", "124": "crayfish, crawfish, crawdad, crawdaddy", "125": "hermit crab", "126": "isopod", "127": "white stork, Ciconia ciconia", "128": "black stork, Ciconia nigra", "129": "spoonbill", "130": "flamingo", "131": "little blue heron, Egretta caerulea", "132": "American egret, great white heron, Egretta albus", "133": "bittern", "134": "crane", "135": "limpkin, Aramus pictus", "136": "European gallinule, Porphyrio porphyrio", "137": "American coot, marsh hen, mud hen, water hen, Fulica americana", "138": "bustard", "139": "ruddy turnstone, Arenaria interpres", "140": "red-backed sandpiper, dunlin, Erolia alpina", "141": "redshank, Tringa totanus", "142": "dowitcher", "143": "oystercatcher, oyster catcher", "144": "pelican", "145": "king penguin, Aptenodytes patagonica", "146": "albatross, mollymawk", "147": "grey whale, gray whale, devilfish, Eschrichtius gibbosus, Eschrichtius robustus", "148": "killer whale, killer, orca, grampus, sea wolf, Orcinus orca", "149": "dugong, Dugong dugon", "150": "sea lion", "151": "Chihuahua", "152": "Japanese spaniel", "153": "Maltese dog, Maltese terrier, Maltese", "154": "Pekinese, Pekingese, Peke", "155": "Shih-Tzu", "156": "Blenheim spaniel", "157": "papillon", "158": "toy terrier", "159": "Rhodesian ridgeback", "160": "Afghan hound, Afghan", "161": "basset, basset hound", "162": "beagle", "163": "bloodhound, sleuthhound", "164": "bluetick", "165": "black-and-tan coonhound", "166": "Walker hound, Walker foxhound", "167": "English foxhound", "168": "redbone", "169": "borzoi, Russian wolfhound", "170": "Irish wolfhound", "171": "Italian greyhound", "172": "whippet", "173": "Ibizan hound, Ibizan Podenco", "174": "Norwegian elkhound, elkhound", "175": "otterhound, otter hound", "176": "Saluki, gazelle hound", "177": "Scottish deerhound, deerhound", "178": "Weimaraner", "179": "Staffordshire bullterrier, Staffordshire bull terrier", "180": "American Staffordshire terrier, Staffordshire terrier, American pit bull terrier, pit bull terrier", "181": "Bedlington terrier", "182": "Border terrier", "183": "Kerry blue terrier", "184": "Irish terrier", "185": "Norfolk terrier", "186": "Norwich terrier", "187": "Yorkshire terrier", "188": "wire-haired fox terrier", "189": "Lakeland terrier", "190": "Sealyham terrier, Sealyham", "191": "Airedale, Airedale terrier", "192": "cairn, cairn terrier", "193": "Australian terrier", "194": "Dandie Dinmont, Dandie Dinmont terrier", "195": "Boston bull, Boston terrier", "196": "miniature schnauzer", "197": "giant schnauzer", "198": "standard schnauzer", "199": "Scotch terrier, Scottish terrier, Scottie", "200": "Tibetan terrier, chrysanthemum dog", "201": "silky terrier, Sydney silky", "202": "soft-coated wheaten terrier", "203": "West Highland white terrier", "204": "Lhasa, Lhasa apso", "205": "flat-coated retriever", "206": "curly-coated retriever", "207": "golden retriever", "208": "Labrador retriever", "209": "Chesapeake Bay retriever", "210": "German short-haired pointer", "211": "vizsla, Hungarian pointer", "212": "English setter", "213": "Irish setter, red setter", "214": "Gordon setter", "215": "Brittany spaniel", "216": "clumber, clumber spaniel", "217": "English springer, English springer spaniel", "218": "Welsh springer spaniel", "219": "cocker spaniel, English cocker spaniel, cocker", "220": "Sussex spaniel", "221": "Irish water spaniel", "222": "kuvasz", "223": "schipperke", "224": "groenendael", "225": "malinois", "226": "briard", "227": "kelpie", "228": "komondor", "229": "Old English sheepdog, bobtail", "230": "Shetland sheepdog, Shetland sheep dog, Shetland", "231": "collie", "232": "Border collie", "233": "Bouvier des Flandres, Bouviers des Flandres", "234": "Rottweiler", "235": "German shepherd, German shepherd dog, German police dog, alsatian", "236": "Doberman, Doberman pinscher", "237": "miniature pinscher", "238": "Greater Swiss Mountain dog", "239": "Bernese mountain dog", "240": "Appenzeller", "241": "EntleBucher", "242": "boxer", "243": "bull mastiff", "244": "Tibetan mastiff", "245": "French bulldog", "246": "Great Dane", "247": "Saint Bernard, St Bernard", "248": "Eskimo dog, husky", "249": "malamute, malemute, Alaskan malamute", "250": "Siberian husky", "251": "dalmatian, coach dog, carriage dog", "252": "affenpinscher, monkey pinscher, monkey dog", "253": "basenji", "254": "pug, pug-dog", "255": "Leonberg", "256": "Newfoundland, Newfoundland dog", "257": "Great Pyrenees", "258": "Samoyed, Samoyede", "259": "Pomeranian", "260": "chow, chow chow", "261": "keeshond", "262": "Brabancon griffon", "263": "Pembroke, Pembroke Welsh corgi", "264": "Cardigan, Cardigan Welsh corgi", "265": "toy poodle", "266": "miniature poodle", "267": "standard poodle", "268": "Mexican hairless", "269": "timber wolf, grey wolf, gray wolf, Canis lupus", "270": "white wolf, Arctic wolf, Canis lupus tundrarum", "271": "red wolf, maned wolf, Canis rufus, Canis niger", "272": "coyote, prairie wolf, brush wolf, Canis latrans", "273": "dingo, warrigal, warragal, Canis dingo", "274": "dhole, Cuon alpinus", "275": "African hunting dog, hyena dog, Cape hunting dog, Lycaon pictus", "276": "hyena, hyaena", "277": "red fox, Vulpes vulpes", "278": "kit fox, Vulpes macrotis", "279": "Arctic fox, white fox, Alopex lagopus", "280": "grey fox, gray fox, Urocyon cinereoargenteus", "281": "tabby, tabby cat", "282": "tiger cat", "283": "Persian cat", "284": "Siamese cat, Siamese", "285": "Egyptian cat", "286": "cougar, puma, catamount, mountain lion, painter, panther, Felis concolor", "287": "lynx, catamount", "288": "leopard, Panthera pardus", "289": "snow leopard, ounce, Panthera uncia", "290": "jaguar, panther, Panthera onca, Felis onca", "291": "lion, king of beasts, Panthera leo", "292": "tiger, Panthera tigris", "293": "cheetah, chetah, Acinonyx jubatus", "294": "brown bear, bruin, Ursus arctos", "295": "American black bear, black bear, Ursus americanus, Euarctos americanus", "296": "ice bear, polar bear, Ursus Maritimus, Thalarctos maritimus", "297": "sloth bear, Melursus ursinus, Ursus ursinus", "298": "mongoose", "299": "meerkat, mierkat", "300": "tiger beetle", "301": "ladybug, ladybeetle, lady beetle, ladybird, ladybird beetle", "302": "ground beetle, carabid beetle", "303": "long-horned beetle, longicorn, longicorn beetle", "304": "leaf beetle, chrysomelid", "305": "dung beetle", "306": "rhinoceros beetle", "307": "weevil", "308": "fly", "309": "bee", "310": "ant, emmet, pismire", "311": "grasshopper, hopper", "312": "cricket", "313": "walking stick, walkingstick, stick insect", "314": "cockroach, roach", "315": "mantis, mantid", "316": "cicada, cicala", "317": "leafhopper", "318": "lacewing, lacewing fly", "319": "dragonfly, darning needle, devil's darning needle, sewing needle, snake feeder, snake doctor, mosquito hawk, skeeter hawk", "320": "damselfly", "321": "admiral", "322": "ringlet, ringlet butterfly", "323": "monarch, monarch butterfly, milkweed butterfly, Danaus plexippus", "324": "cabbage butterfly", "325": "sulphur butterfly, sulfur butterfly", "326": "lycaenid, lycaenid butterfly", "327": "starfish, sea star", "328": "sea urchin", "329": "sea cucumber, holothurian", "330": "wood rabbit, cottontail, cottontail rabbit", "331": "hare", "332": "Angora, Angora rabbit", "333": "hamster", "334": "porcupine, hedgehog", "335": "fox squirrel, eastern fox squirrel, Sciurus niger", "336": "marmot", "337": "beaver", "338": "guinea pig, Cavia cobaya", "339": "sorrel", "340": "zebra", "341": "hog, pig, grunter, squealer, Sus scrofa", "342": "wild boar, boar, Sus scrofa", "343": "warthog", "344": "hippopotamus, hippo, river horse, Hippopotamus amphibius", "345": "ox", "346": "water buffalo, water ox, Asiatic buffalo, Bubalus bubalis", "347": "bison", "348": "ram, tup", "349": "bighorn, bighorn sheep, cimarron, Rocky Mountain bighorn, Rocky Mountain sheep, Ovis canadensis", "350": "ibex, Capra ibex", "351": "hartebeest", "352": "impala, Aepyceros melampus", "353": "gazelle", "354": "Arabian camel, dromedary, Camelus dromedarius", "355": "llama", "356": "weasel", "357": "mink", "358": "polecat, fitch, foulmart, foumart, Mustela putorius", "359": "black-footed ferret, ferret, Mustela nigripes", "360": "otter", "361": "skunk, polecat, wood pussy", "362": "badger", "363": "armadillo", "364": "three-toed sloth, ai, Bradypus tridactylus", "365": "orangutan, orang, orangutang, Pongo pygmaeus", "366": "gorilla, Gorilla gorilla", "367": "chimpanzee, chimp, Pan troglodytes", "368": "gibbon, Hylobates lar", "369": "siamang, Hylobates syndactylus, Symphalangus syndactylus", "370": "guenon, guenon monkey", "371": "patas, hussar monkey, Erythrocebus patas", "372": "baboon", "373": "macaque", "374": "langur", "375": "colobus, colobus monkey", "376": "proboscis monkey, Nasalis larvatus", "377": "marmoset", "378": "capuchin, ringtail, Cebus capucinus", "379": "howler monkey, howler", "380": "titi, titi monkey", "381": "spider monkey, Ateles geoffroyi", "382": "squirrel monkey, Saimiri sciureus", "383": "Madagascar cat, ring-tailed lemur, Lemur catta", "384": "indri, indris, Indri indri, Indri brevicaudatus", "385": "Indian elephant, Elephas maximus", "386": "African elephant, Loxodonta africana", "387": "lesser panda, red panda, panda, bear cat, cat bear, Ailurus fulgens", "388": "giant panda, panda, panda bear, coon bear, Ailuropoda melanoleuca", "389": "barracouta, snoek", "390": "eel", "391": "coho, cohoe, coho salmon, blue jack, silver salmon, Oncorhynchus kisutch", "392": "rock beauty, Holocanthus tricolor", "393": "anemone fish", "394": "sturgeon", "395": "gar, garfish, garpike, billfish, Lepisosteus osseus", "396": "lionfish", "397": "puffer, pufferfish, blowfish, globefish", "398": "abacus", "399": "abaya", "400": "academic gown, academic robe, judge's robe", "401": "accordion, piano accordion, squeeze box", "402": "acoustic guitar", "403": "aircraft carrier, carrier, flattop, attack aircraft carrier", "404": "airliner", "405": "airship, dirigible", "406": "altar", "407": "ambulance", "408": "amphibian, amphibious vehicle", "409": "analog clock", "410": "apiary, bee house", "411": "apron", "412": "ashcan, trash can, garbage can, wastebin, ash bin, ash-bin, ashbin, dustbin, trash barrel, trash bin", "413": "assault rifle, assault gun", "414": "backpack, back pack, knapsack, packsack, rucksack, haversack", "415": "bakery, bakeshop, bakehouse", "416": "balance beam, beam", "417": "balloon", "418": "ballpoint, ballpoint pen, ballpen, Biro", "419": "Band Aid", "420": "banjo", "421": "bannister, banister, balustrade, balusters, handrail", "422": "barbell", "423": "barber chair", "424": "barbershop", "425": "barn", "426": "barometer", "427": "barrel, cask", "428": "barrow, garden cart, lawn cart, wheelbarrow", "429": "baseball", "430": "basketball", "431": "bassinet", "432": "bassoon", "433": "bathing cap, swimming cap", "434": "bath towel", "435": "bathtub, bathing tub, bath, tub", "436": "beach wagon, station wagon, wagon, estate car, beach waggon, station waggon, waggon", "437": "beacon, lighthouse, beacon light, pharos", "438": "beaker", "439": "bearskin, busby, shako", "440": "beer bottle", "441": "beer glass", "442": "bell cote, bell cot", "443": "bib", "444": "bicycle-built-for-two, tandem bicycle, tandem", "445": "bikini, two-piece", "446": "binder, ring-binder", "447": "binoculars, field glasses, opera glasses", "448": "birdhouse", "449": "boathouse", "450": "bobsled, bobsleigh, bob", "451": "bolo tie, bolo, bola tie, bola", "452": "bonnet, poke bonnet", "453": "bookcase", "454": "bookshop, bookstore, bookstall", "455": "bottlecap", "456": "bow", "457": "bow tie, bow-tie, bowtie", "458": "brass, memorial tablet, plaque", "459": "brassiere, bra, bandeau", "460": "breakwater, groin, groyne, mole, bulwark, seawall, jetty", "461": "breastplate, aegis, egis", "462": "broom", "463": "bucket, pail", "464": "buckle", "465": "bulletproof vest", "466": "bullet train, bullet", "467": "butcher shop, meat market", "468": "cab, hack, taxi, taxicab", "469": "caldron, cauldron", "470": "candle, taper, wax light", "471": "cannon", "472": "canoe", "473": "can opener, tin opener", "474": "cardigan", "475": "car mirror", "476": "carousel, carrousel, merry-go-round, roundabout, whirligig", "477": "carpenter's kit, tool kit", "478": "carton", "479": "car wheel", "480": "cash machine, cash dispenser, automated teller machine, automatic teller machine, automated teller, automatic teller, ATM", "481": "cassette", "482": "cassette player", "483": "castle", "484": "catamaran", "485": "CD player", "486": "cello, violoncello", "487": "cellular telephone, cellular phone, cellphone, cell, mobile phone", "488": "chain", "489": "chainlink fence", "490": "chain mail, ring mail, mail, chain armor, chain armour, ring armor, ring armour", "491": "chain saw, chainsaw", "492": "chest", "493": "chiffonier, commode", "494": "chime, bell, gong", "495": "china cabinet, china closet", "496": "Christmas stocking", "497": "church, church building", "498": "cinema, movie theater, movie theatre, movie house, picture palace", "499": "cleaver, meat cleaver, chopper", "500": "cliff dwelling", "501": "cloak", "502": "clog, geta, patten, sabot", "503": "cocktail shaker", "504": "coffee mug", "505": "coffeepot", "506": "coil, spiral, volute, whorl, helix", "507": "combination lock", "508": "computer keyboard, keypad", "509": "confectionery, confectionary, candy store", "510": "container ship, containership, container vessel", "511": "convertible", "512": "corkscrew, bottle screw", "513": "cornet, horn, trumpet, trump", "514": "cowboy boot", "515": "cowboy hat, ten-gallon hat", "516": "cradle", "517": "crane2", "518": "crash helmet", "519": "crate", "520": "crib, cot", "521": "Crock Pot", "522": "croquet ball", "523": "crutch", "524": "cuirass", "525": "dam, dike, dyke", "526": "desk", "527": "desktop computer", "528": "dial telephone, dial phone", "529": "diaper, nappy, napkin", "530": "digital clock", "531": "digital watch", "532": "dining table, board", "533": "dishrag, dishcloth", "534": "dishwasher, dish washer, dishwashing machine", "535": "disk brake, disc brake", "536": "dock, dockage, docking facility", "537": "dogsled, dog sled, dog sleigh", "538": "dome", "539": "doormat, welcome mat", "540": "drilling platform, offshore rig", "541": "drum, membranophone, tympan", "542": "drumstick", "543": "dumbbell", "544": "Dutch oven", "545": "electric fan, blower", "546": "electric guitar", "547": "electric locomotive", "548": "entertainment center", "549": "envelope", "550": "espresso maker", "551": "face powder", "552": "feather boa, boa", "553": "file, file cabinet, filing cabinet", "554": "fireboat", "555": "fire engine, fire truck", "556": "fire screen, fireguard", "557": "flagpole, flagstaff", "558": "flute, transverse flute", "559": "folding chair", "560": "football helmet", "561": "forklift", "562": "fountain", "563": "fountain pen", "564": "four-poster", "565": "freight car", "566": "French horn, horn", "567": "frying pan, frypan, skillet", "568": "fur coat", "569": "garbage truck, dustcart", "570": "gasmask, respirator, gas helmet", "571": "gas pump, gasoline pump, petrol pump, island dispenser", "572": "goblet", "573": "go-kart", "574": "golf ball", "575": "golfcart, golf cart", "576": "gondola", "577": "gong, tam-tam", "578": "gown", "579": "grand piano, grand", "580": "greenhouse, nursery, glasshouse", "581": "grille, radiator grille", "582": "grocery store, grocery, food market, market", "583": "guillotine", "584": "hair slide", "585": "hair spray", "586": "half track", "587": "hammer", "588": "hamper", "589": "hand blower, blow dryer, blow drier, hair dryer, hair drier", "590": "hand-held computer, hand-held microcomputer", "591": "handkerchief, hankie, hanky, hankey", "592": "hard disc, hard disk, fixed disk", "593": "harmonica, mouth organ, harp, mouth harp", "594": "harp", "595": "harvester, reaper", "596": "hatchet", "597": "holster", "598": "home theater, home theatre", "599": "honeycomb", "600": "hook, claw", "601": "hoopskirt, crinoline", "602": "horizontal bar, high bar", "603": "horse cart, horse-cart", "604": "hourglass", "605": "iPod", "606": "iron, smoothing iron", "607": "jack-o'-lantern", "608": "jean, blue jean, denim", "609": "jeep, landrover", "610": "jersey, T-shirt, tee shirt", "611": "jigsaw puzzle", "612": "jinrikisha, ricksha, rickshaw", "613": "joystick", "614": "kimono", "615": "knee pad", "616": "knot", "617": "lab coat, laboratory coat", "618": "ladle", "619": "lampshade, lamp shade", "620": "laptop, laptop computer", "621": "lawn mower, mower", "622": "lens cap, lens cover", "623": "letter opener, paper knife, paperknife", "624": "library", "625": "lifeboat", "626": "lighter, light, igniter, ignitor", "627": "limousine, limo", "628": "liner, ocean liner", "629": "lipstick, lip rouge", "630": "Loafer", "631": "lotion", "632": "loudspeaker, speaker, speaker unit, loudspeaker system, speaker system", "633": "loupe, jeweler's loupe", "634": "lumbermill, sawmill", "635": "magnetic compass", "636": "mailbag, postbag", "637": "mailbox, letter box", "638": "maillot", "639": "maillot, tank suit", "640": "manhole cover", "641": "maraca", "642": "marimba, xylophone", "643": "mask", "644": "matchstick", "645": "maypole", "646": "maze, labyrinth", "647": "measuring cup", "648": "medicine chest, medicine cabinet", "649": "megalith, megalithic structure", "650": "microphone, mike", "651": "microwave, microwave oven", "652": "military uniform", "653": "milk can", "654": "minibus", "655": "miniskirt, mini", "656": "minivan", "657": "missile", "658": "mitten", "659": "mixing bowl", "660": "mobile home, manufactured home", "661": "Model T", "662": "modem", "663": "monastery", "664": "monitor", "665": "moped", "666": "mortar", "667": "mortarboard", "668": "mosque", "669": "mosquito net", "670": "motor scooter, scooter", "671": "mountain bike, all-terrain bike, off-roader", "672": "mountain tent", "673": "mouse, computer mouse", "674": "mousetrap", "675": "moving van", "676": "muzzle", "677": "nail", "678": "neck brace", "679": "necklace", "680": "nipple", "681": "notebook, notebook computer", "682": "obelisk", "683": "oboe, hautboy, hautbois", "684": "ocarina, sweet potato", "685": "odometer, hodometer, mileometer, milometer", "686": "oil filter", "687": "organ, pipe organ", "688": "oscilloscope, scope, cathode-ray oscilloscope, CRO", "689": "overskirt", "690": "oxcart", "691": "oxygen mask", "692": "packet", "693": "paddle, boat paddle", "694": "paddlewheel, paddle wheel", "695": "padlock", "696": "paintbrush", "697": "pajama, pyjama, pj's, jammies", "698": "palace", "699": "panpipe, pandean pipe, syrinx", "700": "paper towel", "701": "parachute, chute", "702": "parallel bars, bars", "703": "park bench", "704": "parking meter", "705": "passenger car, coach, carriage", "706": "patio, terrace", "707": "pay-phone, pay-station", "708": "pedestal, plinth, footstall", "709": "pencil box, pencil case", "710": "pencil sharpener", "711": "perfume, essence", "712": "Petri dish", "713": "photocopier", "714": "pick, plectrum, plectron", "715": "pickelhaube", "716": "picket fence, paling", "717": "pickup, pickup truck", "718": "pier", "719": "piggy bank, penny bank", "720": "pill bottle", "721": "pillow", "722": "ping-pong ball", "723": "pinwheel", "724": "pirate, pirate ship", "725": "pitcher, ewer", "726": "plane, carpenter's plane, woodworking plane", "727": "planetarium", "728": "plastic bag", "729": "plate rack", "730": "plow, plough", "731": "plunger, plumber's helper", "732": "Polaroid camera, Polaroid Land camera", "733": "pole", "734": "police van, police wagon, paddy wagon, patrol wagon, wagon, black Maria", "735": "poncho", "736": "pool table, billiard table, snooker table", "737": "pop bottle, soda bottle", "738": "pot, flowerpot", "739": "potter's wheel", "740": "power drill", "741": "prayer rug, prayer mat", "742": "printer", "743": "prison, prison house", "744": "projectile, missile", "745": "projector", "746": "puck, hockey puck", "747": "punching bag, punch bag, punching ball, punchball", "748": "purse", "749": "quill, quill pen", "750": "quilt, comforter, comfort, puff", "751": "racer, race car, racing car", "752": "racket, racquet", "753": "radiator", "754": "radio, wireless", "755": "radio telescope, radio reflector", "756": "rain barrel", "757": "recreational vehicle, RV, R.V.", "758": "reel", "759": "reflex camera", "760": "refrigerator, icebox", "761": "remote control, remote", "762": "restaurant, eating house, eating place, eatery", "763": "revolver, six-gun, six-shooter", "764": "rifle", "765": "rocking chair, rocker", "766": "rotisserie", "767": "rubber eraser, rubber, pencil eraser", "768": "rugby ball", "769": "rule, ruler", "770": "running shoe", "771": "safe", "772": "safety pin", "773": "saltshaker, salt shaker", "774": "sandal", "775": "sarong", "776": "sax, saxophone", "777": "scabbard", "778": "scale, weighing machine", "779": "school bus", "780": "schooner", "781": "scoreboard", "782": "screen, CRT screen", "783": "screw", "784": "screwdriver", "785": "seat belt, seatbelt", "786": "sewing machine", "787": "shield, buckler", "788": "shoe shop, shoe-shop, shoe store", "789": "shoji", "790": "shopping basket", "791": "shopping cart", "792": "shovel", "793": "shower cap", "794": "shower curtain", "795": "ski", "796": "ski mask", "797": "sleeping bag", "798": "slide rule, slipstick", "799": "sliding door", "800": "slot, one-armed bandit", "801": "snorkel", "802": "snowmobile", "803": "snowplow, snowplough", "804": "soap dispenser", "805": "soccer ball", "806": "sock", "807": "solar dish, solar collector, solar furnace", "808": "sombrero", "809": "soup bowl", "810": "space bar", "811": "space heater", "812": "space shuttle", "813": "spatula", "814": "speedboat", "815": "spider web, spider's web", "816": "spindle", "817": "sports car, sport car", "818": "spotlight, spot", "819": "stage", "820": "steam locomotive", "821": "steel arch bridge", "822": "steel drum", "823": "stethoscope", "824": "stole", "825": "stone wall", "826": "stopwatch, stop watch", "827": "stove", "828": "strainer", "829": "streetcar, tram, tramcar, trolley, trolley car", "830": "stretcher", "831": "studio couch, day bed", "832": "stupa, tope", "833": "submarine, pigboat, sub, U-boat", "834": "suit, suit of clothes", "835": "sundial", "836": "sunglass", "837": "sunglasses, dark glasses, shades", "838": "sunscreen, sunblock, sun blocker", "839": "suspension bridge", "840": "swab, swob, mop", "841": "sweatshirt", "842": "swimming trunks, bathing trunks", "843": "swing", "844": "switch, electric switch, electrical switch", "845": "syringe", "846": "table lamp", "847": "tank, army tank, armored combat vehicle, armoured combat vehicle", "848": "tape player", "849": "teapot", "850": "teddy, teddy bear", "851": "television, television system", "852": "tennis ball", "853": "thatch, thatched roof", "854": "theater curtain, theatre curtain", "855": "thimble", "856": "thresher, thrasher, threshing machine", "857": "throne", "858": "tile roof", "859": "toaster", "860": "tobacco shop, tobacconist shop, tobacconist", "861": "toilet seat", "862": "torch", "863": "totem pole", "864": "tow truck, tow car, wrecker", "865": "toyshop", "866": "tractor", "867": "trailer truck, tractor trailer, trucking rig, rig, articulated lorry, semi", "868": "tray", "869": "trench coat", "870": "tricycle, trike, velocipede", "871": "trimaran", "872": "tripod", "873": "triumphal arch", "874": "trolleybus, trolley coach, trackless trolley", "875": "trombone", "876": "tub, vat", "877": "turnstile", "878": "typewriter keyboard", "879": "umbrella", "880": "unicycle, monocycle", "881": "upright, upright piano", "882": "vacuum, vacuum cleaner", "883": "vase", "884": "vault", "885": "velvet", "886": "vending machine", "887": "vestment", "888": "viaduct", "889": "violin, fiddle", "890": "volleyball", "891": "waffle iron", "892": "wall clock", "893": "wallet, billfold, notecase, pocketbook", "894": "wardrobe, closet, press", "895": "warplane, military plane", "896": "washbasin, handbasin, washbowl, lavabo, wash-hand basin", "897": "washer, automatic washer, washing machine", "898": "water bottle", "899": "water jug", "900": "water tower", "901": "whiskey jug", "902": "whistle", "903": "wig", "904": "window screen", "905": "window shade", "906": "Windsor tie", "907": "wine bottle", "908": "wing", "909": "wok", "910": "wooden spoon", "911": "wool, woolen, woollen", "912": "worm fence, snake fence, snake-rail fence, Virginia fence", "913": "wreck", "914": "yawl", "915": "yurt", "916": "web site, website, internet site, site", "917": "comic book", "918": "crossword puzzle, crossword", "919": "street sign", "920": "traffic light, traffic signal, stoplight", "921": "book jacket, dust cover, dust jacket, dust wrapper", "922": "menu", "923": "plate", "924": "guacamole", "925": "consomme", "926": "hot pot, hotpot", "927": "trifle", "928": "ice cream, icecream", "929": "ice lolly, lolly, lollipop, popsicle", "930": "French loaf", "931": "bagel, beigel", "932": "pretzel", "933": "cheeseburger", "934": "hotdog, hot dog, red hot", "935": "mashed potato", "936": "head cabbage", "937": "broccoli", "938": "cauliflower", "939": "zucchini, courgette", "940": "spaghetti squash", "941": "acorn squash", "942": "butternut squash", "943": "cucumber, cuke", "944": "artichoke, globe artichoke", "945": "bell pepper", "946": "cardoon", "947": "mushroom", "948": "Granny Smith", "949": "strawberry", "950": "orange", "951": "lemon", "952": "fig", "953": "pineapple, ananas", "954": "banana", "955": "jackfruit, jak, jack", "956": "custard apple", "957": "pomegranate", "958": "hay", "959": "carbonara", "960": "chocolate sauce, chocolate syrup", "961": "dough", "962": "meat loaf, meatloaf", "963": "pizza, pizza pie", "964": "potpie", "965": "burrito", "966": "red wine", "967": "espresso", "968": "cup", "969": "eggnog", "970": "alp", "971": "bubble", "972": "cliff, drop, drop-off", "973": "coral reef", "974": "geyser", "975": "lakeside, lakeshore", "976": "promontory, headland, head, foreland", "977": "sandbar, sand bar", "978": "seashore, coast, seacoast, sea-coast", "979": "valley, vale", "980": "volcano", "981": "ballplayer, baseball player", "982": "groom, bridegroom", "983": "scuba diver", "984": "rapeseed", "985": "daisy", "986": "yellow lady's slipper, yellow lady-slipper, Cypripedium calceolus, Cypripedium parviflorum", "987": "corn", "988": "acorn", "989": "hip, rose hip, rosehip", "990": "buckeye, horse chestnut, conker", "991": "coral fungus", "992": "agaric", "993": "gyromitra", "994": "stinkhorn, carrion fungus", "995": "earthstar", "996": "hen-of-the-woods, hen of the woods, Polyporus frondosus, Grifola frondosa", "997": "bolete", "998": "ear, spike, capitulum", "999": "toilet tissue, toilet paper, bathroom tissue"}}}}], "splits": [{"name": "train", "num_bytes": 11451951769.624708, "num_examples": 99867}], "download_size": 12435178742, "dataset_size": 11451951769.624708}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-30T06:17:00+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "imagenet-1k-baaaa-filtered"
More Information needed
|
[
"# Dataset Card for \"imagenet-1k-baaaa-filtered\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"imagenet-1k-baaaa-filtered\"\n\nMore Information needed"
] |
[
6,
20
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"imagenet-1k-baaaa-filtered\"\n\nMore Information needed"
] |
3e84a15ec7a9b9efeef02bfaa4968218f6d3adb3
|
# Dataset Card for "maestro-quantized"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
JasiekKaczmarczyk/maestro-quantized
|
[
"region:us"
] |
2023-08-22T09:34:22+00:00
|
{"dataset_info": {"features": [{"name": "midi_filename", "dtype": "string"}, {"name": "pitch", "sequence": "int16", "length": 128}, {"name": "dstart_bin", "sequence": "int16", "length": 128}, {"name": "duration_bin", "sequence": "int16", "length": 128}, {"name": "velocity_bin", "sequence": "int16", "length": 128}], "splits": [{"name": "train", "num_bytes": 48324585, "num_examples": 43727}, {"name": "validation", "num_bytes": 5451233, "num_examples": 4929}, {"name": "test", "num_bytes": 6294739, "num_examples": 5695}], "download_size": 14057918, "dataset_size": 60070557}}
|
2023-08-24T06:19:03+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "maestro-quantized"
More Information needed
|
[
"# Dataset Card for \"maestro-quantized\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"maestro-quantized\"\n\nMore Information needed"
] |
[
6,
15
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"maestro-quantized\"\n\nMore Information needed"
] |
c8792af0d3e83e066079f8c361c8f7b4f963714d
|
# Dataset of nagatsuki/長月 (Kantai Collection)
This is the dataset of nagatsuki/長月 (Kantai Collection), containing 500 images and their tags.
The core tags of this character are `green_hair, long_hair, green_eyes, crescent_hair_ornament, hair_ornament`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:----------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 500 | 391.29 MiB | [Download](https://huggingface.co/datasets/CyberHarem/nagatsuki_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 500 | 274.33 MiB | [Download](https://huggingface.co/datasets/CyberHarem/nagatsuki_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 1079 | 560.33 MiB | [Download](https://huggingface.co/datasets/CyberHarem/nagatsuki_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 500 | 368.05 MiB | [Download](https://huggingface.co/datasets/CyberHarem/nagatsuki_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 1079 | 717.52 MiB | [Download](https://huggingface.co/datasets/CyberHarem/nagatsuki_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/nagatsuki_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 8 |  |  |  |  |  | 1girl, black_pantyhose, black_serafuku, black_skirt, long_sleeves, looking_at_viewer, simple_background, solo, white_background, white_necktie, black_sailor_collar, twitter_username, crescent_pin, hair_between_eyes, sitting, blush, one-hour_drawing_challenge, pleated_skirt, white_neckerchief |
| 1 | 19 |  |  |  |  |  | 1girl, black_serafuku, crescent, simple_background, white_background, solo, blush, upper_body, white_necktie, white_neckerchief, black_sailor_collar, long_sleeves, looking_at_viewer, hair_between_eyes |
| 2 | 11 |  |  |  |  |  | 1girl, crescent, solo, looking_at_viewer, blush, black_bikini, navel, smile, small_breasts, collarbone, cowboy_shot, day, ocean, sky |
| 3 | 6 |  |  |  |  |  | 1girl, crescent, looking_at_viewer, solo, blue_one-piece_swimsuit, old_school_swimsuit, simple_background, blush, cowboy_shot, flat_chest, standing, black_one-piece_swimsuit, cat_ears, cat_tail, name_tag, white_background |
| 4 | 9 |  |  |  |  |  | 1girl, solo, alternate_costume, crescent, blush, yukata, obi, floral_print, looking_at_viewer, open_mouth |
| 5 | 9 |  |  |  |  |  | blush, crescent, looking_at_viewer, 1girl, solo, black_dress, enmaided, maid_headdress, frills, maid_apron, simple_background, tray, cowboy_shot, cup, open_mouth, white_background |
| 6 | 5 |  |  |  |  |  | blush, crescent, fake_animal_ears, playboy_bunny, rabbit_ears, strapless_leotard, 1girl, black_leotard, detached_collar, looking_at_viewer, open_mouth, simple_background, solo, rabbit_tail, white_background, wrist_cuffs, black_pantyhose, cowboy_shot, dated, flat_chest, one-hour_drawing_challenge, small_breasts, twitter_username, wariza |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | black_pantyhose | black_serafuku | black_skirt | long_sleeves | looking_at_viewer | simple_background | solo | white_background | white_necktie | black_sailor_collar | twitter_username | crescent_pin | hair_between_eyes | sitting | blush | one-hour_drawing_challenge | pleated_skirt | white_neckerchief | crescent | upper_body | black_bikini | navel | smile | small_breasts | collarbone | cowboy_shot | day | ocean | sky | blue_one-piece_swimsuit | old_school_swimsuit | flat_chest | standing | black_one-piece_swimsuit | cat_ears | cat_tail | name_tag | alternate_costume | yukata | obi | floral_print | open_mouth | black_dress | enmaided | maid_headdress | frills | maid_apron | tray | cup | fake_animal_ears | playboy_bunny | rabbit_ears | strapless_leotard | black_leotard | detached_collar | rabbit_tail | wrist_cuffs | dated | wariza |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:------------------|:-----------------|:--------------|:---------------|:--------------------|:--------------------|:-------|:-------------------|:----------------|:----------------------|:-------------------|:---------------|:--------------------|:----------|:--------|:-----------------------------|:----------------|:--------------------|:-----------|:-------------|:---------------|:--------|:--------|:----------------|:-------------|:--------------|:------|:--------|:------|:--------------------------|:----------------------|:-------------|:-----------|:---------------------------|:-----------|:-----------|:-----------|:--------------------|:---------|:------|:---------------|:-------------|:--------------|:-----------|:-----------------|:---------|:-------------|:-------|:------|:-------------------|:----------------|:--------------|:--------------------|:----------------|:------------------|:--------------|:--------------|:--------|:---------|
| 0 | 8 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 19 |  |  |  |  |  | X | | X | | X | X | X | X | X | X | X | | | X | | X | | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 11 |  |  |  |  |  | X | | | | | X | | X | | | | | | | | X | | | | X | | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 6 |  |  |  |  |  | X | | | | | X | X | X | X | | | | | | | X | | | | X | | | | | | | X | | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 9 |  |  |  |  |  | X | | | | | X | | X | | | | | | | | X | | | | X | | | | | | | | | | | | | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | |
| 5 | 9 |  |  |  |  |  | X | | | | | X | X | X | X | | | | | | | X | | | | X | | | | | | | X | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | | | | | | | | | | |
| 6 | 5 |  |  |  |  |  | X | X | | | | X | X | X | X | | | X | | | | X | X | | | X | | | | | X | | X | | | | | | X | | | | | | | | | | X | | | | | | | | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/nagatsuki_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T09:40:44+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T08:12:47+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of nagatsuki/長月 (Kantai Collection)
===========================================
This is the dataset of nagatsuki/長月 (Kantai Collection), containing 500 images and their tags.
The core tags of this character are 'green\_hair, long\_hair, green\_eyes, crescent\_hair\_ornament, hair\_ornament', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
a3ec43c85d4c92bba674b2b8341483665ffd7c10
|
# Dataset of fletcher (Kantai Collection)
This is the dataset of fletcher (Kantai Collection), containing 500 images and their tags.
The core tags of this character are `blonde_hair, long_hair, breasts, hair_bun, double_bun, large_breasts, hairband, blue_eyes, hair_ornament, star_hair_ornament, purple_eyes`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:---------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 500 | 668.78 MiB | [Download](https://huggingface.co/datasets/CyberHarem/fletcher_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 500 | 379.18 MiB | [Download](https://huggingface.co/datasets/CyberHarem/fletcher_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 1247 | 830.76 MiB | [Download](https://huggingface.co/datasets/CyberHarem/fletcher_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 500 | 590.31 MiB | [Download](https://huggingface.co/datasets/CyberHarem/fletcher_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 1247 | 1.16 GiB | [Download](https://huggingface.co/datasets/CyberHarem/fletcher_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/fletcher_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:----------------------------------|:----------------------------------|:----------------------------------|:----------------------------------|:----------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 15 |  |  |  |  |  | 1girl, solo, white_bikini, cleavage, looking_at_viewer, navel, blue_hairband, simple_background, star_(symbol), white_background, cowboy_shot, collarbone, smile, open_mouth, blush |
| 1 | 13 |  |  |  |  |  | 1girl, blue_sky, day, outdoors, solo, cloud, looking_at_viewer, smile, white_bikini, cleavage, navel, ocean, blue_hairband, star_(symbol), collarbone, blush, cowboy_shot, beach |
| 2 | 12 |  |  |  |  |  | alternate_costume, blouse, star_(symbol), white_shirt, 1girl, blue_skirt, cleavage, solo, smile, cowboy_shot, belt, looking_at_viewer, blush, casual, shopping_bag, white_background, collarbone, open_mouth, pantyhose, simple_background |
| 3 | 7 |  |  |  |  |  | 1girl, blue_one-piece_swimsuit, collarbone, looking_at_viewer, simple_background, solo, competition_swimsuit, cowboy_shot, smile, white_background, cleavage, dated, one-hour_drawing_challenge, twitter_username, covered_navel, sitting, blush, highleg_swimsuit |
| 4 | 6 |  |  |  |  |  | 1girl, flower, holding_bouquet, looking_at_viewer, smile, solo, white_dress, star_(symbol), wedding_dress, blush, alternate_costume, off-shoulder_dress |
| 5 | 33 |  |  |  |  |  | 1girl, blue_shirt, off_shoulder, serafuku, solo, upper_body, white_sailor_collar, yellow_neckerchief, cleavage, looking_at_viewer, smile, star_(symbol), white_gloves, simple_background, white_background |
| 6 | 45 |  |  |  |  |  | 1girl, blue_shirt, off_shoulder, pleated_skirt, serafuku, solo, white_sailor_collar, yellow_neckerchief, cleavage, white_skirt, looking_at_viewer, cowboy_shot, star_(symbol), simple_background, white_background, white_gloves, white_thighhighs, smile, open_mouth |
| 7 | 5 |  |  |  |  |  | 1boy, 1girl, blue_shirt, blush, hetero, nipples, off_shoulder, serafuku, star_(symbol), white_sailor_collar, solo_focus, mosaic_censoring, penis, yellow_neckerchief, cleavage, ejaculation, gloves, handjob, lactation, paizuri, smile |
| 8 | 6 |  |  |  |  |  | 1girl, blue_shirt, employee_uniform, pleated_skirt, solo, vertical-striped_shirt, cowboy_shot, name_tag, white_skirt, looking_at_viewer, short_sleeves, simple_background, alternate_costume, blue_hairband, blush, id_card, smile, white_background |
| 9 | 6 |  |  |  |  |  | 1girl, black_neckerchief, black_panties, blue_skirt, crop_top, elbow_gloves, highleg_panties, microskirt, miniskirt, pleated_skirt, serafuku, shimakaze_(kancolle)_(cosplay), solo, white_gloves, navel, striped_thighhighs, black_hairband, cowboy_shot, star_(symbol), twitter_username, blue_sailor_collar, blush, white_background |
| 10 | 6 |  |  |  |  |  | 1girl, enmaided, maid_headdress, solo, star_(symbol), cleavage, looking_at_viewer, simple_background, white_apron, white_background, frilled_apron, maid_apron, blue_dress, smile |
| 11 | 29 |  |  |  |  |  | 1girl, playboy_bunny, rabbit_ears, fake_animal_ears, solo, detached_collar, cleavage, strapless_leotard, blue_leotard, smile, wrist_cuffs, looking_at_viewer, rabbit_tail, star_(symbol), pantyhose, simple_background, white_background, cowboy_shot, open_mouth, alternate_costume, bowtie, thighhighs, white_gloves |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | solo | white_bikini | cleavage | looking_at_viewer | navel | blue_hairband | simple_background | star_(symbol) | white_background | cowboy_shot | collarbone | smile | open_mouth | blush | blue_sky | day | outdoors | cloud | ocean | beach | alternate_costume | blouse | white_shirt | blue_skirt | belt | casual | shopping_bag | pantyhose | blue_one-piece_swimsuit | competition_swimsuit | dated | one-hour_drawing_challenge | twitter_username | covered_navel | sitting | highleg_swimsuit | flower | holding_bouquet | white_dress | wedding_dress | off-shoulder_dress | blue_shirt | off_shoulder | serafuku | upper_body | white_sailor_collar | yellow_neckerchief | white_gloves | pleated_skirt | white_skirt | white_thighhighs | 1boy | hetero | nipples | solo_focus | mosaic_censoring | penis | ejaculation | gloves | handjob | lactation | paizuri | employee_uniform | vertical-striped_shirt | name_tag | short_sleeves | id_card | black_neckerchief | black_panties | crop_top | elbow_gloves | highleg_panties | microskirt | miniskirt | shimakaze_(kancolle)_(cosplay) | striped_thighhighs | black_hairband | blue_sailor_collar | enmaided | maid_headdress | white_apron | frilled_apron | maid_apron | blue_dress | playboy_bunny | rabbit_ears | fake_animal_ears | detached_collar | strapless_leotard | blue_leotard | wrist_cuffs | rabbit_tail | bowtie | thighhighs |
|----:|----------:|:----------------------------------|:----------------------------------|:----------------------------------|:----------------------------------|:----------------------------------|:--------|:-------|:---------------|:-----------|:--------------------|:--------|:----------------|:--------------------|:----------------|:-------------------|:--------------|:-------------|:--------|:-------------|:--------|:-----------|:------|:-----------|:--------|:--------|:--------|:--------------------|:---------|:--------------|:-------------|:-------|:---------|:---------------|:------------|:--------------------------|:-----------------------|:--------|:-----------------------------|:-------------------|:----------------|:----------|:-------------------|:---------|:------------------|:--------------|:----------------|:---------------------|:-------------|:---------------|:-----------|:-------------|:----------------------|:---------------------|:---------------|:----------------|:--------------|:-------------------|:-------|:---------|:----------|:-------------|:-------------------|:--------|:--------------|:---------|:----------|:------------|:----------|:-------------------|:-------------------------|:-----------|:----------------|:----------|:--------------------|:----------------|:-----------|:---------------|:------------------|:-------------|:------------|:---------------------------------|:---------------------|:-----------------|:---------------------|:-----------|:-----------------|:--------------|:----------------|:-------------|:-------------|:----------------|:--------------|:-------------------|:------------------|:--------------------|:---------------|:--------------|:--------------|:---------|:-------------|
| 0 | 15 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 13 |  |  |  |  |  | X | X | X | X | X | X | X | | X | | X | X | X | | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 12 |  |  |  |  |  | X | X | | X | X | | | X | X | X | X | X | X | X | X | | | | | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 7 |  |  |  |  |  | X | X | | X | X | | | X | | X | X | X | X | | X | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 6 |  |  |  |  |  | X | X | | | X | | | | X | | | | X | | X | | | | | | | X | | | | | | | | | | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 33 |  |  |  |  |  | X | X | | X | X | | | X | X | X | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 6 | 45 |  |  |  |  |  | X | X | | X | X | | | X | X | X | X | | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 7 | 5 |  |  |  |  |  | X | | | X | | | | | X | | | | X | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | | X | X | | | | | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 8 | 6 |  |  |  |  |  | X | X | | | X | | X | X | | X | X | | X | | X | | | | | | | X | | | | | | | | | | | | | | | | | | | | | X | | | | | | | X | X | | | | | | | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 9 | 6 |  |  |  |  |  | X | X | | | | X | | | X | X | X | | | | X | | | | | | | | | | X | | | | | | | | | X | | | | | | | | | | | X | | | | X | X | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | |
| 10 | 6 |  |  |  |  |  | X | X | | X | X | | | X | X | X | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | | | | | | | | | | |
| 11 | 29 |  |  |  |  |  | X | X | | X | X | | | X | X | X | X | | X | X | | | | | | | | X | | | | | | | X | | | | | | | | | | | | | | | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/fletcher_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T09:42:32+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-16T03:40:38+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of fletcher (Kantai Collection)
=======================================
This is the dataset of fletcher (Kantai Collection), containing 500 images and their tags.
The core tags of this character are 'blonde\_hair, long\_hair, breasts, hair\_bun, double\_bun, large\_breasts, hairband, blue\_eyes, hair\_ornament, star\_hair\_ornament, purple\_eyes', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
4ba280e13ce69a62d7d9131713acf3a0c028168e
|
# Dataset Card for "OCR_handwritting_HAT2023"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
DataStudio/OCR_handwritting_HAT2023
|
[
"region:us"
] |
2023-08-22T09:46:53+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "test", "path": "data/test-*"}]}], "dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "binary_image", "dtype": "image"}, {"name": "text", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 391915409.0, "num_examples": 103000}, {"name": "test", "num_bytes": 521736366.0, "num_examples": 33000}], "download_size": 0, "dataset_size": 913651775.0}}
|
2023-08-22T09:50:47+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "OCR_handwritting_HAT2023"
More Information needed
|
[
"# Dataset Card for \"OCR_handwritting_HAT2023\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"OCR_handwritting_HAT2023\"\n\nMore Information needed"
] |
[
6,
21
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"OCR_handwritting_HAT2023\"\n\nMore Information needed"
] |
97939ed5a6ff4ab19a20b95ea2ec97796920811e
|
# Dataset of isolated_island_oni/離島棲鬼 (Kantai Collection)
This is the dataset of isolated_island_oni/離島棲鬼 (Kantai Collection), containing 41 images and their tags.
The core tags of this character are `black_hair, long_hair, red_eyes, horns, pale_skin, very_long_hair, bow, glowing_eyes`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:----------|:--------------------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 41 | 47.67 MiB | [Download](https://huggingface.co/datasets/CyberHarem/isolated_island_oni_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 41 | 33.01 MiB | [Download](https://huggingface.co/datasets/CyberHarem/isolated_island_oni_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 95 | 60.12 MiB | [Download](https://huggingface.co/datasets/CyberHarem/isolated_island_oni_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 41 | 44.11 MiB | [Download](https://huggingface.co/datasets/CyberHarem/isolated_island_oni_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 95 | 74.02 MiB | [Download](https://huggingface.co/datasets/CyberHarem/isolated_island_oni_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/isolated_island_oni_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 34 |  |  |  |  |  | abyssal_ship, gothic_lolita, 1girl, looking_at_viewer, solo, smile, bonnet, black_dress, glowing, detached_sleeves, black_pantyhose |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | abyssal_ship | gothic_lolita | 1girl | looking_at_viewer | solo | smile | bonnet | black_dress | glowing | detached_sleeves | black_pantyhose |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:---------------|:----------------|:--------|:--------------------|:-------|:--------|:---------|:--------------|:----------|:-------------------|:------------------|
| 0 | 34 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/isolated_island_oni_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T09:54:32+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T22:41:36+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of isolated\_island\_oni/離島棲鬼 (Kantai Collection)
=========================================================
This is the dataset of isolated\_island\_oni/離島棲鬼 (Kantai Collection), containing 41 images and their tags.
The core tags of this character are 'black\_hair, long\_hair, red\_eyes, horns, pale\_skin, very\_long\_hair, bow, glowing\_eyes', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
4ec79f5fd13f86f62e0d20dbfabc921c95aeb546
|
The rates of diabetes are raising in tandem with rising obesity rates. Many diabetes individuals experiment with different approaches to manage their blood glucose levels, which in turn will help to maintain optimal blood sugar levels. There are various blood sugar support pills on the market that promise to reduce high glucose and blood sugar levels and to promote restorative sleep.
[OFFICIAL WEBSITE LINKS](https://www.glitco.com/get-cardioFlex) - **[CardioFlex SHOP](https://www.glitco.com/get-cardioFlex)**
Before using [CardioFlex Blood Sugar](https://groups.google.com/g/cardioflex-blood-sugar/c/AnGO8eoNPkI), Pay Heed to this Real Review of it!
--------------------------------------------------------------------------------------------------------------------------------------------
[CardioFlex Blood Sugar](https://colab.research.google.com/drive/1cybYqWlwMNPwGwsC-ZcuKpbBL1-plKUH#scrollTo=MaSsHwcXi7HX) is one among these supplements. Diabetes has no known cure, thus treating the condition will suffice as long as it is reduced. For the purpose of overcoming obesity and overweight, this substance acts to destroy fat cells. Without producing any negative side effects, it supports numerous other bodily functions.
[.png)](https://www.glitco.com/get-cardioFlex)
What is [CardioFlex Blood Sugar](https://sites.google.com/view/cardioflex-blood-sugar/home) Actually?
-----------------------------------------------------------------------------------------------------
A supplement called [CardioFlex Blood Sugar](https://www.youtube.com/watch?v=4hNQLowFqbs) uses its active ingredients to keep the body's normal hormonal balance. A healthy blood sugar and blood glucose level is supported by the components. It is the greatest substance to lower the body's blood sugar level because it is healthful and natural. With regular use, it offers the user a number of advantages. Each element provides the body with a variety of advantages. It improves brain function by lowering mental health issues concurrently. The majority of people adore how well this product works. Please tell us more about the product and how it works in the body.
[BONUS OFFER | GET CardioFlex Blood Sugar Reviews at the LOWEST Price from Official Website](https://www.glitco.com/get-cardioFlex)
How does it Exactly Work?
-------------------------
It aids in reducing blood sugar levels, enabling a healthy and efficient functioning of the body. The mixture increases the body's vigor, vitality, and metabolism, which makes it easier to deal with a variety of health issues. This thing will help our brains work better. It alters the body's levels of insulin to lower blood sugar levels. Using this product regularly can help us curb our cravings for sugary or unhealthy foods, which can lead to high blood pressure and sugar levels. This recipe, which is a blend of many natural ingredients, is effective and safe for everyone. This mixture aids in reversing the symptoms of diabetes and flushes out toxins from the body to restore healthy blood flow to every area of the body.
Explicitly Describe the [CardioFlex Blood Sugar](https://lookerstudio.google.com/reporting/cb84cca6-9a7a-4a25-85f2-a9435f3f3469/page/0KSaD) Active Components!
--------------------------------------------------------------------------------------------------------------------------------------------------------------
The natural and healthy ingredients in [CardioFlex Blood Sugar](https://www.facebook.com/people/CardioFlex-Blood-Sugar/61550201561023/) aid the user in improving the body's general functioning without causing any negative side effects. Tell us about every component of the product that helps the user maintain a better blood sugar level.
* Licorice: Licorice is a useful ingredient for lowering blood sugar. The best effects come from using the product for 60 days. It rids the body of toxins and pollutants by functioning as an antioxidant. It also improves the efficiency of brain function.
* Biotin: The release of insulin may be influenced by biotin, according to certain theories. A biotin supplement may be something you want to think about if you have diabetes. It functions by enhancing the energy that cells has accessible to them. This implies that your body will utilize the carbs you consume rather than storing them as fat.
* § Manganese: Glycogen is produced with the assistance of manganese. Your body produces more glycogen when you eat more manganese than usual. You can store more glucose as a result in your muscles and liver. It aids cells in utilizing glucose effectively, which controls glucose metabolism.
* Cinnamon: It raises the body's energy and blood sugar levels. The reduction of joint and muscle pain enhances the body's capacity for strength and endurance.
* § Gymea Sylvester: Some of the enzymes involved in converting carbs into simple sugars may be affected by gym emic acids. The substance naturally reduces your appetite by lowering high blood sugar levels. Gymea Sylvester can be taken regularly by diabetics to achieve unparalleled benefits.
* § Zinc: Insulin is made possible by zinc. The pancreas makes the protein insulin, which regulates the amount of sugar in the blood. The pancreas is stimulated by zinc to produce more insulin. Our immune system is typically compromised by diabetes, which slows wound healing. Numerous illnesses can be treated with zinc, which also promotes the production of other hormones and speeds up recovery.
* § Chromium: One of the most well-liked minerals for enhancing blood sugar regulation is chromium. By raising the amount of insulin in the blood, it primarily lowers blood sugar. A hormone called insulin reduces blood sugar levels. Additionally, chromium actively contributes to accelerating your body's metabolism. The component also tries to naturally boost your immune system so you can stay healthy.
* § Juniper Berries: Flavonoids are a class of chemicals found in juniper berries. The possible health advantages of these substances have been well investigated. They appear to aid in the prevention of heart disease, stroke, and several forms of cancer. According to contemporary medical and technology breakthroughs, juniper berries are anti-inflammatory and immune-boosting antioxidants.
[HUGE SAVINGS TODAY GET CardioFlex Blood Sugar REVIEWS BEFORE STOCK RUNS OUT](https://www.glitco.com/get-cardioFlex)
Highlight Some Benefits / Pros of [CardioFlex Blood Sugar](https://www.dibiz.com/cardioflexbloodsugar)!
-------------------------------------------------------------------------------------------------------
Several benefits must be offered by a product to the body. Utilizing this chemical helps the body efficiently reduce diabetes. This helps the body gain a number of advantages as a result. Making use of this [CardioFlex Blood Sugar](https://www.crunchbase.com/organization/cardioflex) has the following benefits:
o It controls blood pressure, blood sugar, and cholesterol.
o Decreases high sugar and junk food cravings
o Prevents unpleasant side effects of type two diabetes by encouraging healthy blood flow and circulation.
o If the product doesn't work for you, the producers offer a 180-day money-back guarantee.
o It is available for free shipping.
o Safe, effective, and quite simple to use.
o By improving cardiac function, it helps to prevent heart attacks.
o It expedites the sugar levels returning to normal while raising energy
o It boosts the body's metabolism.
o You can save a lot of money by taking advantage of a number of offers.
o The amazing nutrients in the formula treat the body.
Here are Some Cons of [CardioFlex Blood Sugar](https://cardioflex-blood-sugar.company.site/) Supplement!
--------------------------------------------------------------------------------------------------------
o Since each person behaves differently, the outcomes different.
o It can only be found on the official website.
Pros of CardioFlex Blood Sugar
How can we take it? Dosage Guideline!
-------------------------------------
Given that the ingredients in glucose trust are effective at the recommended dosage, the company advises consumers to take one capsule daily. Please be aware that you must take the capsule at a specified time each day. As the capsules are also known to promote deep sleep and restful nights, the best time to take it would be an hour or a half before bed. The only thing that should be consumed with the capsules is a glass of water.
Is it Healthy or does it have any Negative Effects?
---------------------------------------------------
No negative effects exist. Through the use of the [CardioFlex Blood Sugar](https://cardioflex-blood-sugar.jimdosite.com/) supplement in conjunction with a balanced diet, millions of people have been able to control their diabetes. The natural supplement is designed to deliver unbeatable results in a matter of weeks and is entirely safe to consume. All diabetic individuals should try this powerful product as a result. In addition to taking your prescription medications, you can use CardioFlex Blood Sugar to achieve considerable benefits for your general health.
[.png)](https://www.glitco.com/get-cardioFlex)
Can I use [CardioFlex Blood Sugar](https://soundcloud.com/cardioflex-707056341/cardioflex-blood-sugar-disclosed-beware-nobody-tells-you-this?) for a Long time Without Getting Sick?
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Until your diabetes is under control or for as long as you'd like, you can keep taking this supplement. After 3-6 months of use, the effects of the supplement become noticeable. Consequently, there are no risks involved in using this supplement for an extended period of time. Because of this, continuing to use this product has adverse effects on the body.
Is there any Money Back Policy?
-------------------------------
Whichever purchasing option you prefer, you are entitled to a full refund of your purchase price within 180 days of the date of purchase if the supplement is ineffective at controlling blood sugar levels or if you are not entirely happy with the product. The 180-day money-back guarantee offered by the producers makes [CardioFlex Blood Sugar]( https://medium.com/@jessendsickens/cardioflex-blood-sugar-reviews-doctors-recommend-you-take-cardioflex-every-morning-with-5a7d6d043787?postPublishedType=initial) one of the safest supplements to use.
Is it Legit or Scam?
--------------------
No, it is a genuine product and not a scam. CardioFlex Blood Sugar was made in FDA-approved facilities, and you may purchase it through the official website. Visit the official website to purchase the products and learn more information. The customer is given a genuine or original product on our website. If you purchase it from a local store or the Amazon website, you risk being scammed; otherwise, you won't.
[ORDER Only ON CardioFlex Blood Sugar OFFICIAL WEBSITE](https://www.glitco.com/get-cardioFlex)
Exists any Medical Proof for this?
----------------------------------
Genuine study findings and the company website state that the development and production of [CardioFlex Blood Sugar](https://www.scoop.it/topic/cardioflex-blood-sugar?curate=true&onb=1&loader=1) diabetic formula is based on a strong clinical foundation. Our editorial and research teams have done extensive research on [CardioFlex Blood Sugar](https://devfolio.co/@getcardioflex), a dietary supplement that aids diabetic individuals in controlling their blood sugar levels. With its all-organic ingredients, this supplement supports healthy glucose and carbohydrate metabolism, promotes restful sleep, and helps people manage their overall diabetic condition. This substance contains promising and perhaps anti-diabetic components, according to a 2012 study. Secondly, licorice has been utilized as a remedy for digestive and respiratory issues. According to one study, juniper berries boost the body's ability to produce insulin and lower the risk of high blood sugar. Licorice root is another ingredient in [CardioFlex Blood Sugar](https://cardioflex-blood-sugar.webflow.io/), which, according to this study, aids in appetite suppression and makes weight loss more difficult.
[.png)](https://www.glitco.com/get-cardioFlex)
[CardioFlex Blood Sugar Reviews](https://getcardioflex.contently.com/)
----------------------------------------------------------------------
Susana Martinez: Since even one more piece of bread after the recommended amount caused my blood sugar levels to rise, I was constantly hesitant to eat more and satisfy my appetite and cravings. It was much more repulsive to always choose rabbit food to all of my favorite delights. Only when I began taking the CardioFlex Blood Sugar capsule, which made it much simpler to fight diabetes and reach normal blood sugar levels, did all these things start to change.
Irene Richards: I never imagined a medication like the CardioFlex Blood Sugar capsule might save me from a sad life caused by diabetes. Since I was given the diabetes diagnosis, I was constantly tired and over exhausted. I've been taking CardioFlex Blood Sugar on a daily basis for a few months now, and I can already tell a difference because I no longer get weariness at work. In addition, I sleep better, work better, and experience less cravings. In fact, I could more than ever before control my blood sugar levels and, after many years, seem leaner.
[.png)](https://www.glitco.com/get-cardioFlex)
Michael Ferguson: I had been searching for a dependable natural remedy to address problems with my blood sugar levels for quite some time. Even when something appeared to be working, I either only felt a short improvement or had adverse effects. I've been taking **CardioFlex Blood Sugar** for exactly one month. All I can do by this point is a marked improvement in my energy, stress, and performance levels. In addition, it helped me improve my blood pressure and blood sugar levels without causing any negative side effects.
[TO LEARN MORE OR TO GET CardioFlex Blood Sugar, VISIT OFFICIAL WEBSITE HERE](https://www.glitco.com/get-cardioFlex)
Final Verdict!
--------------
The special and effective solution **CardioFlex Blood Sugar** helps to lower the level of glucose in your body. A truly remarkable medication that reduces blood sugar levels by addressing their underlying causes, it works to reduce blood glucose levels to control high blood glucose levels in the body and to lessen diabetes and its associated symptoms. A number of vitamins, minerals, and herbs are used in the dietary supplement. CardioFlex Blood Sugar to support the body's normal blood sugar levels. The supplement's potent components enhance heart health and promote sound sleep. The product's ingredients support healthy blood sugar levels, regulate body hormones, encourage sleep, and ensure that users get enough sleep. This is the food-related aspect of the product. However, those who are pregnant or who have medical conditions should not use the product. So don't waste any time and click the link to place your order. **I wish you luck!**
|
cardioflexofficial/cardioflexreview
|
[
"region:us"
] |
2023-08-22T10:12:16+00:00
|
{}
|
2023-08-22T10:12:44+00:00
|
[] |
[] |
TAGS
#region-us
|
The rates of diabetes are raising in tandem with rising obesity rates. Many diabetes individuals experiment with different approaches to manage their blood glucose levels, which in turn will help to maintain optimal blood sugar levels. There are various blood sugar support pills on the market that promise to reduce high glucose and blood sugar levels and to promote restorative sleep.
OFFICIAL WEBSITE LINKS - CardioFlex SHOP
Before using CardioFlex Blood Sugar, Pay Heed to this Real Review of it!
--------------------------------------------------------------------------------------------------------------------------------------------
CardioFlex Blood Sugar is one among these supplements. Diabetes has no known cure, thus treating the condition will suffice as long as it is reduced. For the purpose of overcoming obesity and overweight, this substance acts to destroy fat cells. Without producing any negative side effects, it supports numerous other bodily functions.
](URL
Can I use CardioFlex Blood Sugar for a Long time Without Getting Sick?
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Until your diabetes is under control or for as long as you'd like, you can keep taking this supplement. After 3-6 months of use, the effects of the supplement become noticeable. Consequently, there are no risks involved in using this supplement for an extended period of time. Because of this, continuing to use this product has adverse effects on the body.
Is there any Money Back Policy?
-------------------------------
Whichever purchasing option you prefer, you are entitled to a full refund of your purchase price within 180 days of the date of purchase if the supplement is ineffective at controlling blood sugar levels or if you are not entirely happy with the product. The 180-day money-back guarantee offered by the producers makes CardioFlex Blood Sugar one of the safest supplements to use.
Is it Legit or Scam?
--------------------
No, it is a genuine product and not a scam. CardioFlex Blood Sugar was made in FDA-approved facilities, and you may purchase it through the official website. Visit the official website to purchase the products and learn more information. The customer is given a genuine or original product on our website. If you purchase it from a local store or the Amazon website, you risk being scammed; otherwise, you won't.
ORDER Only ON CardioFlex Blood Sugar OFFICIAL WEBSITE
Exists any Medical Proof for this?
----------------------------------
Genuine study findings and the company website state that the development and production of CardioFlex Blood Sugar diabetic formula is based on a strong clinical foundation. Our editorial and research teams have done extensive research on CardioFlex Blood Sugar, a dietary supplement that aids diabetic individuals in controlling their blood sugar levels. With its all-organic ingredients, this supplement supports healthy glucose and carbohydrate metabolism, promotes restful sleep, and helps people manage their overall diabetic condition. This substance contains promising and perhaps anti-diabetic components, according to a 2012 study. Secondly, licorice has been utilized as a remedy for digestive and respiratory issues. According to one study, juniper berries boost the body's ability to produce insulin and lower the risk of high blood sugar. Licorice root is another ingredient in CardioFlex Blood Sugar, which, according to this study, aids in appetite suppression and makes weight loss more difficult.
](URL
Michael Ferguson: I had been searching for a dependable natural remedy to address problems with my blood sugar levels for quite some time. Even when something appeared to be working, I either only felt a short improvement or had adverse effects. I've been taking CardioFlex Blood Sugar for exactly one month. All I can do by this point is a marked improvement in my energy, stress, and performance levels. In addition, it helped me improve my blood pressure and blood sugar levels without causing any negative side effects.
TO LEARN MORE OR TO GET CardioFlex Blood Sugar, VISIT OFFICIAL WEBSITE HERE
Final Verdict!
--------------
The special and effective solution CardioFlex Blood Sugar helps to lower the level of glucose in your body. A truly remarkable medication that reduces blood sugar levels by addressing their underlying causes, it works to reduce blood glucose levels to control high blood glucose levels in the body and to lessen diabetes and its associated symptoms. A number of vitamins, minerals, and herbs are used in the dietary supplement. CardioFlex Blood Sugar to support the body's normal blood sugar levels. The supplement's potent components enhance heart health and promote sound sleep. The product's ingredients support healthy blood sugar levels, regulate body hormones, encourage sleep, and ensure that users get enough sleep. This is the food-related aspect of the product. However, those who are pregnant or who have medical conditions should not use the product. So don't waste any time and click the link to place your order. I wish you luck!
|
[] |
[
"TAGS\n#region-us \n"
] |
[
6
] |
[
"passage: TAGS\n#region-us \n"
] |
14cdb9ba7615c0a9298a699b64e27a092e89ad10
|
# Dataset Card for "test"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
NickyNicky/test
|
[
"region:us"
] |
2023-08-22T10:36:29+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}], "dataset_info": {"features": [{"name": "id", "dtype": "string"}, {"name": "conversations", "list": [{"name": "from", "dtype": "string"}, {"name": "value", "dtype": "string"}]}, {"name": "instruction", "dtype": "string"}, {"name": "txt", "dtype": "string"}, {"name": "len_token", "dtype": "int64"}, {"name": "perplejidad", "dtype": "float64"}], "splits": [{"name": "train", "num_bytes": 27700758, "num_examples": 4155}], "download_size": 14180119, "dataset_size": 27700758}}
|
2023-08-22T10:36:31+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "test"
More Information needed
|
[
"# Dataset Card for \"test\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"test\"\n\nMore Information needed"
] |
[
6,
11
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"test\"\n\nMore Information needed"
] |
2d9aaf726846c4592c1ffe30d2913d3644a6f561
|
# Dataset Card for "annotated43k_training_dataset_90"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
fia24/annotated43k_training_dataset_90
|
[
"region:us"
] |
2023-08-22T10:45:02+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "test", "path": "data/test-*"}]}], "dataset_info": {"features": [{"name": "id", "dtype": "string"}, {"name": "translation", "struct": [{"name": "en", "dtype": "string"}, {"name": "fr", "dtype": "string"}]}], "splits": [{"name": "train", "num_bytes": 2096768, "num_examples": 33407}, {"name": "test", "num_bytes": 234294, "num_examples": 3712}], "download_size": 1235112, "dataset_size": 2331062}}
|
2023-08-22T10:45:05+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "annotated43k_training_dataset_90"
More Information needed
|
[
"# Dataset Card for \"annotated43k_training_dataset_90\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"annotated43k_training_dataset_90\"\n\nMore Information needed"
] |
[
6,
22
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"annotated43k_training_dataset_90\"\n\nMore Information needed"
] |
2fadc7702b2cbdb5e9824cd8d838812b1d7526f9
|
# Dataset Card for "extract_metadata_ademax_contract"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
ademax/extract_metadata_ademax_contract
|
[
"region:us"
] |
2023-08-22T10:46:03+00:00
|
{"dataset_info": {"features": [{"name": "input_text", "dtype": "string"}, {"name": "output_text", "dtype": "string"}, {"name": "type", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 5893620, "num_examples": 2574}], "download_size": 282155, "dataset_size": 5893620}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-23T02:45:10+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "extract_metadata_ademax_contract"
More Information needed
|
[
"# Dataset Card for \"extract_metadata_ademax_contract\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"extract_metadata_ademax_contract\"\n\nMore Information needed"
] |
[
6,
20
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"extract_metadata_ademax_contract\"\n\nMore Information needed"
] |
ac683927cce770e45d26f2115111c7c2ff8cc09a
|
# Dataset of isonami/磯波 (Kantai Collection)
This is the dataset of isonami/磯波 (Kantai Collection), containing 500 images and their tags.
The core tags of this character are `black_hair, long_hair, braid, twin_braids, sidelocks, hair_between_eyes, black_eyes, brown_eyes`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:--------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 500 | 334.79 MiB | [Download](https://huggingface.co/datasets/CyberHarem/isonami_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 500 | 254.60 MiB | [Download](https://huggingface.co/datasets/CyberHarem/isonami_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 981 | 480.68 MiB | [Download](https://huggingface.co/datasets/CyberHarem/isonami_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 500 | 318.15 MiB | [Download](https://huggingface.co/datasets/CyberHarem/isonami_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 981 | 581.55 MiB | [Download](https://huggingface.co/datasets/CyberHarem/isonami_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/isonami_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 15 |  |  |  |  |  | 1girl, solo, white_shirt, looking_at_viewer, camera, blue_skirt, clothes_writing, t-shirt, cowboy_shot, pleated_skirt, smile, alternate_costume, upper_body |
| 1 | 19 |  |  |  |  |  | 1girl, pleated_skirt, serafuku, solo, blue_sailor_collar, blue_skirt, looking_at_viewer, white_background, simple_background, short_sleeves, sitting, black_socks |
| 2 | 8 |  |  |  |  |  | 1girl, looking_at_viewer, serafuku, solo, blush, pleated_skirt, smile, hair_ribbon, twitter_username |
| 3 | 8 |  |  |  |  |  | 1girl, blue_dress, looking_at_viewer, solo, sun_hat, official_alternate_costume, white_shirt, short_sleeves, blush, brown_headwear, cloud, day, smile, upper_body, bag, blue_sky, outdoors |
| 4 | 17 |  |  |  |  |  | 1girl, white_gloves, black_headwear, solo, black_vest, blue_shirt, dress_shirt, looking_at_viewer, employee_uniform, kepi, simple_background, alternate_costume, armband, name_tag, shako_cap, short_sleeves, white_background, cowboy_shot, open_mouth, upper_body, pants, whistle |
| 5 | 8 |  |  |  |  |  | 1girl, solo, cowboy_shot, looking_at_viewer, white_background, simple_background, blush, smile, standing, bikini, black_one-piece_swimsuit, breasts, collarbone, navel, blue_one-piece_swimsuit, flat_chest, hair_ribbon, new_school_swimsuit |
| 6 | 6 |  |  |  |  |  | 1girl, black_leotard, detached_collar, fake_animal_ears, playboy_bunny, rabbit_ears, wrist_cuffs, bowtie, breasts, looking_at_viewer, solo, strapless_leotard, simple_background, black_pantyhose, blush |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | solo | white_shirt | looking_at_viewer | camera | blue_skirt | clothes_writing | t-shirt | cowboy_shot | pleated_skirt | smile | alternate_costume | upper_body | serafuku | blue_sailor_collar | white_background | simple_background | short_sleeves | sitting | black_socks | blush | hair_ribbon | twitter_username | blue_dress | sun_hat | official_alternate_costume | brown_headwear | cloud | day | bag | blue_sky | outdoors | white_gloves | black_headwear | black_vest | blue_shirt | dress_shirt | employee_uniform | kepi | armband | name_tag | shako_cap | open_mouth | pants | whistle | standing | bikini | black_one-piece_swimsuit | breasts | collarbone | navel | blue_one-piece_swimsuit | flat_chest | new_school_swimsuit | black_leotard | detached_collar | fake_animal_ears | playboy_bunny | rabbit_ears | wrist_cuffs | bowtie | strapless_leotard | black_pantyhose |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:-------|:--------------|:--------------------|:---------|:-------------|:------------------|:----------|:--------------|:----------------|:--------|:--------------------|:-------------|:-----------|:---------------------|:-------------------|:--------------------|:----------------|:----------|:--------------|:--------|:--------------|:-------------------|:-------------|:----------|:-----------------------------|:-----------------|:--------|:------|:------|:-----------|:-----------|:---------------|:-----------------|:-------------|:-------------|:--------------|:-------------------|:-------|:----------|:-----------|:------------|:-------------|:--------|:----------|:-----------|:---------|:---------------------------|:----------|:-------------|:--------|:--------------------------|:-------------|:----------------------|:----------------|:------------------|:-------------------|:----------------|:--------------|:--------------|:---------|:--------------------|:------------------|
| 0 | 15 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 19 |  |  |  |  |  | X | X | | X | | X | | | | X | | | | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 8 |  |  |  |  |  | X | X | | X | | | | | | X | X | | | X | | | | | | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 8 |  |  |  |  |  | X | X | X | X | | | | | | | X | | X | | | | | X | | | X | | | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 17 |  |  |  |  |  | X | X | | X | | | | | X | | | X | X | | | X | X | X | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | |
| 5 | 8 |  |  |  |  |  | X | X | | X | | | | | X | | X | | | | | X | X | | | | X | X | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | | | | | | | | | |
| 6 | 6 |  |  |  |  |  | X | X | | X | | | | | | | | | | | | | X | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | | | | | | X | X | X | X | X | X | X | X | X |
|
CyberHarem/isonami_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T10:54:56+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T12:07:30+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of isonami/磯波 (Kantai Collection)
=========================================
This is the dataset of isonami/磯波 (Kantai Collection), containing 500 images and their tags.
The core tags of this character are 'black\_hair, long\_hair, braid, twin\_braids, sidelocks, hair\_between\_eyes, black\_eyes, brown\_eyes', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
4d278e17ac78b17d9a6ffe287d2f83e676228aa5
|
# Dataset of tsushima (Kantai Collection)
This is the dataset of tsushima (Kantai Collection), containing 417 images and their tags.
The core tags of this character are `purple_hair, multicolored_hair, gradient_hair, sidelocks, purple_eyes, hat, short_hair, orange_hair, white_headwear, sailor_hat, hair_ornament, long_hair, blue_ribbon`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:---------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 417 | 353.00 MiB | [Download](https://huggingface.co/datasets/CyberHarem/tsushima_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 417 | 242.13 MiB | [Download](https://huggingface.co/datasets/CyberHarem/tsushima_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 980 | 525.62 MiB | [Download](https://huggingface.co/datasets/CyberHarem/tsushima_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 417 | 330.57 MiB | [Download](https://huggingface.co/datasets/CyberHarem/tsushima_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 980 | 678.57 MiB | [Download](https://huggingface.co/datasets/CyberHarem/tsushima_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/tsushima_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 14 |  |  |  |  |  | 1girl, black_thighhighs, blue_neckerchief, blue_sailor_collar, blue_skirt, pleated_skirt, puffy_short_sleeves, serafuku, solo, white_gloves, ribbon, smile, simple_background, white_background, looking_at_viewer, yellow_eyes, cowboy_shot |
| 1 | 5 |  |  |  |  |  | 1girl, black_thighhighs, blue_neckerchief, blue_sailor_collar, blue_skirt, blush, mole_under_eye, pleated_skirt, puffy_short_sleeves, ribbon, serafuku, smile, solo, white_gloves, yellow_eyes, looking_at_viewer, cowboy_shot |
| 2 | 9 |  |  |  |  |  | 1girl, detached_collar, fake_animal_ears, playboy_bunny, rabbit_ears, simple_background, solo, strapless_leotard, looking_at_viewer, white_background, wrist_cuffs, bowtie, pantyhose, smile, yellow_eyes, blue_bow, blue_leotard, covered_navel, cowboy_shot, dated, flat_chest, rabbit_tail, twitter_username, white_gloves |
| 3 | 10 |  |  |  |  |  | 1girl, solo, looking_at_viewer, flat_chest, one-hour_drawing_challenge, simple_background, white_background, short_hair_with_long_locks, smile, school_swimsuit, dated, black_thighhighs, blue_one-piece_swimsuit, covered_navel, cowboy_shot |
| 4 | 19 |  |  |  |  |  | 1girl, solo, alternate_costume, blush, long_sleeves, beret, smile, jacket, simple_background, black_headwear, hairclip, red_dress, white_background, black_pantyhose, looking_at_viewer, mole_under_eye, belt, sweater, bangs, closed_mouth, holding, plaid_dress |
| 5 | 9 |  |  |  |  |  | 1girl, solo, alternate_costume, looking_at_viewer, pink_kimono, floral_print, obi, blush, sitting |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | black_thighhighs | blue_neckerchief | blue_sailor_collar | blue_skirt | pleated_skirt | puffy_short_sleeves | serafuku | solo | white_gloves | ribbon | smile | simple_background | white_background | looking_at_viewer | yellow_eyes | cowboy_shot | blush | mole_under_eye | detached_collar | fake_animal_ears | playboy_bunny | rabbit_ears | strapless_leotard | wrist_cuffs | bowtie | pantyhose | blue_bow | blue_leotard | covered_navel | dated | flat_chest | rabbit_tail | twitter_username | one-hour_drawing_challenge | short_hair_with_long_locks | school_swimsuit | blue_one-piece_swimsuit | alternate_costume | long_sleeves | beret | jacket | black_headwear | hairclip | red_dress | black_pantyhose | belt | sweater | bangs | closed_mouth | holding | plaid_dress | pink_kimono | floral_print | obi | sitting |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:-------------------|:-------------------|:---------------------|:-------------|:----------------|:----------------------|:-----------|:-------|:---------------|:---------|:--------|:--------------------|:-------------------|:--------------------|:--------------|:--------------|:--------|:-----------------|:------------------|:-------------------|:----------------|:--------------|:--------------------|:--------------|:---------|:------------|:-----------|:---------------|:----------------|:--------|:-------------|:--------------|:-------------------|:-----------------------------|:-----------------------------|:------------------|:--------------------------|:--------------------|:---------------|:--------|:---------|:-----------------|:-----------|:------------|:------------------|:-------|:----------|:--------|:---------------|:----------|:--------------|:--------------|:---------------|:------|:----------|
| 0 | 14 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 5 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 9 |  |  |  |  |  | X | | | | | | | | X | X | | X | X | X | X | X | X | | | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 10 |  |  |  |  |  | X | X | | | | | | | X | | | X | X | X | X | | X | | | | | | | | | | | | | X | X | X | | | X | X | X | X | | | | | | | | | | | | | | | | | | |
| 4 | 19 |  |  |  |  |  | X | | | | | | | | X | | | X | X | X | X | | | X | X | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | |
| 5 | 9 |  |  |  |  |  | X | | | | | | | | X | | | | | | X | | | X | | | | | | | | | | | | | | | | | | | | | X | | | | | | | | | | | | | | X | X | X | X |
|
CyberHarem/tsushima_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T10:59:25+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-16T09:09:16+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of tsushima (Kantai Collection)
=======================================
This is the dataset of tsushima (Kantai Collection), containing 417 images and their tags.
The core tags of this character are 'purple\_hair, multicolored\_hair, gradient\_hair, sidelocks, purple\_eyes, hat, short\_hair, orange\_hair, white\_headwear, sailor\_hat, hair\_ornament, long\_hair, blue\_ribbon', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
451db15a3b011f5618892e6cd13979946a7b3ce5
|
# Dataset Card for "rmt_anno_donut_3"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
TejSinguluri/rmt_anno_donut_3
|
[
"region:us"
] |
2023-08-22T11:07:22+00:00
|
{"dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "ground_truth", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 224420193.0, "num_examples": 308}, {"name": "validation", "num_bytes": 53826227.0, "num_examples": 78}], "download_size": 243397602, "dataset_size": 278246420.0}}
|
2023-08-22T11:37:29+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "rmt_anno_donut_3"
More Information needed
|
[
"# Dataset Card for \"rmt_anno_donut_3\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"rmt_anno_donut_3\"\n\nMore Information needed"
] |
[
6,
20
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"rmt_anno_donut_3\"\n\nMore Information needed"
] |
2ebb4dd9ca819a3443d4759516b09a531bb54976
|
# Dataset Card for Sprakbanken/nb_samtale
## Dataset Description
- **Homepage:** [nb.no/sprakbanken](https://www.nb.no/sprakbanken/)
- **Repository:** [Resource catalogue, no. 85](https://www.nb.no/sprakbanken/en/resource-catalogue/oai-nb-no-sbr-85/)
- **Paper:** [NB_Samtale_About_the_corpus.pdf](https://www.nb.no/sbfil/taledata/NB_Samtale_About_the_corpus.pdf)
- **Point of Contact:** [Språkbanken](mailto:[email protected])
### Dataset Summary
NB Samtale is a speech corpus made by the Language Bank at the National Library of Norway. The corpus contains orthographically transcribed speech from podcasts and recordings of live events at the National Library. The corpus is intended as an open source dataset for Automatic Speech Recognition (ASR) development, and is specifically aimed at improving ASR systems’ handle on conversational speech.
The corpus consists of 12,080 segments, a total of 24 hours transcribed speech from 69 speakers. The corpus ensures both gender and dialect variation, and speakers from five broad dialect areas are represented. Both Bokmål and Nynorsk transcriptions are present in the corpus, with Nynorsk making up approximately 25% of the transcriptions.
We greatly appreciate feedback and suggestions for improvements.
### Supported Tasks
- Automatic Speech Recognition for verbatim transcriptions of conversational speech, as well as for standardised, orthographic transcriptions.
- Speaker Diarization: The sentence segments all have a speaker ID, which is unique per speaker, and the same speaker will have the same speaker ID across source files.
- Audio classification: Each segment could be classified with one of the metadata features.
### Languages
The transcription texts are in either Norwegian bokmål or Norwegian nynorsk.
The audio is in Norwegian, in the speakers' respective dialects.
We have categorized them into five dialect areas:
Dialect area (en) | Dialect area (nb) | Counties
--- | --- | ---
Eastern Norway | Østlandet | Agder, Innlandet, Oslo, Vestfold og Telemark, Viken
Southwest Norway | Sørvestlandet | Rogaland
Western Norway | Vestlandet | Møre og Romsdal, Vestland
Central Norway | Midt-Norge |Trøndelag
Northern Norway | Nord-Norge | Nordland, Troms og Finnmark
## Dataset Structure
### Data Instances
A data point is an audio segment, including a relative path to the `.wav`-file, and the transcription. Additional information is provided about the speaker, the orthographic standard for the transcription, whether the segment overlaps with the previous or next, and the setting for the recording. The transcription also comes in 3 different normalized versions: "orthographic" (orthographically correct text, with punctuation, integer numbers, and standardized word forms), "verbatim" (with tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation) and "annotations" (as is from the annotation process, with punctuation, tags, and alternate word forms).
```
{
'source_file_id': 'nb-1',
'segment_id': '0008970-0013860',
'segment_order': 0,
'duration': 4.89,
'overlap_previous': False,
'overlap_next': False,
'speaker_id': 'P36',
'gender': 1,
'dialect': 0,
'orthography': 0,
'source_type': 0,
'file_name': 'data/train/bm/nb-1_0008970-0013860.wav',
'transcription': 'hallo og velkommen hit til Nasjonalbiblioteket.',
'annotations': 'hallo og velkommen hit til Nasjonalbiblioteket.',
'orthographic': 'hallo og velkommen hit til Nasjonalbiblioteket.',
'verbatim': 'hallo og velkommen hit til Nasjonalbiblioteket',
'audio': {
'path': "data/train/bm/nb-1_0008970-0013860.wav",
'array': array([-0.00033569, 0.00222778, -0.0005188 , ..., 0.00067139,
0.00057983, 0.0005188 ]),
'sampling_rate': 16000}
}
```
### Data Fields
data field | description | Value type / example
--- | --- | ---
`source_file_id` | original file the segment appears in. | e.g. `50f-X`, `tr-X` or `nb-X`, where X is a number. (str)
`segment_id` | segment start and end timestamp. | `{starttime}-{endtime}` (str)
`segment_order` | order of segment in the original file. | (int)
`duration` | duration of segment in seconds. | (float)
`overlap_previous` | whether the beginning of the segment overlaps with the previous segment | `True` or `False` (bool)
`overlap_next` | whether the end of the segment overlaps with the next segment. | `True` or `False` (bool)
`speaker_id` | speaker ID for the speaker transcribed in the segment. | `P0` - `P69` (str)
`gender` | speaker’s binary gender (female or male), mapped to a HuggingFace datasets ClassLabel index number | `0`: f or `1`: m (int)
`dialect` | the speaker’s dialect area, as a ClassLabel index number for the areas east (e), north (n), southwest (sw), central (t), west (w). | `0`: e, `1`: n, `2`: sw, `3`: t, or `4`: w (int)
`orthography` | the written norm of the transcription, either bokmål (`bm`) or nynorsk (`nn`) as a ClassLabel index number | `0`: bm or `1`: nn (int)
`source_type` | type of recording of original file, either `live-event` or `podcast`, as a ClassLabel index number | `0`: live-event or `1`: podcast (int)
`file_name` | file name of the audio segment, without the path | `{source_file_id}_{segment_id}.wav` (str)
`transcription` | orthographic transcription text | (str)
`orthographic` | close to orthographically correct text transcription in the given `orthography` standard. Contains punctuation, numbers, and standard word forms. | (str)
`verbatim` | transcription text mapping to the uttered words as close as possible. Contains tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation. | (str)
`annotations` | transcription text "as is" from the annotation process. Contains false starts, metatags for non-linguistic noises, punctuation, and alternate word forms (`<uttered word>\<orthographic standard word>`) | (str)
`audio` | the audio segment data, with the relative file `path`, the bytes `array`, and the `sampling_rate` | (dict)
"orthographic" (orthographically correct text, with punctuation, integer numbers, and standardized word forms), "verbatim" (with tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation) and "annotations" (as is from the annotation process, with punctuation, tags, and alternate word forms).
### Data Splits
The data is split into a `train`, `validation`, and `test` set, stratified on three parameters: source type, gender and dialect.
Gender and dialect naturally refers to the gender and dialect of the speakers.
The data has not been split on speaker ID to avoid speaker overlap in the various sets because this proved impossible
while still maintaining a decent distribution of the other parameters, especially dialect variation.
The source type refers to whether the source material is one of the two podcasts (50f, tr) or
a National Library live event (nb).
The two types have different features.
The podcasts are overall good quality studio recordings with little background noise, echo and such.
The live events are recorded in rooms or reception halls at the National Library and have more background
noise, echo and inconsistent audio quality.
Many also have a live audience.
## Dataset Creation
### Source data
The audio is collected from podcasts we have been permitted to share openly – namely 50
forskere from UiT and Trondheim kommunes podkast from Trondheim municipality – as well
as some of The National Library’s own recordings of live events. The podcasts are studio
recordings, while the National Library events take place in rooms and reception halls at the
National Library, sometimes in front of an audience.
#### Who are the source language producers?
Guests and hosts of the respective recording events, either podcasts produced in a studio or lectures, debates and conversations in a public live event.
### Annotations
#### Annotation process
The recordings were segmented and transcribed in the transcription software ELAN. The
recordings were transcribed automatically using a Norwegian ASR system created by the AI-
lab at the National Library of Norway. The speech was segmented and transcribed with
speaker diarization, separating the speakers into separate transcription tiers. These
segments and transcriptions were then manually corrected by a transcriber according to a
set of guidelines. All the manual transcriptions were reviewed by a second person in order to
avoid substantial discrepancies between transcribers. Finally all the transcriptions were
spell-checked, and checked for any unwanted numbers or special characters.
See the [official dataset documentation](https://www.nb.no/sbfil/taledata/NB_Samtale_About_the_corpus.pdf) for more details.
The full set of guidelines for segmentation and transcription are given in Norwegian in [NB_Samtale_transcription_guidelines.pdf](https://www.nb.no/sbfil/taledata/NB_Samtale_transcription_guidelines.pdf).
#### Who are the annotators?
The Norwegian Language Bank (Språkbanken).
### Personal and Sensitive Information
The data fields `gender`, `dialect` and `speaker_id` pertain to the speakers themselves.
A single speaker will have the same `speaker_id` if they appear in several different source files.
## Considerations for Using the Data
### Discussion of Biases
The recordings were for the most part selected based on the gender and dialect of the
speakers to ensure gender balance and broad dialectal representation. The corpus has a
near 50/50 divide between male and female speakers (male 54%, female 46%). The
Norwegian dialects have been divided into five broad dialect areas that are all represented in
the corpus. However, Eastern Norwegian has the greatest representation at about 50%
speaker time, while the other areas fall between 8% and 20% speaker time.
## Additional Information
### Dataset Curators
The content of the dataset was created by the Norwegian Language Bank (Språkbanken) at the National Library of Norway.
[Marie Iversdatter Røsok](mailto:[email protected]), [Ingerid Løyning Dale](mailto:[email protected]) and [Per Erik Solberg](mailto:[email protected]) contributed in creating this dataset.
Thanks to the HuggingFace team for assistance.
### Licensing Information
The NB Samtale dataset is released with the [CC-ZERO-license](https://creativecommons.org/publicdomain/zero/1.0/), i.e., it is public domain and can be used for any purpose and reshared without permission.
|
Sprakbanken/nb_samtale
|
[
"task_categories:automatic-speech-recognition",
"language:nb",
"language:nn",
"language:no",
"license:cc0-1.0",
"dialects",
"podcasts",
"live-events",
"conversational",
"speech",
"region:us"
] |
2023-08-22T11:41:51+00:00
|
{"language": ["nb", "nn", "no"], "license": "cc0-1.0", "task_categories": ["automatic-speech-recognition"], "tags": ["dialects", "podcasts", "live-events", "conversational", "speech"]}
|
2023-10-06T13:43:06+00:00
|
[] |
[
"nb",
"nn",
"no"
] |
TAGS
#task_categories-automatic-speech-recognition #language-Norwegian Bokmål #language-Norwegian Nynorsk #language-Norwegian #license-cc0-1.0 #dialects #podcasts #live-events #conversational #speech #region-us
|
Dataset Card for Sprakbanken/nb\_samtale
========================================
Dataset Description
-------------------
* Homepage: URL
* Repository: Resource catalogue, no. 85
* Paper: NB\_Samtale\_About\_the\_corpus.pdf
* Point of Contact: Språkbanken
### Dataset Summary
NB Samtale is a speech corpus made by the Language Bank at the National Library of Norway. The corpus contains orthographically transcribed speech from podcasts and recordings of live events at the National Library. The corpus is intended as an open source dataset for Automatic Speech Recognition (ASR) development, and is specifically aimed at improving ASR systems’ handle on conversational speech.
The corpus consists of 12,080 segments, a total of 24 hours transcribed speech from 69 speakers. The corpus ensures both gender and dialect variation, and speakers from five broad dialect areas are represented. Both Bokmål and Nynorsk transcriptions are present in the corpus, with Nynorsk making up approximately 25% of the transcriptions.
We greatly appreciate feedback and suggestions for improvements.
### Supported Tasks
* Automatic Speech Recognition for verbatim transcriptions of conversational speech, as well as for standardised, orthographic transcriptions.
* Speaker Diarization: The sentence segments all have a speaker ID, which is unique per speaker, and the same speaker will have the same speaker ID across source files.
* Audio classification: Each segment could be classified with one of the metadata features.
### Languages
The transcription texts are in either Norwegian bokmål or Norwegian nynorsk.
The audio is in Norwegian, in the speakers' respective dialects.
We have categorized them into five dialect areas:
Dialect area (en): Eastern Norway, Dialect area (nb): Østlandet, Counties: Agder, Innlandet, Oslo, Vestfold og Telemark, Viken
Dialect area (en): Southwest Norway, Dialect area (nb): Sørvestlandet, Counties: Rogaland
Dialect area (en): Western Norway, Dialect area (nb): Vestlandet, Counties: Møre og Romsdal, Vestland
Dialect area (en): Central Norway, Dialect area (nb): Midt-Norge, Counties: Trøndelag
Dialect area (en): Northern Norway, Dialect area (nb): Nord-Norge, Counties: Nordland, Troms og Finnmark
Dataset Structure
-----------------
### Data Instances
A data point is an audio segment, including a relative path to the '.wav'-file, and the transcription. Additional information is provided about the speaker, the orthographic standard for the transcription, whether the segment overlaps with the previous or next, and the setting for the recording. The transcription also comes in 3 different normalized versions: "orthographic" (orthographically correct text, with punctuation, integer numbers, and standardized word forms), "verbatim" (with tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation) and "annotations" (as is from the annotation process, with punctuation, tags, and alternate word forms).
### Data Fields
data field: 'source\_file\_id', description: original file the segment appears in., Value type / example: e.g. '50f-X', 'tr-X' or 'nb-X', where X is a number. (str)
data field: 'segment\_id', description: segment start and end timestamp., Value type / example: '{starttime}-{endtime}' (str)
data field: 'segment\_order', description: order of segment in the original file., Value type / example: (int)
data field: 'duration', description: duration of segment in seconds., Value type / example: (float)
data field: 'overlap\_previous', description: whether the beginning of the segment overlaps with the previous segment, Value type / example: 'True' or 'False' (bool)
data field: 'overlap\_next', description: whether the end of the segment overlaps with the next segment., Value type / example: 'True' or 'False' (bool)
data field: 'speaker\_id', description: speaker ID for the speaker transcribed in the segment., Value type / example: 'P0' - 'P69' (str)
data field: 'gender', description: speaker’s binary gender (female or male), mapped to a HuggingFace datasets ClassLabel index number, Value type / example: '0': f or '1': m (int)
data field: 'dialect', description: the speaker’s dialect area, as a ClassLabel index number for the areas east (e), north (n), southwest (sw), central (t), west (w)., Value type / example: '0': e, '1': n, '2': sw, '3': t, or '4': w (int)
data field: 'orthography', description: the written norm of the transcription, either bokmål ('bm') or nynorsk ('nn') as a ClassLabel index number, Value type / example: '0': bm or '1': nn (int)
data field: 'source\_type', description: type of recording of original file, either 'live-event' or 'podcast', as a ClassLabel index number, Value type / example: '0': live-event or '1': podcast (int)
data field: 'file\_name', description: file name of the audio segment, without the path, Value type / example: '{source\_file\_id}\_{segment\_id}.wav' (str)
data field: 'transcription', description: orthographic transcription text, Value type / example: (str)
data field: 'orthographic', description: close to orthographically correct text transcription in the given 'orthography' standard. Contains punctuation, numbers, and standard word forms., Value type / example: (str)
data field: 'verbatim', description: transcription text mapping to the uttered words as close as possible. Contains tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation., Value type / example: (str)
data field: 'annotations', description: transcription text "as is" from the annotation process. Contains false starts, metatags for non-linguistic noises, punctuation, and alternate word forms ('<orthographic standard word>'), Value type / example: (str)
data field: 'audio', description: the audio segment data, with the relative file 'path', the bytes 'array', and the 'sampling\_rate', Value type / example: (dict)
data field: "orthographic" (orthographically correct text, with punctuation, integer numbers, and standardized word forms), "verbatim" (with tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation) and "annotations" (as is from the annotation process, with punctuation, tags, and alternate word forms)., description: , Value type / example:
### Data Splits
The data is split into a 'train', 'validation', and 'test' set, stratified on three parameters: source type, gender and dialect.
Gender and dialect naturally refers to the gender and dialect of the speakers.
The data has not been split on speaker ID to avoid speaker overlap in the various sets because this proved impossible
while still maintaining a decent distribution of the other parameters, especially dialect variation.
The source type refers to whether the source material is one of the two podcasts (50f, tr) or
a National Library live event (nb).
The two types have different features.
The podcasts are overall good quality studio recordings with little background noise, echo and such.
The live events are recorded in rooms or reception halls at the National Library and have more background
noise, echo and inconsistent audio quality.
Many also have a live audience.
Dataset Creation
----------------
### Source data
The audio is collected from podcasts we have been permitted to share openly – namely 50
forskere from UiT and Trondheim kommunes podkast from Trondheim municipality – as well
as some of The National Library’s own recordings of live events. The podcasts are studio
recordings, while the National Library events take place in rooms and reception halls at the
National Library, sometimes in front of an audience.
#### Who are the source language producers?
Guests and hosts of the respective recording events, either podcasts produced in a studio or lectures, debates and conversations in a public live event.
### Annotations
#### Annotation process
The recordings were segmented and transcribed in the transcription software ELAN. The
recordings were transcribed automatically using a Norwegian ASR system created by the AI-
lab at the National Library of Norway. The speech was segmented and transcribed with
speaker diarization, separating the speakers into separate transcription tiers. These
segments and transcriptions were then manually corrected by a transcriber according to a
set of guidelines. All the manual transcriptions were reviewed by a second person in order to
avoid substantial discrepancies between transcribers. Finally all the transcriptions were
spell-checked, and checked for any unwanted numbers or special characters.
See the official dataset documentation for more details.
The full set of guidelines for segmentation and transcription are given in Norwegian in NB\_Samtale\_transcription\_guidelines.pdf.
#### Who are the annotators?
The Norwegian Language Bank (Språkbanken).
### Personal and Sensitive Information
The data fields 'gender', 'dialect' and 'speaker\_id' pertain to the speakers themselves.
A single speaker will have the same 'speaker\_id' if they appear in several different source files.
Considerations for Using the Data
---------------------------------
### Discussion of Biases
The recordings were for the most part selected based on the gender and dialect of the
speakers to ensure gender balance and broad dialectal representation. The corpus has a
near 50/50 divide between male and female speakers (male 54%, female 46%). The
Norwegian dialects have been divided into five broad dialect areas that are all represented in
the corpus. However, Eastern Norwegian has the greatest representation at about 50%
speaker time, while the other areas fall between 8% and 20% speaker time.
Additional Information
----------------------
### Dataset Curators
The content of the dataset was created by the Norwegian Language Bank (Språkbanken) at the National Library of Norway.
Marie Iversdatter Røsok, Ingerid Løyning Dale and Per Erik Solberg contributed in creating this dataset.
Thanks to the HuggingFace team for assistance.
### Licensing Information
The NB Samtale dataset is released with the CC-ZERO-license, i.e., it is public domain and can be used for any purpose and reshared without permission.
|
[
"### Dataset Summary\n\n\nNB Samtale is a speech corpus made by the Language Bank at the National Library of Norway. The corpus contains orthographically transcribed speech from podcasts and recordings of live events at the National Library. The corpus is intended as an open source dataset for Automatic Speech Recognition (ASR) development, and is specifically aimed at improving ASR systems’ handle on conversational speech.\n\n\nThe corpus consists of 12,080 segments, a total of 24 hours transcribed speech from 69 speakers. The corpus ensures both gender and dialect variation, and speakers from five broad dialect areas are represented. Both Bokmål and Nynorsk transcriptions are present in the corpus, with Nynorsk making up approximately 25% of the transcriptions.\n\n\nWe greatly appreciate feedback and suggestions for improvements.",
"### Supported Tasks\n\n\n* Automatic Speech Recognition for verbatim transcriptions of conversational speech, as well as for standardised, orthographic transcriptions.\n* Speaker Diarization: The sentence segments all have a speaker ID, which is unique per speaker, and the same speaker will have the same speaker ID across source files.\n* Audio classification: Each segment could be classified with one of the metadata features.",
"### Languages\n\n\nThe transcription texts are in either Norwegian bokmål or Norwegian nynorsk.\n\n\nThe audio is in Norwegian, in the speakers' respective dialects.\nWe have categorized them into five dialect areas:\n\n\nDialect area (en): Eastern Norway, Dialect area (nb): Østlandet, Counties: Agder, Innlandet, Oslo, Vestfold og Telemark, Viken\nDialect area (en): Southwest Norway, Dialect area (nb): Sørvestlandet, Counties: Rogaland\nDialect area (en): Western Norway, Dialect area (nb): Vestlandet, Counties: Møre og Romsdal, Vestland\nDialect area (en): Central Norway, Dialect area (nb): Midt-Norge, Counties: Trøndelag\nDialect area (en): Northern Norway, Dialect area (nb): Nord-Norge, Counties: Nordland, Troms og Finnmark\n\n\nDataset Structure\n-----------------",
"### Data Instances\n\n\nA data point is an audio segment, including a relative path to the '.wav'-file, and the transcription. Additional information is provided about the speaker, the orthographic standard for the transcription, whether the segment overlaps with the previous or next, and the setting for the recording. The transcription also comes in 3 different normalized versions: \"orthographic\" (orthographically correct text, with punctuation, integer numbers, and standardized word forms), \"verbatim\" (with tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation) and \"annotations\" (as is from the annotation process, with punctuation, tags, and alternate word forms).",
"### Data Fields\n\n\ndata field: 'source\\_file\\_id', description: original file the segment appears in., Value type / example: e.g. '50f-X', 'tr-X' or 'nb-X', where X is a number. (str)\ndata field: 'segment\\_id', description: segment start and end timestamp., Value type / example: '{starttime}-{endtime}' (str)\ndata field: 'segment\\_order', description: order of segment in the original file., Value type / example: (int)\ndata field: 'duration', description: duration of segment in seconds., Value type / example: (float)\ndata field: 'overlap\\_previous', description: whether the beginning of the segment overlaps with the previous segment, Value type / example: 'True' or 'False' (bool)\ndata field: 'overlap\\_next', description: whether the end of the segment overlaps with the next segment., Value type / example: 'True' or 'False' (bool)\ndata field: 'speaker\\_id', description: speaker ID for the speaker transcribed in the segment., Value type / example: 'P0' - 'P69' (str)\ndata field: 'gender', description: speaker’s binary gender (female or male), mapped to a HuggingFace datasets ClassLabel index number, Value type / example: '0': f or '1': m (int)\ndata field: 'dialect', description: the speaker’s dialect area, as a ClassLabel index number for the areas east (e), north (n), southwest (sw), central (t), west (w)., Value type / example: '0': e, '1': n, '2': sw, '3': t, or '4': w (int)\ndata field: 'orthography', description: the written norm of the transcription, either bokmål ('bm') or nynorsk ('nn') as a ClassLabel index number, Value type / example: '0': bm or '1': nn (int)\ndata field: 'source\\_type', description: type of recording of original file, either 'live-event' or 'podcast', as a ClassLabel index number, Value type / example: '0': live-event or '1': podcast (int)\ndata field: 'file\\_name', description: file name of the audio segment, without the path, Value type / example: '{source\\_file\\_id}\\_{segment\\_id}.wav' (str)\ndata field: 'transcription', description: orthographic transcription text, Value type / example: (str)\ndata field: 'orthographic', description: close to orthographically correct text transcription in the given 'orthography' standard. Contains punctuation, numbers, and standard word forms., Value type / example: (str)\ndata field: 'verbatim', description: transcription text mapping to the uttered words as close as possible. Contains tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation., Value type / example: (str)\ndata field: 'annotations', description: transcription text \"as is\" from the annotation process. Contains false starts, metatags for non-linguistic noises, punctuation, and alternate word forms ('<orthographic standard word>'), Value type / example: (str)\ndata field: 'audio', description: the audio segment data, with the relative file 'path', the bytes 'array', and the 'sampling\\_rate', Value type / example: (dict)\ndata field: \"orthographic\" (orthographically correct text, with punctuation, integer numbers, and standardized word forms), \"verbatim\" (with tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation) and \"annotations\" (as is from the annotation process, with punctuation, tags, and alternate word forms)., description: , Value type / example:",
"### Data Splits\n\n\nThe data is split into a 'train', 'validation', and 'test' set, stratified on three parameters: source type, gender and dialect.\nGender and dialect naturally refers to the gender and dialect of the speakers.\nThe data has not been split on speaker ID to avoid speaker overlap in the various sets because this proved impossible\nwhile still maintaining a decent distribution of the other parameters, especially dialect variation.\n\n\nThe source type refers to whether the source material is one of the two podcasts (50f, tr) or\na National Library live event (nb).\nThe two types have different features.\nThe podcasts are overall good quality studio recordings with little background noise, echo and such.\nThe live events are recorded in rooms or reception halls at the National Library and have more background\nnoise, echo and inconsistent audio quality.\nMany also have a live audience.\n\n\nDataset Creation\n----------------",
"### Source data\n\n\nThe audio is collected from podcasts we have been permitted to share openly – namely 50\nforskere from UiT and Trondheim kommunes podkast from Trondheim municipality – as well\nas some of The National Library’s own recordings of live events. The podcasts are studio\nrecordings, while the National Library events take place in rooms and reception halls at the\nNational Library, sometimes in front of an audience.",
"#### Who are the source language producers?\n\n\nGuests and hosts of the respective recording events, either podcasts produced in a studio or lectures, debates and conversations in a public live event.",
"### Annotations",
"#### Annotation process\n\n\nThe recordings were segmented and transcribed in the transcription software ELAN. The\nrecordings were transcribed automatically using a Norwegian ASR system created by the AI-\nlab at the National Library of Norway. The speech was segmented and transcribed with\nspeaker diarization, separating the speakers into separate transcription tiers. These\nsegments and transcriptions were then manually corrected by a transcriber according to a\nset of guidelines. All the manual transcriptions were reviewed by a second person in order to\navoid substantial discrepancies between transcribers. Finally all the transcriptions were\nspell-checked, and checked for any unwanted numbers or special characters.\n\n\nSee the official dataset documentation for more details.\nThe full set of guidelines for segmentation and transcription are given in Norwegian in NB\\_Samtale\\_transcription\\_guidelines.pdf.",
"#### Who are the annotators?\n\n\nThe Norwegian Language Bank (Språkbanken).",
"### Personal and Sensitive Information\n\n\nThe data fields 'gender', 'dialect' and 'speaker\\_id' pertain to the speakers themselves.\nA single speaker will have the same 'speaker\\_id' if they appear in several different source files.\n\n\nConsiderations for Using the Data\n---------------------------------",
"### Discussion of Biases\n\n\nThe recordings were for the most part selected based on the gender and dialect of the\nspeakers to ensure gender balance and broad dialectal representation. The corpus has a\nnear 50/50 divide between male and female speakers (male 54%, female 46%). The\nNorwegian dialects have been divided into five broad dialect areas that are all represented in\nthe corpus. However, Eastern Norwegian has the greatest representation at about 50%\nspeaker time, while the other areas fall between 8% and 20% speaker time.\n\n\nAdditional Information\n----------------------",
"### Dataset Curators\n\n\nThe content of the dataset was created by the Norwegian Language Bank (Språkbanken) at the National Library of Norway.\nMarie Iversdatter Røsok, Ingerid Løyning Dale and Per Erik Solberg contributed in creating this dataset.\nThanks to the HuggingFace team for assistance.",
"### Licensing Information\n\n\nThe NB Samtale dataset is released with the CC-ZERO-license, i.e., it is public domain and can be used for any purpose and reshared without permission."
] |
[
"TAGS\n#task_categories-automatic-speech-recognition #language-Norwegian Bokmål #language-Norwegian Nynorsk #language-Norwegian #license-cc0-1.0 #dialects #podcasts #live-events #conversational #speech #region-us \n",
"### Dataset Summary\n\n\nNB Samtale is a speech corpus made by the Language Bank at the National Library of Norway. The corpus contains orthographically transcribed speech from podcasts and recordings of live events at the National Library. The corpus is intended as an open source dataset for Automatic Speech Recognition (ASR) development, and is specifically aimed at improving ASR systems’ handle on conversational speech.\n\n\nThe corpus consists of 12,080 segments, a total of 24 hours transcribed speech from 69 speakers. The corpus ensures both gender and dialect variation, and speakers from five broad dialect areas are represented. Both Bokmål and Nynorsk transcriptions are present in the corpus, with Nynorsk making up approximately 25% of the transcriptions.\n\n\nWe greatly appreciate feedback and suggestions for improvements.",
"### Supported Tasks\n\n\n* Automatic Speech Recognition for verbatim transcriptions of conversational speech, as well as for standardised, orthographic transcriptions.\n* Speaker Diarization: The sentence segments all have a speaker ID, which is unique per speaker, and the same speaker will have the same speaker ID across source files.\n* Audio classification: Each segment could be classified with one of the metadata features.",
"### Languages\n\n\nThe transcription texts are in either Norwegian bokmål or Norwegian nynorsk.\n\n\nThe audio is in Norwegian, in the speakers' respective dialects.\nWe have categorized them into five dialect areas:\n\n\nDialect area (en): Eastern Norway, Dialect area (nb): Østlandet, Counties: Agder, Innlandet, Oslo, Vestfold og Telemark, Viken\nDialect area (en): Southwest Norway, Dialect area (nb): Sørvestlandet, Counties: Rogaland\nDialect area (en): Western Norway, Dialect area (nb): Vestlandet, Counties: Møre og Romsdal, Vestland\nDialect area (en): Central Norway, Dialect area (nb): Midt-Norge, Counties: Trøndelag\nDialect area (en): Northern Norway, Dialect area (nb): Nord-Norge, Counties: Nordland, Troms og Finnmark\n\n\nDataset Structure\n-----------------",
"### Data Instances\n\n\nA data point is an audio segment, including a relative path to the '.wav'-file, and the transcription. Additional information is provided about the speaker, the orthographic standard for the transcription, whether the segment overlaps with the previous or next, and the setting for the recording. The transcription also comes in 3 different normalized versions: \"orthographic\" (orthographically correct text, with punctuation, integer numbers, and standardized word forms), \"verbatim\" (with tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation) and \"annotations\" (as is from the annotation process, with punctuation, tags, and alternate word forms).",
"### Data Fields\n\n\ndata field: 'source\\_file\\_id', description: original file the segment appears in., Value type / example: e.g. '50f-X', 'tr-X' or 'nb-X', where X is a number. (str)\ndata field: 'segment\\_id', description: segment start and end timestamp., Value type / example: '{starttime}-{endtime}' (str)\ndata field: 'segment\\_order', description: order of segment in the original file., Value type / example: (int)\ndata field: 'duration', description: duration of segment in seconds., Value type / example: (float)\ndata field: 'overlap\\_previous', description: whether the beginning of the segment overlaps with the previous segment, Value type / example: 'True' or 'False' (bool)\ndata field: 'overlap\\_next', description: whether the end of the segment overlaps with the next segment., Value type / example: 'True' or 'False' (bool)\ndata field: 'speaker\\_id', description: speaker ID for the speaker transcribed in the segment., Value type / example: 'P0' - 'P69' (str)\ndata field: 'gender', description: speaker’s binary gender (female or male), mapped to a HuggingFace datasets ClassLabel index number, Value type / example: '0': f or '1': m (int)\ndata field: 'dialect', description: the speaker’s dialect area, as a ClassLabel index number for the areas east (e), north (n), southwest (sw), central (t), west (w)., Value type / example: '0': e, '1': n, '2': sw, '3': t, or '4': w (int)\ndata field: 'orthography', description: the written norm of the transcription, either bokmål ('bm') or nynorsk ('nn') as a ClassLabel index number, Value type / example: '0': bm or '1': nn (int)\ndata field: 'source\\_type', description: type of recording of original file, either 'live-event' or 'podcast', as a ClassLabel index number, Value type / example: '0': live-event or '1': podcast (int)\ndata field: 'file\\_name', description: file name of the audio segment, without the path, Value type / example: '{source\\_file\\_id}\\_{segment\\_id}.wav' (str)\ndata field: 'transcription', description: orthographic transcription text, Value type / example: (str)\ndata field: 'orthographic', description: close to orthographically correct text transcription in the given 'orthography' standard. Contains punctuation, numbers, and standard word forms., Value type / example: (str)\ndata field: 'verbatim', description: transcription text mapping to the uttered words as close as possible. Contains tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation., Value type / example: (str)\ndata field: 'annotations', description: transcription text \"as is\" from the annotation process. Contains false starts, metatags for non-linguistic noises, punctuation, and alternate word forms ('<orthographic standard word>'), Value type / example: (str)\ndata field: 'audio', description: the audio segment data, with the relative file 'path', the bytes 'array', and the 'sampling\\_rate', Value type / example: (dict)\ndata field: \"orthographic\" (orthographically correct text, with punctuation, integer numbers, and standardized word forms), \"verbatim\" (with tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation) and \"annotations\" (as is from the annotation process, with punctuation, tags, and alternate word forms)., description: , Value type / example:",
"### Data Splits\n\n\nThe data is split into a 'train', 'validation', and 'test' set, stratified on three parameters: source type, gender and dialect.\nGender and dialect naturally refers to the gender and dialect of the speakers.\nThe data has not been split on speaker ID to avoid speaker overlap in the various sets because this proved impossible\nwhile still maintaining a decent distribution of the other parameters, especially dialect variation.\n\n\nThe source type refers to whether the source material is one of the two podcasts (50f, tr) or\na National Library live event (nb).\nThe two types have different features.\nThe podcasts are overall good quality studio recordings with little background noise, echo and such.\nThe live events are recorded in rooms or reception halls at the National Library and have more background\nnoise, echo and inconsistent audio quality.\nMany also have a live audience.\n\n\nDataset Creation\n----------------",
"### Source data\n\n\nThe audio is collected from podcasts we have been permitted to share openly – namely 50\nforskere from UiT and Trondheim kommunes podkast from Trondheim municipality – as well\nas some of The National Library’s own recordings of live events. The podcasts are studio\nrecordings, while the National Library events take place in rooms and reception halls at the\nNational Library, sometimes in front of an audience.",
"#### Who are the source language producers?\n\n\nGuests and hosts of the respective recording events, either podcasts produced in a studio or lectures, debates and conversations in a public live event.",
"### Annotations",
"#### Annotation process\n\n\nThe recordings were segmented and transcribed in the transcription software ELAN. The\nrecordings were transcribed automatically using a Norwegian ASR system created by the AI-\nlab at the National Library of Norway. The speech was segmented and transcribed with\nspeaker diarization, separating the speakers into separate transcription tiers. These\nsegments and transcriptions were then manually corrected by a transcriber according to a\nset of guidelines. All the manual transcriptions were reviewed by a second person in order to\navoid substantial discrepancies between transcribers. Finally all the transcriptions were\nspell-checked, and checked for any unwanted numbers or special characters.\n\n\nSee the official dataset documentation for more details.\nThe full set of guidelines for segmentation and transcription are given in Norwegian in NB\\_Samtale\\_transcription\\_guidelines.pdf.",
"#### Who are the annotators?\n\n\nThe Norwegian Language Bank (Språkbanken).",
"### Personal and Sensitive Information\n\n\nThe data fields 'gender', 'dialect' and 'speaker\\_id' pertain to the speakers themselves.\nA single speaker will have the same 'speaker\\_id' if they appear in several different source files.\n\n\nConsiderations for Using the Data\n---------------------------------",
"### Discussion of Biases\n\n\nThe recordings were for the most part selected based on the gender and dialect of the\nspeakers to ensure gender balance and broad dialectal representation. The corpus has a\nnear 50/50 divide between male and female speakers (male 54%, female 46%). The\nNorwegian dialects have been divided into five broad dialect areas that are all represented in\nthe corpus. However, Eastern Norwegian has the greatest representation at about 50%\nspeaker time, while the other areas fall between 8% and 20% speaker time.\n\n\nAdditional Information\n----------------------",
"### Dataset Curators\n\n\nThe content of the dataset was created by the Norwegian Language Bank (Språkbanken) at the National Library of Norway.\nMarie Iversdatter Røsok, Ingerid Løyning Dale and Per Erik Solberg contributed in creating this dataset.\nThanks to the HuggingFace team for assistance.",
"### Licensing Information\n\n\nThe NB Samtale dataset is released with the CC-ZERO-license, i.e., it is public domain and can be used for any purpose and reshared without permission."
] |
[
72,
177,
93,
210,
175,
994,
207,
91,
43,
5,
195,
19,
73,
118,
70,
47
] |
[
"passage: TAGS\n#task_categories-automatic-speech-recognition #language-Norwegian Bokmål #language-Norwegian Nynorsk #language-Norwegian #license-cc0-1.0 #dialects #podcasts #live-events #conversational #speech #region-us \n### Dataset Summary\n\n\nNB Samtale is a speech corpus made by the Language Bank at the National Library of Norway. The corpus contains orthographically transcribed speech from podcasts and recordings of live events at the National Library. The corpus is intended as an open source dataset for Automatic Speech Recognition (ASR) development, and is specifically aimed at improving ASR systems’ handle on conversational speech.\n\n\nThe corpus consists of 12,080 segments, a total of 24 hours transcribed speech from 69 speakers. The corpus ensures both gender and dialect variation, and speakers from five broad dialect areas are represented. Both Bokmål and Nynorsk transcriptions are present in the corpus, with Nynorsk making up approximately 25% of the transcriptions.\n\n\nWe greatly appreciate feedback and suggestions for improvements.### Supported Tasks\n\n\n* Automatic Speech Recognition for verbatim transcriptions of conversational speech, as well as for standardised, orthographic transcriptions.\n* Speaker Diarization: The sentence segments all have a speaker ID, which is unique per speaker, and the same speaker will have the same speaker ID across source files.\n* Audio classification: Each segment could be classified with one of the metadata features.",
"passage: ### Languages\n\n\nThe transcription texts are in either Norwegian bokmål or Norwegian nynorsk.\n\n\nThe audio is in Norwegian, in the speakers' respective dialects.\nWe have categorized them into five dialect areas:\n\n\nDialect area (en): Eastern Norway, Dialect area (nb): Østlandet, Counties: Agder, Innlandet, Oslo, Vestfold og Telemark, Viken\nDialect area (en): Southwest Norway, Dialect area (nb): Sørvestlandet, Counties: Rogaland\nDialect area (en): Western Norway, Dialect area (nb): Vestlandet, Counties: Møre og Romsdal, Vestland\nDialect area (en): Central Norway, Dialect area (nb): Midt-Norge, Counties: Trøndelag\nDialect area (en): Northern Norway, Dialect area (nb): Nord-Norge, Counties: Nordland, Troms og Finnmark\n\n\nDataset Structure\n-----------------### Data Instances\n\n\nA data point is an audio segment, including a relative path to the '.wav'-file, and the transcription. Additional information is provided about the speaker, the orthographic standard for the transcription, whether the segment overlaps with the previous or next, and the setting for the recording. The transcription also comes in 3 different normalized versions: \"orthographic\" (orthographically correct text, with punctuation, integer numbers, and standardized word forms), \"verbatim\" (with tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation) and \"annotations\" (as is from the annotation process, with punctuation, tags, and alternate word forms).",
"passage: ### Data Fields\n\n\ndata field: 'source\\_file\\_id', description: original file the segment appears in., Value type / example: e.g. '50f-X', 'tr-X' or 'nb-X', where X is a number. (str)\ndata field: 'segment\\_id', description: segment start and end timestamp., Value type / example: '{starttime}-{endtime}' (str)\ndata field: 'segment\\_order', description: order of segment in the original file., Value type / example: (int)\ndata field: 'duration', description: duration of segment in seconds., Value type / example: (float)\ndata field: 'overlap\\_previous', description: whether the beginning of the segment overlaps with the previous segment, Value type / example: 'True' or 'False' (bool)\ndata field: 'overlap\\_next', description: whether the end of the segment overlaps with the next segment., Value type / example: 'True' or 'False' (bool)\ndata field: 'speaker\\_id', description: speaker ID for the speaker transcribed in the segment., Value type / example: 'P0' - 'P69' (str)\ndata field: 'gender', description: speaker’s binary gender (female or male), mapped to a HuggingFace datasets ClassLabel index number, Value type / example: '0': f or '1': m (int)\ndata field: 'dialect', description: the speaker’s dialect area, as a ClassLabel index number for the areas east (e), north (n), southwest (sw), central (t), west (w)., Value type / example: '0': e, '1': n, '2': sw, '3': t, or '4': w (int)\ndata field: 'orthography', description: the written norm of the transcription, either bokmål ('bm') or nynorsk ('nn') as a ClassLabel index number, Value type / example: '0': bm or '1': nn (int)\ndata field: 'source\\_type', description: type of recording of original file, either 'live-event' or 'podcast', as a ClassLabel index number, Value type / example: '0': live-event or '1': podcast (int)\ndata field: 'file\\_name', description: file name of the audio segment, without the path, Value type / example: '{source\\_file\\_id}\\_{segment\\_id}.wav' (str)\ndata field: 'transcription', description: orthographic transcription text, Value type / example: (str)\ndata field: 'orthographic', description: close to orthographically correct text transcription in the given 'orthography' standard. Contains punctuation, numbers, and standard word forms., Value type / example: (str)\ndata field: 'verbatim', description: transcription text mapping to the uttered words as close as possible. Contains tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation., Value type / example: (str)\ndata field: 'annotations', description: transcription text \"as is\" from the annotation process. Contains false starts, metatags for non-linguistic noises, punctuation, and alternate word forms ('<orthographic standard word>'), Value type / example: (str)\ndata field: 'audio', description: the audio segment data, with the relative file 'path', the bytes 'array', and the 'sampling\\_rate', Value type / example: (dict)\ndata field: \"orthographic\" (orthographically correct text, with punctuation, integer numbers, and standardized word forms), \"verbatim\" (with tokens marking hesitations, laughter, foreign phrases and unknown words, but no punctuation) and \"annotations\" (as is from the annotation process, with punctuation, tags, and alternate word forms)., description: , Value type / example:### Data Splits\n\n\nThe data is split into a 'train', 'validation', and 'test' set, stratified on three parameters: source type, gender and dialect.\nGender and dialect naturally refers to the gender and dialect of the speakers.\nThe data has not been split on speaker ID to avoid speaker overlap in the various sets because this proved impossible\nwhile still maintaining a decent distribution of the other parameters, especially dialect variation.\n\n\nThe source type refers to whether the source material is one of the two podcasts (50f, tr) or\na National Library live event (nb).\nThe two types have different features.\nThe podcasts are overall good quality studio recordings with little background noise, echo and such.\nThe live events are recorded in rooms or reception halls at the National Library and have more background\nnoise, echo and inconsistent audio quality.\nMany also have a live audience.\n\n\nDataset Creation\n----------------### Source data\n\n\nThe audio is collected from podcasts we have been permitted to share openly – namely 50\nforskere from UiT and Trondheim kommunes podkast from Trondheim municipality – as well\nas some of The National Library’s own recordings of live events. The podcasts are studio\nrecordings, while the National Library events take place in rooms and reception halls at the\nNational Library, sometimes in front of an audience.#### Who are the source language producers?\n\n\nGuests and hosts of the respective recording events, either podcasts produced in a studio or lectures, debates and conversations in a public live event.### Annotations"
] |
117d0cc625b7b503cddf48168ece1cf05217f31c
|
# Dataset Card for "style_data"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
kwooleryorg/style_data
|
[
"region:us"
] |
2023-08-22T11:43:49+00:00
|
{"dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "label", "dtype": {"class_label": {"names": {"0": "Boho", "1": "Coastal", "2": "Contemporary", "3": "Farmhouse", "4": "Glam", "5": "Industrial", "6": "Mid-Century", "7": "Modern", "8": "Scandinavian", "9": "Traditional"}}}}], "splits": [{"name": "train", "num_bytes": 44040121691.965, "num_examples": 41127}, {"name": "validation", "num_bytes": 339743399.0, "num_examples": 454}, {"name": "test", "num_bytes": 303509.0, "num_examples": 6}], "download_size": 339534104, "dataset_size": 44380168599.965}}
|
2023-08-22T16:08:17+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "style_data"
More Information needed
|
[
"# Dataset Card for \"style_data\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"style_data\"\n\nMore Information needed"
] |
[
6,
13
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"style_data\"\n\nMore Information needed"
] |
ee28b71c9d4e3dfc250d386e752963d0a46229c4
|
# Dataset of kako/加古/加古 (Kantai Collection)
This is the dataset of kako/加古/加古 (Kantai Collection), containing 352 images and their tags.
The core tags of this character are `black_hair, long_hair, ahoge, ponytail, blue_eyes, hair_over_one_eye, hair_ornament, bangs, ribbon, messy_hair, breasts`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:-----------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 352 | 243.89 MiB | [Download](https://huggingface.co/datasets/CyberHarem/kako_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 352 | 188.14 MiB | [Download](https://huggingface.co/datasets/CyberHarem/kako_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 698 | 341.62 MiB | [Download](https://huggingface.co/datasets/CyberHarem/kako_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 352 | 230.32 MiB | [Download](https://huggingface.co/datasets/CyberHarem/kako_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 698 | 407.96 MiB | [Download](https://huggingface.co/datasets/CyberHarem/kako_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/kako_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 16 |  |  |  |  |  | 2girls, serafuku, pleated_skirt, open_mouth, hairclip, navel, blue_sailor_collar, red_neckerchief, blue_skirt, midriff, parted_bangs, short_hair, short_sleeves, smile, brown_hair, dated, solo_focus, twitter_username |
| 1 | 8 |  |  |  |  |  | 1girl, machinery, navel, serafuku, smile, solo, midriff, open_mouth, pleated_skirt, turret, chain, electricity, looking_at_viewer, cannon |
| 2 | 7 |  |  |  |  |  | 1girl, looking_at_viewer, serafuku, solo, cowboy_shot, navel, parted_bangs, pleated_skirt, red_neckerchief, smile, blue_skirt, hairclip, midriff, dated, open_mouth, short_sleeves, simple_background, blue_sailor_collar, hair_ribbon, white_background |
| 3 | 5 |  |  |  |  |  | 1girl, blue_skirt, parted_bangs, pleated_skirt, red_neckerchief, serafuku, simple_background, solo, twitter_username, blue_sailor_collar, dated, open_mouth, blush, cowboy_shot, one-hour_drawing_challenge, white_background, closed_eyes, drooling |
| 4 | 8 |  |  |  |  |  | 1girl, looking_at_viewer, navel, simple_background, solo, blush, large_breasts, open_mouth, white_background, naked_ribbon, hair_ribbon, smile, sweat, swimsuit, twitter_username |
| 5 | 11 |  |  |  |  |  | 1girl, solo, official_alternate_costume, white_background, white_skirt, looking_at_viewer, one-hour_drawing_challenge, simple_background, blue_shirt, smile, long_skirt, open_mouth, blouse, blush, hair_down, pleated_skirt |
| 6 | 5 |  |  |  |  |  | 1girl, holding_umbrella, hydrangea, official_alternate_costume, solo, rain, white_skirt, blouse, blue_shirt, blush, purple_shirt, shoes, smile, twitter_username, black_footwear, black_shirt, long_skirt, looking_at_viewer, outdoors |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 2girls | serafuku | pleated_skirt | open_mouth | hairclip | navel | blue_sailor_collar | red_neckerchief | blue_skirt | midriff | parted_bangs | short_hair | short_sleeves | smile | brown_hair | dated | solo_focus | twitter_username | 1girl | machinery | solo | turret | chain | electricity | looking_at_viewer | cannon | cowboy_shot | simple_background | hair_ribbon | white_background | blush | one-hour_drawing_challenge | closed_eyes | drooling | large_breasts | naked_ribbon | sweat | swimsuit | official_alternate_costume | white_skirt | blue_shirt | long_skirt | blouse | hair_down | holding_umbrella | hydrangea | rain | purple_shirt | shoes | black_footwear | black_shirt | outdoors |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:---------|:-----------|:----------------|:-------------|:-----------|:--------|:---------------------|:------------------|:-------------|:----------|:---------------|:-------------|:----------------|:--------|:-------------|:--------|:-------------|:-------------------|:--------|:------------|:-------|:---------|:--------|:--------------|:--------------------|:---------|:--------------|:--------------------|:--------------|:-------------------|:--------|:-----------------------------|:--------------|:-----------|:----------------|:---------------|:--------|:-----------|:-----------------------------|:--------------|:-------------|:-------------|:---------|:------------|:-------------------|:------------|:-------|:---------------|:--------|:-----------------|:--------------|:-----------|
| 0 | 16 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 8 |  |  |  |  |  | | X | X | X | | X | | | | X | | | | X | | | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 7 |  |  |  |  |  | | X | X | X | X | X | X | X | X | X | X | | X | X | | X | | | X | | X | | | | X | | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 5 |  |  |  |  |  | | X | X | X | | | X | X | X | | X | | | | | X | | X | X | | X | | | | | | X | X | | X | X | X | X | X | | | | | | | | | | | | | | | | | | |
| 4 | 8 |  |  |  |  |  | | | | X | | X | | | | | | | | X | | | | X | X | | X | | | | X | | | X | X | X | X | | | | X | X | X | X | | | | | | | | | | | | | | |
| 5 | 11 |  |  |  |  |  | | | X | X | | | | | | | | | | X | | | | | X | | X | | | | X | | | X | | X | X | X | | | | | | | X | X | X | X | X | X | | | | | | | | |
| 6 | 5 |  |  |  |  |  | | | | | | | | | | | | | | X | | | | X | X | | X | | | | X | | | | | | X | | | | | | | | X | X | X | X | X | | X | X | X | X | X | X | X | X |
|
CyberHarem/kako_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T11:58:38+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T14:05:48+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of kako/加古/加古 (Kantai Collection)
=========================================
This is the dataset of kako/加古/加古 (Kantai Collection), containing 352 images and their tags.
The core tags of this character are 'black\_hair, long\_hair, ahoge, ponytail, blue\_eyes, hair\_over\_one\_eye, hair\_ornament, bangs, ribbon, messy\_hair, breasts', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
bd6057121e360810b766df7b91458b21de741422
|
# Dataset Card for "IPRE"
Unofficial version of [IPRE: a Dataset for Inter-Personal Relationship Extraction](https://arxiv.org/abs/1907.12801).
All data has been downloaded from the official repository [https://github.com/SUDA-HLT/IPRE/](https://github.com/SUDA-HLT/IPRE/).
## IPRE: a Dataset for Inter-Personal Relationship Extraction
Inter-personal relationship is the basis of human society. In order to automatically identify the relations between persons from texts, we need annotated data for training systems. However, there is a lack of a massive amount of such data so far. To address this situation, we introduce IPRE, a new dataset for inter-personal relationship extraction which aims to facilitate information extraction and knowledge graph construction research. In total, IPRE has over 41,000 labeled sentences for 34 types of relations, including about 9,000 sentences annotated by workers. Our data is the first dataset for inter-personal relationship extraction. Additionally, we define three evaluation tasks based on IPRE and provide the baseline systems for further comparison in future work.
|
n28div/IPRE
|
[
"language:zh",
"arxiv:1907.12801",
"region:us"
] |
2023-08-22T12:08:08+00:00
|
{"language": ["zh"], "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "test", "path": "data/test-*"}, {"split": "dev", "path": "data/dev-*"}]}], "dataset_info": {"features": [{"name": "head", "dtype": "string"}, {"name": "tail", "dtype": "string"}, {"name": "sentence", "dtype": "string"}, {"name": "relation", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 43508118, "num_examples": 281259}, {"name": "test", "num_bytes": 11583338, "num_examples": 76826}, {"name": "dev", "num_bytes": 5792878, "num_examples": 37637}], "download_size": 30002846, "dataset_size": 60884334}}
|
2023-08-22T12:23:08+00:00
|
[
"1907.12801"
] |
[
"zh"
] |
TAGS
#language-Chinese #arxiv-1907.12801 #region-us
|
# Dataset Card for "IPRE"
Unofficial version of IPRE: a Dataset for Inter-Personal Relationship Extraction.
All data has been downloaded from the official repository URL
## IPRE: a Dataset for Inter-Personal Relationship Extraction
Inter-personal relationship is the basis of human society. In order to automatically identify the relations between persons from texts, we need annotated data for training systems. However, there is a lack of a massive amount of such data so far. To address this situation, we introduce IPRE, a new dataset for inter-personal relationship extraction which aims to facilitate information extraction and knowledge graph construction research. In total, IPRE has over 41,000 labeled sentences for 34 types of relations, including about 9,000 sentences annotated by workers. Our data is the first dataset for inter-personal relationship extraction. Additionally, we define three evaluation tasks based on IPRE and provide the baseline systems for further comparison in future work.
|
[
"# Dataset Card for \"IPRE\"\n\nUnofficial version of IPRE: a Dataset for Inter-Personal Relationship Extraction.\nAll data has been downloaded from the official repository URL",
"## IPRE: a Dataset for Inter-Personal Relationship Extraction\nInter-personal relationship is the basis of human society. In order to automatically identify the relations between persons from texts, we need annotated data for training systems. However, there is a lack of a massive amount of such data so far. To address this situation, we introduce IPRE, a new dataset for inter-personal relationship extraction which aims to facilitate information extraction and knowledge graph construction research. In total, IPRE has over 41,000 labeled sentences for 34 types of relations, including about 9,000 sentences annotated by workers. Our data is the first dataset for inter-personal relationship extraction. Additionally, we define three evaluation tasks based on IPRE and provide the baseline systems for further comparison in future work."
] |
[
"TAGS\n#language-Chinese #arxiv-1907.12801 #region-us \n",
"# Dataset Card for \"IPRE\"\n\nUnofficial version of IPRE: a Dataset for Inter-Personal Relationship Extraction.\nAll data has been downloaded from the official repository URL",
"## IPRE: a Dataset for Inter-Personal Relationship Extraction\nInter-personal relationship is the basis of human society. In order to automatically identify the relations between persons from texts, we need annotated data for training systems. However, there is a lack of a massive amount of such data so far. To address this situation, we introduce IPRE, a new dataset for inter-personal relationship extraction which aims to facilitate information extraction and knowledge graph construction research. In total, IPRE has over 41,000 labeled sentences for 34 types of relations, including about 9,000 sentences annotated by workers. Our data is the first dataset for inter-personal relationship extraction. Additionally, we define three evaluation tasks based on IPRE and provide the baseline systems for further comparison in future work."
] |
[
19,
42,
177
] |
[
"passage: TAGS\n#language-Chinese #arxiv-1907.12801 #region-us \n# Dataset Card for \"IPRE\"\n\nUnofficial version of IPRE: a Dataset for Inter-Personal Relationship Extraction.\nAll data has been downloaded from the official repository URL## IPRE: a Dataset for Inter-Personal Relationship Extraction\nInter-personal relationship is the basis of human society. In order to automatically identify the relations between persons from texts, we need annotated data for training systems. However, there is a lack of a massive amount of such data so far. To address this situation, we introduce IPRE, a new dataset for inter-personal relationship extraction which aims to facilitate information extraction and knowledge graph construction research. In total, IPRE has over 41,000 labeled sentences for 34 types of relations, including about 9,000 sentences annotated by workers. Our data is the first dataset for inter-personal relationship extraction. Additionally, we define three evaluation tasks based on IPRE and provide the baseline systems for further comparison in future work."
] |
c9d79dcbb6760c5d0de39061b9280b7061d81e70
|
The current work is published in the paper "A Comparative Analysis of Sensor-, Geometry-, and Neural-Based Methods for Food Volume Estimation" (https://doi.org/10.1145/3607828.3617794).
The dataset consists of two folders, one for the plastic and one for the real food. In every meal folder there are the following subfolders for distances 40 and 60 cm:
- The "GT_RECAP": Containing the point clouds for each food item, and the total meal.
- The "INTELRS": The original RGB image (image_1_original.jpg) and original depth image (image_1_original_depth.png) captured by the Intel RealSense D455 sensor, the segmented food items (mask.png) and the information about each segmented food item (details.txt).
- The "LIDAR": The original RGB image (image_1_original.jpg) and original depth image (image_1_original_depth.png) captured by the iPhone 14 Pro integrated with a LiDAR sensor, the scaled depth (real_depth.npy), the segmented food items (mask.png) and the information about each segmented food item (details.txt).
- The "STEREO": The original RGB images from 90 and 75 degrees (image_1_original.jpg, image_2_original.jpg) captured by the OnePlus 7 Pro, the segmented food items (mask.png, mask2.png), the gravity data (Gravity_image_1.json, Gravity_image_2.json) and the information about each segmented food item (details.txt).
- The "ZOE": The original RGB image (image_1_original.jpg) captured by the iPhone 14 Pro , the segmented food items (merged_mask.png) and the information about each segmented food item (details.txt).
Additionally, you can find the "Volume GT Meals_MADIMA2023.xlsx" that contain all the ground truth volumes and the "gocarb.jpg" image of the reference card with actual Size: 8.5cm*5.5cm.
|
lubnaa25/Madima23
|
[
"license:afl-3.0",
"region:us"
] |
2023-08-22T12:13:30+00:00
|
{"license": "afl-3.0"}
|
2023-08-31T08:56:01+00:00
|
[] |
[] |
TAGS
#license-afl-3.0 #region-us
|
The current work is published in the paper "A Comparative Analysis of Sensor-, Geometry-, and Neural-Based Methods for Food Volume Estimation" (URL
The dataset consists of two folders, one for the plastic and one for the real food. In every meal folder there are the following subfolders for distances 40 and 60 cm:
- The "GT_RECAP": Containing the point clouds for each food item, and the total meal.
- The "INTELRS": The original RGB image (image_1_original.jpg) and original depth image (image_1_original_depth.png) captured by the Intel RealSense D455 sensor, the segmented food items (URL) and the information about each segmented food item (URL).
- The "LIDAR": The original RGB image (image_1_original.jpg) and original depth image (image_1_original_depth.png) captured by the iPhone 14 Pro integrated with a LiDAR sensor, the scaled depth (real_depth.npy), the segmented food items (URL) and the information about each segmented food item (URL).
- The "STEREO": The original RGB images from 90 and 75 degrees (image_1_original.jpg, image_2_original.jpg) captured by the OnePlus 7 Pro, the segmented food items (URL, URL), the gravity data (Gravity_image_1.json, Gravity_image_2.json) and the information about each segmented food item (URL).
- The "ZOE": The original RGB image (image_1_original.jpg) captured by the iPhone 14 Pro , the segmented food items (merged_mask.png) and the information about each segmented food item (URL).
Additionally, you can find the "Volume GT Meals_MADIMA2023.xlsx" that contain all the ground truth volumes and the "URL" image of the reference card with actual Size: 8.5cm*5.5cm.
|
[] |
[
"TAGS\n#license-afl-3.0 #region-us \n"
] |
[
14
] |
[
"passage: TAGS\n#license-afl-3.0 #region-us \n"
] |
da2bec26391d39816ba8e1cf4635d00ad48d092e
|
# Dataset of tashkent/タシュケント (Kantai Collection)
This is the dataset of tashkent/タシュケント (Kantai Collection), containing 500 images and their tags.
The core tags of this character are `brown_hair, long_hair, twintails, low_twintails, hair_ornament, hairclip, brown_eyes, bow, hair_bow, black_bow, hair_between_eyes, hat, black_headwear, fur_hat, breasts`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:------------|:---------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 500 | 563.07 MiB | [Download](https://huggingface.co/datasets/CyberHarem/tashkent_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 500 | 323.25 MiB | [Download](https://huggingface.co/datasets/CyberHarem/tashkent_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 1235 | 709.79 MiB | [Download](https://huggingface.co/datasets/CyberHarem/tashkent_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 500 | 501.14 MiB | [Download](https://huggingface.co/datasets/CyberHarem/tashkent_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 1235 | 1001.38 MiB | [Download](https://huggingface.co/datasets/CyberHarem/tashkent_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/tashkent_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 15 |  |  |  |  |  | 1girl, black_gloves, blue_shawl, fingerless_gloves, looking_at_viewer, papakha, simple_background, solo, star_(symbol), white_background, white_scarf, red_shirt, smile, torn_scarf, white_jacket, upper_body, anchor_necklace, blush, twitter_username |
| 1 | 5 |  |  |  |  |  | 1girl, anchor_necklace, black_belt, black_gloves, black_skirt, blue_shawl, fingerless_gloves, looking_at_viewer, papakha, red_shirt, ribbon_trim, simple_background, smile, solo, star_(symbol), torn_scarf, untucked_shirt, white_background, white_jacket, white_scarf, open_mouth, pantyhose, salute |
| 2 | 5 |  |  |  |  |  | 1girl, anchor_necklace, black_belt, black_footwear, black_gloves, black_skirt, blue_shawl, fingerless_gloves, looking_at_viewer, papakha, red_shirt, ribbon_trim, simple_background, smile, solo, star_(symbol), thigh_boots, thighhighs, torn_scarf, untucked_shirt, white_background, white_jacket, white_scarf, brown_pantyhose, cowboy_shot, twitter_username |
| 3 | 6 |  |  |  |  |  | 1girl, anchor_necklace, black_footwear, black_gloves, black_skirt, blue_shawl, fingerless_gloves, long_sleeves, looking_at_viewer, pantyhose, papakha, red_shirt, ribbon_trim, solo, star_(symbol), thigh_boots, thighhighs, torn_scarf, untucked_shirt, white_jacket, white_scarf, black_belt, open_mouth, blush, smile, pleated_skirt, red_background |
| 4 | 6 |  |  |  |  |  | 1girl, black_shirt, open_mouth, solo, black_gloves, black_skirt, blush, fingerless_gloves, looking_at_viewer, papakha, star_(symbol), white_background, long_sleeves, medium_breasts, simple_background, black_sweater, pleated_skirt, twitter_username |
| 5 | 8 |  |  |  |  |  | 1girl, looking_at_viewer, solo, simple_background, white_background, black_bikini, cleavage, navel, open_mouth, papakha, side-tie_bikini_bottom, star_(symbol), blush, large_breasts, black_thighhighs, blue_shawl, torn_scarf, white_scarf, black_gloves, collarbone, fingerless_gloves, medium_breasts |
| 6 | 8 |  |  |  |  |  | 1girl, alternate_costume, looking_at_viewer, medium_breasts, solo, cowboy_shot, open_mouth, blue_one-piece_swimsuit, blush, collarbone, gradient_background, school_swimsuit, name_tag, star_(symbol), blue_background, covered_navel, smile, twitter_username |
| 7 | 12 |  |  |  |  |  | 1girl, cloud, day, looking_at_viewer, solo, blue_sky, outdoors, cleavage, ocean, open_mouth, blush, collarbone, large_breasts, medium_breasts, smile, beach, blue_bikini, navel, water |
| 8 | 5 |  |  |  |  |  | 1girl, solo, white_background, competition_swimsuit, cowboy_shot, looking_at_viewer, simple_background, black_one-piece_swimsuit, large_breasts, blue_one-piece_swimsuit, highleg_swimsuit, medium_breasts, smile, twitter_username |
| 9 | 14 |  |  |  |  |  | alternate_costume, 1girl, solo, cleavage, medium_breasts, fake_animal_ears, looking_at_viewer, playboy_bunny, rabbit_ears, detached_collar, strapless_leotard, large_breasts, white_background, bowtie, open_mouth, simple_background, black_leotard, cowboy_shot, thighhighs, wrist_cuffs, brown_pantyhose, jacket, thigh_boots |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | black_gloves | blue_shawl | fingerless_gloves | looking_at_viewer | papakha | simple_background | solo | star_(symbol) | white_background | white_scarf | red_shirt | smile | torn_scarf | white_jacket | upper_body | anchor_necklace | blush | twitter_username | black_belt | black_skirt | ribbon_trim | untucked_shirt | open_mouth | pantyhose | salute | black_footwear | thigh_boots | thighhighs | brown_pantyhose | cowboy_shot | long_sleeves | pleated_skirt | red_background | black_shirt | medium_breasts | black_sweater | black_bikini | cleavage | navel | side-tie_bikini_bottom | large_breasts | black_thighhighs | collarbone | alternate_costume | blue_one-piece_swimsuit | gradient_background | school_swimsuit | name_tag | blue_background | covered_navel | cloud | day | blue_sky | outdoors | ocean | beach | blue_bikini | water | competition_swimsuit | black_one-piece_swimsuit | highleg_swimsuit | fake_animal_ears | playboy_bunny | rabbit_ears | detached_collar | strapless_leotard | bowtie | black_leotard | wrist_cuffs | jacket |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:---------------|:-------------|:--------------------|:--------------------|:----------|:--------------------|:-------|:----------------|:-------------------|:--------------|:------------|:--------|:-------------|:---------------|:-------------|:------------------|:--------|:-------------------|:-------------|:--------------|:--------------|:-----------------|:-------------|:------------|:---------|:-----------------|:--------------|:-------------|:------------------|:--------------|:---------------|:----------------|:-----------------|:--------------|:-----------------|:----------------|:---------------|:-----------|:--------|:-------------------------|:----------------|:-------------------|:-------------|:--------------------|:--------------------------|:----------------------|:------------------|:-----------|:------------------|:----------------|:--------|:------|:-----------|:-----------|:--------|:--------|:--------------|:--------|:-----------------------|:---------------------------|:-------------------|:-------------------|:----------------|:--------------|:------------------|:--------------------|:---------|:----------------|:--------------|:---------|
| 0 | 15 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 5 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | X | | | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 5 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | X | | X | X | X | X | X | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 6 |  |  |  |  |  | X | X | X | X | X | X | | X | X | | X | X | X | X | X | | X | X | | X | X | X | X | X | X | | X | X | X | | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 6 |  |  |  |  |  | X | X | | X | X | X | X | X | X | X | | | | | | | | X | X | | X | | | X | | | | | | | | X | X | | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 8 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | | | X | | | | X | | | | | | X | | | | | | | | | | | | X | | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 6 | 8 |  |  |  |  |  | X | | | | X | | | X | X | | | | X | | | | | X | X | | | | | X | | | | | | | X | | | | | X | | | | | | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | |
| 7 | 12 |  |  |  |  |  | X | | | | X | | | X | | | | | X | | | | | X | | | | | | X | | | | | | | | | | | | X | | | X | X | | X | | X | | | | | | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | |
| 8 | 5 |  |  |  |  |  | X | | | | X | | X | X | | X | | | X | | | | | | X | | | | | | | | | | | | X | | | | | X | | | | | | X | | | | X | | | | | | | | | | | | | | X | X | X | | | | | | | | | |
| 9 | 14 |  |  |  |  |  | X | | | | X | | X | X | | X | | | | | | | | | | | | | | X | | | | X | X | X | X | | | | | X | | | X | | | X | | | X | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X |
|
CyberHarem/tashkent_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T12:16:42+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T18:20:34+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of tashkent/タシュケント (Kantai Collection)
==============================================
This is the dataset of tashkent/タシュケント (Kantai Collection), containing 500 images and their tags.
The core tags of this character are 'brown\_hair, long\_hair, twintails, low\_twintails, hair\_ornament, hairclip, brown\_eyes, bow, hair\_bow, black\_bow, hair\_between\_eyes, hat, black\_headwear, fur\_hat, breasts', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
2ea80ae8c8f4673643c0f75f81bde35c0a3ef10c
|
# Dataset Card for "jeans-captioning-dataset"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
ndr01/jeans-captioning-dataset
|
[
"region:us"
] |
2023-08-22T12:33:09+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}], "dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "Unnamed: 0", "dtype": "int64"}, {"name": "description", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 593273258.0, "num_examples": 179}], "download_size": 588198577, "dataset_size": 593273258.0}}
|
2023-08-22T12:33:37+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "jeans-captioning-dataset"
More Information needed
|
[
"# Dataset Card for \"jeans-captioning-dataset\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"jeans-captioning-dataset\"\n\nMore Information needed"
] |
[
6,
19
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"jeans-captioning-dataset\"\n\nMore Information needed"
] |
40ba8ef489137968f626283318b9b9013b277ba5
|
# Dataset Card for "llama-2-100k"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
esteamgcp/llama-2-100k
|
[
"region:us"
] |
2023-08-22T12:34:50+00:00
|
{"dataset_info": {"features": [{"name": "text", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 1348598, "num_examples": 1000}], "download_size": 0, "dataset_size": 1348598}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-09-19T08:38:53+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "llama-2-100k"
More Information needed
|
[
"# Dataset Card for \"llama-2-100k\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"llama-2-100k\"\n\nMore Information needed"
] |
[
6,
15
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"llama-2-100k\"\n\nMore Information needed"
] |
dbe3a12a23ce754c10c2bdee14e95f53a9ca22de
|
## Description
This dataset contains large amounts of biomedical abstracts and corresponding summaries.
|
mystic-leung/medical_cord19
|
[
"task_categories:summarization",
"language:aa",
"license:openrail",
"medical",
"region:us"
] |
2023-08-22T12:35:59+00:00
|
{"language": ["aa"], "license": "openrail", "task_categories": ["summarization"], "tags": ["medical"]}
|
2023-09-14T02:00:13+00:00
|
[] |
[
"aa"
] |
TAGS
#task_categories-summarization #language-Afar #license-openrail #medical #region-us
|
## Description
This dataset contains large amounts of biomedical abstracts and corresponding summaries.
|
[
"## Description\n\nThis dataset contains large amounts of biomedical abstracts and corresponding summaries."
] |
[
"TAGS\n#task_categories-summarization #language-Afar #license-openrail #medical #region-us \n",
"## Description\n\nThis dataset contains large amounts of biomedical abstracts and corresponding summaries."
] |
[
30,
22
] |
[
"passage: TAGS\n#task_categories-summarization #language-Afar #license-openrail #medical #region-us \n## Description\n\nThis dataset contains large amounts of biomedical abstracts and corresponding summaries."
] |
b7d7eaec96e5c3fbb6eb4a8483d4f2c1bc856199
|
# Dataset Card for "test5"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
gmltnwwkd/test5
|
[
"region:us"
] |
2023-08-22T12:48:22+00:00
|
{"dataset_info": {"features": [{"name": "path", "dtype": "string"}, {"name": "sentence", "dtype": "string"}, {"name": "audio", "dtype": "audio"}], "splits": [{"name": "train", "num_bytes": 1446220905.5255475, "num_examples": 287}, {"name": "test", "num_bytes": 546941016.4744525, "num_examples": 124}], "download_size": 1911648030, "dataset_size": 1993161922.0}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "test", "path": "data/test-*"}]}]}
|
2023-08-22T12:59:00+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "test5"
More Information needed
|
[
"# Dataset Card for \"test5\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"test5\"\n\nMore Information needed"
] |
[
6,
12
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"test5\"\n\nMore Information needed"
] |
f72229eb8adaa7f7e2a013c83de36914c6d8b175
|
password: `"KVmQt9UGNoHRLcNAMCqLtRj8kNNDnGNN"` (include "")
|
daat/DATA
|
[
"size_categories:100K<n<1M",
"language:zh",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T12:50:59+00:00
|
{"language": ["zh"], "size_categories": ["100K<n<1M"], "tags": ["not-for-all-audiences"]}
|
2023-08-23T12:56:46+00:00
|
[] |
[
"zh"
] |
TAGS
#size_categories-100K<n<1M #language-Chinese #not-for-all-audiences #region-us
|
password: '"KVmQt9UGNoHRLcNAMCqLtRj8kNNDnGNN"' (include "")
|
[] |
[
"TAGS\n#size_categories-100K<n<1M #language-Chinese #not-for-all-audiences #region-us \n"
] |
[
32
] |
[
"passage: TAGS\n#size_categories-100K<n<1M #language-Chinese #not-for-all-audiences #region-us \n"
] |
6091889ea60b0d45412a36c5904aa1b5d890408b
|
# Dataset Card for "channelpedia_paper_taged"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
EPFL-LNMC/channelpedia_paper_taged
|
[
"region:us"
] |
2023-08-22T12:54:38+00:00
|
{"dataset_info": {"features": [{"name": "metadata", "struct": [{"name": "authors", "sequence": "string"}, {"name": "id", "dtype": "string"}, {"name": "paragraph_id", "dtype": "int64"}, {"name": "section", "dtype": "string"}, {"name": "title", "dtype": "string"}]}, {"name": "text", "dtype": "string"}, {"name": "embeddings", "sequence": "float32"}, {"name": "tags", "sequence": "string"}], "splits": [{"name": "train", "num_bytes": 43188192.79975021, "num_examples": 10135}], "download_size": 0, "dataset_size": 43188192.79975021}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-22T12:57:40+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "channelpedia_paper_taged"
More Information needed
|
[
"# Dataset Card for \"channelpedia_paper_taged\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"channelpedia_paper_taged\"\n\nMore Information needed"
] |
[
6,
18
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"channelpedia_paper_taged\"\n\nMore Information needed"
] |
63f2c6f2adec7748aee992d1de384264c59c7d98
|
# Dataset of hyuuga (Kantai Collection)
This is the dataset of hyuuga (Kantai Collection), containing 366 images and their tags.
The core tags of this character are `brown_hair, short_hair, brown_eyes, breasts`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:-------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 366 | 222.74 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hyuuga_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 366 | 179.83 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hyuuga_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 637 | 303.99 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hyuuga_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 366 | 215.51 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hyuuga_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 637 | 353.10 MiB | [Download](https://huggingface.co/datasets/CyberHarem/hyuuga_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/hyuuga_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 13 |  |  |  |  |  | 1girl, solo, large_breasts, looking_at_viewer, simple_background, upper_body, white_background, blush, japanese_clothes, skin_tight, twitter_username, undershirt |
| 1 | 7 |  |  |  |  |  | 1girl, looking_at_viewer, smile, solo, japanese_clothes, large_breasts, undershirt, brown_skirt |
| 2 | 21 |  |  |  |  |  | 1girl, japanese_clothes, solo, turret, skirt, machinery, looking_at_viewer, cannon, katana, smile |
| 3 | 5 |  |  |  |  |  | 2girls, japanese_clothes, ponytail, skirt, hair_ribbon, blush, white_background |
| 4 | 5 |  |  |  |  |  | 2girls, simple_background, solo_focus, undershirt, white_background, sandals, smile, socks, crossed_arms, full_body, hakama_short_skirt |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | solo | large_breasts | looking_at_viewer | simple_background | upper_body | white_background | blush | japanese_clothes | skin_tight | twitter_username | undershirt | smile | brown_skirt | turret | skirt | machinery | cannon | katana | 2girls | ponytail | hair_ribbon | solo_focus | sandals | socks | crossed_arms | full_body | hakama_short_skirt |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:-------|:----------------|:--------------------|:--------------------|:-------------|:-------------------|:--------|:-------------------|:-------------|:-------------------|:-------------|:--------|:--------------|:---------|:--------|:------------|:---------|:---------|:---------|:-----------|:--------------|:-------------|:----------|:--------|:---------------|:------------|:---------------------|
| 0 | 13 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | |
| 1 | 7 |  |  |  |  |  | X | X | X | X | | | | | X | | | X | X | X | | | | | | | | | | | | | | |
| 2 | 21 |  |  |  |  |  | X | X | | X | | | | | X | | | | X | | X | X | X | X | X | | | | | | | | | |
| 3 | 5 |  |  |  |  |  | | | | | | | X | X | X | | | | | | | X | | | | X | X | X | | | | | | |
| 4 | 5 |  |  |  |  |  | | | | | X | | X | | | | | X | X | | | | | | | X | | | X | X | X | X | X | X |
|
CyberHarem/hyuuga_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T12:57:20+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-16T06:36:44+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of hyuuga (Kantai Collection)
=====================================
This is the dataset of hyuuga (Kantai Collection), containing 366 images and their tags.
The core tags of this character are 'brown\_hair, short\_hair, brown\_eyes, breasts', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
c2e2e916463faf521081615cea90514521cbbd72
|
# Dataset Card for "channelpedia_paper_tagged"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
EPFL-LNMC/channelpedia_paper_tagged
|
[
"region:us"
] |
2023-08-22T12:57:56+00:00
|
{"dataset_info": {"features": [{"name": "metadata", "struct": [{"name": "section", "dtype": "string"}, {"name": "title", "dtype": "string"}]}, {"name": "text", "dtype": "string"}, {"name": "tags", "sequence": "string"}, {"name": "embeddings", "sequence": "float32"}], "splits": [{"name": "train", "num_bytes": 126163106, "num_examples": 30926}], "download_size": 127902726, "dataset_size": 126163106}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-24T07:59:04+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "channelpedia_paper_tagged"
More Information needed
|
[
"# Dataset Card for \"channelpedia_paper_tagged\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"channelpedia_paper_tagged\"\n\nMore Information needed"
] |
[
6,
18
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"channelpedia_paper_tagged\"\n\nMore Information needed"
] |
074cbaaabde6ed6338b55981eea3546e6f9bc82f
|
Modified CubeSatNet Dataset
Dataset Summary
Cubesat imagery data for onorbit image classification, divided in 5 different labels: Land, Space, Sunburn, Water and Cloud
Dataset Structure
Data Fields
Dataset Creation
Source Data
https://data.mendeley.com/datasets/47vtp22vs7/1
|
mrlasagna07/cubesat_img
|
[
"license:cc-by-4.0",
"region:us"
] |
2023-08-22T13:07:47+00:00
|
{"license": "cc-by-4.0", "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}], "dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "label", "dtype": {"class_label": {"names": {"0": "cloud", "1": "land", "2": "space", "3": "sunburn", "4": "water"}}}}], "splits": [{"name": "train", "num_bytes": 68702450.0, "num_examples": 10000}], "download_size": 51466710, "dataset_size": 68702450.0}}
|
2023-08-28T15:26:32+00:00
|
[] |
[] |
TAGS
#license-cc-by-4.0 #region-us
|
Modified CubeSatNet Dataset
Dataset Summary
Cubesat imagery data for onorbit image classification, divided in 5 different labels: Land, Space, Sunburn, Water and Cloud
Dataset Structure
Data Fields
Dataset Creation
Source Data
URL
|
[] |
[
"TAGS\n#license-cc-by-4.0 #region-us \n"
] |
[
15
] |
[
"passage: TAGS\n#license-cc-by-4.0 #region-us \n"
] |
d04d657d9b1aebeac93c198c7f01a05d95fe5ce1
|
# Dataset Card for "test-diploma-lucchi-cropped-new-mix-big"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
insanemyrr/test-diploma-lucchi-cropped-new-mix-big
|
[
"region:us"
] |
2023-08-22T13:11:50+00:00
|
{"dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "label", "dtype": {"class_label": {"names": {"0": "testing", "1": "training"}}}}], "splits": [{"name": "train", "num_bytes": 155037237.248, "num_examples": 2048}, {"name": "test", "num_bytes": 155022860.288, "num_examples": 2048}], "download_size": 310060018, "dataset_size": 310060097.536}}
|
2023-08-22T13:12:45+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "test-diploma-lucchi-cropped-new-mix-big"
More Information needed
|
[
"# Dataset Card for \"test-diploma-lucchi-cropped-new-mix-big\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"test-diploma-lucchi-cropped-new-mix-big\"\n\nMore Information needed"
] |
[
6,
26
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"test-diploma-lucchi-cropped-new-mix-big\"\n\nMore Information needed"
] |
0166dac6b46631c1a7da27cf4e16761087ddf2de
|
# Dataset Card for "fw_num_bi_train_100_eval_100"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
tyzhu/fw_num_bi_train_100_eval_100
|
[
"region:us"
] |
2023-08-22T13:24:57+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "train_doc2id", "path": "data/train_doc2id-*"}, {"split": "train_id2doc", "path": "data/train_id2doc-*"}, {"split": "train_find_word", "path": "data/train_find_word-*"}, {"split": "eval_find_word", "path": "data/eval_find_word-*"}]}], "dataset_info": {"features": [{"name": "inputs", "dtype": "string"}, {"name": "targets", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 36899, "num_examples": 500}, {"name": "train_doc2id", "num_bytes": 15892, "num_examples": 200}, {"name": "train_id2doc", "num_bytes": 16492, "num_examples": 200}, {"name": "train_find_word", "num_bytes": 4515, "num_examples": 100}, {"name": "eval_find_word", "num_bytes": 4623, "num_examples": 100}], "download_size": 44830, "dataset_size": 78421}}
|
2023-08-22T13:25:10+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "fw_num_bi_train_100_eval_100"
More Information needed
|
[
"# Dataset Card for \"fw_num_bi_train_100_eval_100\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"fw_num_bi_train_100_eval_100\"\n\nMore Information needed"
] |
[
6,
26
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"fw_num_bi_train_100_eval_100\"\n\nMore Information needed"
] |
72ceda57cb3320ee6d7d6a75d660dfc90739d914
|
# Dataset Card for "exoplanet-dataset"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
mbeaty2/exoplanet-dataset
|
[
"region:us"
] |
2023-08-22T13:25:21+00:00
|
{"dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "label", "dtype": {"class_label": {"names": {"0": "data_huggingface"}}}}], "splits": [{"name": "train", "num_bytes": 824912.0, "num_examples": 36}], "download_size": 318901, "dataset_size": 824912.0}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-22T13:31:37+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "exoplanet-dataset"
More Information needed
|
[
"# Dataset Card for \"exoplanet-dataset\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"exoplanet-dataset\"\n\nMore Information needed"
] |
[
6,
16
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"exoplanet-dataset\"\n\nMore Information needed"
] |
64c34ec167f19fbd19a58b810c74ee9768d3987d
|
# Dataset Card for "fw_num_bi_train_10_eval_10"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
tyzhu/fw_num_bi_train_10_eval_10
|
[
"region:us"
] |
2023-08-22T13:25:30+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "train_doc2id", "path": "data/train_doc2id-*"}, {"split": "train_id2doc", "path": "data/train_id2doc-*"}, {"split": "train_find_word", "path": "data/train_find_word-*"}, {"split": "eval_find_word", "path": "data/eval_find_word-*"}]}], "dataset_info": {"features": [{"name": "inputs", "dtype": "string"}, {"name": "targets", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 3645, "num_examples": 50}, {"name": "train_doc2id", "num_bytes": 1571, "num_examples": 20}, {"name": "train_id2doc", "num_bytes": 1631, "num_examples": 20}, {"name": "train_find_word", "num_bytes": 443, "num_examples": 10}, {"name": "eval_find_word", "num_bytes": 452, "num_examples": 10}], "download_size": 11740, "dataset_size": 7742}}
|
2023-08-22T13:25:44+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "fw_num_bi_train_10_eval_10"
More Information needed
|
[
"# Dataset Card for \"fw_num_bi_train_10_eval_10\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"fw_num_bi_train_10_eval_10\"\n\nMore Information needed"
] |
[
6,
26
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"fw_num_bi_train_10_eval_10\"\n\nMore Information needed"
] |
0e9d8419c25b82c2440ddb7e8beaabf764366f03
|
# Dataset Card for "exoplanet-data"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
mbeaty2/exoplanet-data
|
[
"region:us"
] |
2023-08-22T13:32:03+00:00
|
{"dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "label", "dtype": {"class_label": {"names": {"0": "data_huggingface"}}}}, {"name": "text", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 2965375.0, "num_examples": 127}], "download_size": 1537208, "dataset_size": 2965375.0}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-22T13:32:09+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "exoplanet-data"
More Information needed
|
[
"# Dataset Card for \"exoplanet-data\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"exoplanet-data\"\n\nMore Information needed"
] |
[
6,
15
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"exoplanet-data\"\n\nMore Information needed"
] |
c3f90177bf8107f8bfa24eccc00d6828e5961a8d
|
# Dataset of makigumo/巻雲 (Kantai Collection)
This is the dataset of makigumo/巻雲 (Kantai Collection), containing 500 images and their tags.
The core tags of this character are `pink_hair, glasses, ahoge, twintails, long_hair, yellow_eyes, hair_bun, double_bun`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:---------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 500 | 540.81 MiB | [Download](https://huggingface.co/datasets/CyberHarem/makigumo_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 500 | 318.86 MiB | [Download](https://huggingface.co/datasets/CyberHarem/makigumo_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 1134 | 655.01 MiB | [Download](https://huggingface.co/datasets/CyberHarem/makigumo_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 500 | 483.81 MiB | [Download](https://huggingface.co/datasets/CyberHarem/makigumo_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 1134 | 903.34 MiB | [Download](https://huggingface.co/datasets/CyberHarem/makigumo_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/makigumo_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:----------------------------------|:----------------------------------|:----------------------------------|:----------------------------------|:----------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 31 |  |  |  |  |  | 1girl, school_uniform, solo, sleeves_past_fingers, skirt, pantyhose, looking_at_viewer, open_mouth, long_sleeves, boots, blush, smile |
| 1 | 17 |  |  |  |  |  | 1girl, long_sleeves, sleeves_past_fingers, solo, white_shirt, bowtie, halterneck, school_uniform, dress, grey_pantyhose, looking_at_viewer, simple_background, white_background, full_body, lace-up_boots, open_mouth, smile, cowboy_shot, standing |
| 2 | 14 |  |  |  |  |  | 1girl, blazer, long_sleeves, solo, grey_thighhighs, school_uniform, looking_at_viewer, halterneck, smile, purple_dress, blue-framed_eyewear, cowboy_shot, crown_braid, open_mouth, aqua_bowtie |
| 3 | 6 |  |  |  |  |  | 1girl, alternate_costume, blue_buruma, full_body, gym_shirt, gym_uniform, looking_at_viewer, short_sleeves, simple_background, solo, uwabaki, white_background, white_shirt, white_socks, from_behind, kneehighs, t-shirt, ass, looking_back, standing |
| 4 | 5 |  |  |  |  |  | 1girl, alternate_costume, blue-framed_eyewear, blue_buruma, cowboy_shot, gym_uniform, looking_at_viewer, short_sleeves, simple_background, solo, t-shirt, white_shirt, standing, white_background, gym_shirt, open_mouth, smile |
| 5 | 7 |  |  |  |  |  | 1girl, casual_one-piece_swimsuit, looking_at_viewer, simple_background, solo, tied_shirt, white_shirt, floral_print, full_body, grey_background, sandals, standing, swimsuit_under_clothes, t-shirt, white_background, barefoot |
| 6 | 6 |  |  |  |  |  | 1girl, casual_one-piece_swimsuit, looking_at_viewer, solo, tied_shirt, white_shirt, beachball, cowboy_shot, open_mouth, smile, simple_background, t-shirt, white_background |
| 7 | 19 |  |  |  |  |  | 1girl, competition_school_swimsuit, looking_at_viewer, alternate_costume, solo, blue_one-piece_swimsuit, simple_background, smile, white_background, open_mouth, cowboy_shot, sidelocks, blue-framed_eyewear, flat_chest |
| 8 | 11 |  |  |  |  |  | side-tie_bikini_bottom, 1girl, looking_at_viewer, solo, frilled_bikini, hair_flower, navel, floral_print, mismatched_bikini, open_mouth, cowboy_shot, blue-framed_eyewear, crown_braid, open_shirt, purple_bikini, sandals, simple_background, white_background |
| 9 | 5 |  |  |  |  |  | 1girl, alternate_costume, bowtie, detached_collar, fake_animal_ears, full_body, looking_at_viewer, playboy_bunny, rabbit_ears, simple_background, solo, strapless_leotard, wrist_cuffs, high_heels, open_mouth, rabbit_tail, white_background, breasts, grey_pantyhose, red_leotard, black_footwear, black_leotard, black_pantyhose, kneeling, smile |
| 10 | 8 |  |  |  |  |  | 1girl, enmaided, maid_bikini, maid_headdress, small_breasts, waist_apron, looking_at_viewer, solo, white_thighhighs, black_bikini, simple_background, wrist_cuffs, bowtie, detached_collar, black_footwear, mary_janes, bangs, blue-framed_eyewear, blush, frills, full_body, white_apron, white_background |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | school_uniform | solo | sleeves_past_fingers | skirt | pantyhose | looking_at_viewer | open_mouth | long_sleeves | boots | blush | smile | white_shirt | bowtie | halterneck | dress | grey_pantyhose | simple_background | white_background | full_body | lace-up_boots | cowboy_shot | standing | blazer | grey_thighhighs | purple_dress | blue-framed_eyewear | crown_braid | aqua_bowtie | alternate_costume | blue_buruma | gym_shirt | gym_uniform | short_sleeves | uwabaki | white_socks | from_behind | kneehighs | t-shirt | ass | looking_back | casual_one-piece_swimsuit | tied_shirt | floral_print | grey_background | sandals | swimsuit_under_clothes | barefoot | beachball | competition_school_swimsuit | blue_one-piece_swimsuit | sidelocks | flat_chest | side-tie_bikini_bottom | frilled_bikini | hair_flower | navel | mismatched_bikini | open_shirt | purple_bikini | detached_collar | fake_animal_ears | playboy_bunny | rabbit_ears | strapless_leotard | wrist_cuffs | high_heels | rabbit_tail | breasts | red_leotard | black_footwear | black_leotard | black_pantyhose | kneeling | enmaided | maid_bikini | maid_headdress | small_breasts | waist_apron | white_thighhighs | black_bikini | mary_janes | bangs | frills | white_apron |
|----:|----------:|:----------------------------------|:----------------------------------|:----------------------------------|:----------------------------------|:----------------------------------|:--------|:-----------------|:-------|:-----------------------|:--------|:------------|:--------------------|:-------------|:---------------|:--------|:--------|:--------|:--------------|:---------|:-------------|:--------|:-----------------|:--------------------|:-------------------|:------------|:----------------|:--------------|:-----------|:---------|:------------------|:---------------|:----------------------|:--------------|:--------------|:--------------------|:--------------|:------------|:--------------|:----------------|:----------|:--------------|:--------------|:------------|:----------|:------|:---------------|:----------------------------|:-------------|:---------------|:------------------|:----------|:-------------------------|:-----------|:------------|:------------------------------|:--------------------------|:------------|:-------------|:-------------------------|:-----------------|:--------------|:--------|:--------------------|:-------------|:----------------|:------------------|:-------------------|:----------------|:--------------|:--------------------|:--------------|:-------------|:--------------|:----------|:--------------|:-----------------|:----------------|:------------------|:-----------|:-----------|:--------------|:-----------------|:----------------|:--------------|:-------------------|:---------------|:-------------|:--------|:---------|:--------------|
| 0 | 31 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 17 |  |  |  |  |  | X | X | X | X | | | X | X | X | | | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 14 |  |  |  |  |  | X | X | X | | | | X | X | X | | | X | | | X | | | | | | | X | | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 6 |  |  |  |  |  | X | | X | | | | X | | | | | | X | | | | | X | X | X | | | X | | | | | | | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 5 |  |  |  |  |  | X | | X | | | | X | X | | | | X | X | | | | | X | X | | | X | X | | | | X | | | X | X | X | X | X | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 7 |  |  |  |  |  | X | | X | | | | X | | | | | | X | | | | | X | X | X | | | X | | | | | | | | | | | | | | | | X | | | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 6 | 6 |  |  |  |  |  | X | | X | | | | X | X | | | | X | X | | | | | X | X | | | X | | | | | | | | | | | | | | | | | X | | | X | X | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 7 | 19 |  |  |  |  |  | X | | X | | | | X | X | | | | X | | | | | | X | X | | | X | | | | | X | | | X | | | | | | | | | | | | | | | | | | | | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 8 | 11 |  |  |  |  |  | X | | X | | | | X | X | | | | | | | | | | X | X | | | X | | | | | X | X | | | | | | | | | | | | | | | | X | | X | | | | | | | | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | |
| 9 | 5 |  |  |  |  |  | X | | X | | | | X | X | | | | X | | X | | | X | X | X | X | | | | | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | |
| 10 | 8 |  |  |  |  |  | X | | X | | | | X | | | | X | | | X | | | | X | X | X | | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | | | | | X | | | | | X | | | | X | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/makigumo_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T13:33:24+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T14:30:11+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of makigumo/巻雲 (Kantai Collection)
==========================================
This is the dataset of makigumo/巻雲 (Kantai Collection), containing 500 images and their tags.
The core tags of this character are 'pink\_hair, glasses, ahoge, twintails, long\_hair, yellow\_eyes, hair\_bun, double\_bun', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
45303ad5797e5d4e50e4a0cc5a5092e84c91ba46
|
# Dataset Card for "shp-generated_flan_t5_large_with_features"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
dongyoung4091/shp-generated_flan_t5_large_with_features
|
[
"region:us"
] |
2023-08-22T13:51:09+00:00
|
{"dataset_info": {"features": [{"name": "response", "dtype": "string"}, {"name": "prompt", "dtype": "string"}, {"name": "helpfulness", "dtype": "int64"}, {"name": "specificity", "dtype": "int64"}, {"name": "intent", "dtype": "int64"}, {"name": "factuality", "dtype": "int64"}, {"name": "easy-to-understand", "dtype": "int64"}, {"name": "relevance", "dtype": "int64"}, {"name": "readability", "dtype": "int64"}, {"name": "enough-detail", "dtype": "int64"}, {"name": "biased:", "dtype": "int64"}, {"name": "fail-to-consider-individual-preferences", "dtype": "int64"}, {"name": "repetetive", "dtype": "int64"}, {"name": "fail-to-consider-context", "dtype": "int64"}, {"name": "too-long", "dtype": "int64"}, {"name": "__index_level_0__", "dtype": "int64"}], "splits": [{"name": "train", "num_bytes": 1736538, "num_examples": 1500}], "download_size": 215337, "dataset_size": 1736538}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-22T13:51:13+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "shp-generated_flan_t5_large_with_features"
More Information needed
|
[
"# Dataset Card for \"shp-generated_flan_t5_large_with_features\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"shp-generated_flan_t5_large_with_features\"\n\nMore Information needed"
] |
[
6,
28
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"shp-generated_flan_t5_large_with_features\"\n\nMore Information needed"
] |
a78734555cc43f4c3e50e15b9027a267deebe67b
|
# Dataset of amagi/天城/天城 (Kantai Collection)
This is the dataset of amagi/天城/天城 (Kantai Collection), containing 293 images and their tags.
The core tags of this character are `brown_hair, long_hair, hair_ornament, hair_flower, ponytail, brown_eyes, mole, mole_under_eye, breasts, large_breasts, hair_between_eyes`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 293 | 244.18 MiB | [Download](https://huggingface.co/datasets/CyberHarem/amagi_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 293 | 173.33 MiB | [Download](https://huggingface.co/datasets/CyberHarem/amagi_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 607 | 337.90 MiB | [Download](https://huggingface.co/datasets/CyberHarem/amagi_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 293 | 225.13 MiB | [Download](https://huggingface.co/datasets/CyberHarem/amagi_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 607 | 425.07 MiB | [Download](https://huggingface.co/datasets/CyberHarem/amagi_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/amagi_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 9 |  |  |  |  |  | 1girl, cleavage_cutout, flower, midriff, solo, looking_at_viewer, bare_shoulders, navel, miniskirt, smile, blush, crop_top, thighhighs, zettai_ryouiki |
| 1 | 7 |  |  |  |  |  | 1girl, cleavage_cutout, flower, looking_at_viewer, midriff, miniskirt, navel, open_mouth, smile, solo, leaf_hair_ornament, machinery, maple_leaf, flight_deck, full_body, green_thighhighs, shikigami, zettai_ryouiki |
| 2 | 9 |  |  |  |  |  | 1girl, flower, furisode, looking_at_viewer, obi, solo, open_mouth, wide_sleeves, :d, alternate_costume, floral_print |
| 3 | 5 |  |  |  |  |  | 1girl, flower, looking_at_viewer, smile, solo, upper_body, kimono, leaf_hair_ornament, simple_background, blush, open_mouth, white_background |
| 4 | 8 |  |  |  |  |  | 1girl, flower, looking_at_viewer, smile, solo, green_bikini, navel, cleavage, open_mouth, bare_shoulders, collarbone, underboob, upper_body |
| 5 | 6 |  |  |  |  |  | alternate_costume, detached_collar, fake_animal_ears, pantyhose, playboy_bunny, rabbit_ears, wrist_cuffs, 1girl, bowtie, cleavage, flower, solo, bare_shoulders, blush, looking_at_viewer, rabbit_tail, strapless_leotard |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | cleavage_cutout | flower | midriff | solo | looking_at_viewer | bare_shoulders | navel | miniskirt | smile | blush | crop_top | thighhighs | zettai_ryouiki | open_mouth | leaf_hair_ornament | machinery | maple_leaf | flight_deck | full_body | green_thighhighs | shikigami | furisode | obi | wide_sleeves | :d | alternate_costume | floral_print | upper_body | kimono | simple_background | white_background | green_bikini | cleavage | collarbone | underboob | detached_collar | fake_animal_ears | pantyhose | playboy_bunny | rabbit_ears | wrist_cuffs | bowtie | rabbit_tail | strapless_leotard |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:------------------|:---------|:----------|:-------|:--------------------|:-----------------|:--------|:------------|:--------|:--------|:-----------|:-------------|:-----------------|:-------------|:---------------------|:------------|:-------------|:--------------|:------------|:-------------------|:------------|:-----------|:------|:---------------|:-----|:--------------------|:---------------|:-------------|:---------|:--------------------|:-------------------|:---------------|:-----------|:-------------|:------------|:------------------|:-------------------|:------------|:----------------|:--------------|:--------------|:---------|:--------------|:--------------------|
| 0 | 9 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 7 |  |  |  |  |  | X | X | X | X | X | X | | X | X | X | | | | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 9 |  |  |  |  |  | X | | X | | X | X | | | | | | | | | X | | | | | | | | X | X | X | X | X | X | | | | | | | | | | | | | | | | | |
| 3 | 5 |  |  |  |  |  | X | | X | | X | X | | | | X | X | | | | X | X | | | | | | | | | | | | | X | X | X | X | | | | | | | | | | | | | |
| 4 | 8 |  |  |  |  |  | X | | X | | X | X | X | X | | X | | | | | X | | | | | | | | | | | | | | X | | | | X | X | X | X | | | | | | | | | |
| 5 | 6 |  |  |  |  |  | X | | X | | X | X | X | | | | X | | | | | | | | | | | | | | | | X | | | | | | | X | | | X | X | X | X | X | X | X | X | X |
|
CyberHarem/amagi_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T13:51:41+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T21:26:31+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of amagi/天城/天城 (Kantai Collection)
==========================================
This is the dataset of amagi/天城/天城 (Kantai Collection), containing 293 images and their tags.
The core tags of this character are 'brown\_hair, long\_hair, hair\_ornament, hair\_flower, ponytail, brown\_eyes, mole, mole\_under\_eye, breasts, large\_breasts, hair\_between\_eyes', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
3aa742b5b29851369fcd0fd3fd4c805272666c84
|
# Dataset Card for "illuin_layout_dataset_text_only"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
manu/illuin_layout_dataset_text_only
|
[
"region:us"
] |
2023-08-22T13:54:05+00:00
|
{"dataset_info": {"features": [{"name": "id", "dtype": "string"}, {"name": "text", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 1169564468, "num_examples": 488563}], "download_size": 548246721, "dataset_size": 1169564468}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-22T13:55:01+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "illuin_layout_dataset_text_only"
More Information needed
|
[
"# Dataset Card for \"illuin_layout_dataset_text_only\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"illuin_layout_dataset_text_only\"\n\nMore Information needed"
] |
[
6,
24
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"illuin_layout_dataset_text_only\"\n\nMore Information needed"
] |
acf4de59ba0c0ef99320e34e1ff98cd5dd0d0642
|
# Dataset Card for "shp-generated_flan_t5_large_with_features_flan_t5_large"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
dongyoung4091/shp-generated_flan_t5_large_with_features_flan_t5_large
|
[
"region:us"
] |
2023-08-22T13:57:35+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}], "dataset_info": {"features": [{"name": "response", "dtype": "string"}, {"name": "prompt", "dtype": "string"}, {"name": "helpfulness", "dtype": "int64"}, {"name": "specificity", "dtype": "int64"}, {"name": "intent", "dtype": "int64"}, {"name": "factuality", "dtype": "int64"}, {"name": "easy-to-understand", "dtype": "int64"}, {"name": "relevance", "dtype": "int64"}, {"name": "readability", "dtype": "int64"}, {"name": "enough-detail", "dtype": "int64"}, {"name": "biased:", "dtype": "int64"}, {"name": "fail-to-consider-individual-preferences", "dtype": "int64"}, {"name": "repetetive", "dtype": "int64"}, {"name": "fail-to-consider-context", "dtype": "int64"}, {"name": "too-long", "dtype": "int64"}, {"name": "__index_level_0__", "dtype": "int64"}, {"name": "log_score", "dtype": "float64"}], "splits": [{"name": "train", "num_bytes": 1748538, "num_examples": 1500}], "download_size": 226283, "dataset_size": 1748538}}
|
2023-08-22T13:57:40+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "shp-generated_flan_t5_large_with_features_flan_t5_large"
More Information needed
|
[
"# Dataset Card for \"shp-generated_flan_t5_large_with_features_flan_t5_large\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"shp-generated_flan_t5_large_with_features_flan_t5_large\"\n\nMore Information needed"
] |
[
6,
36
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"shp-generated_flan_t5_large_with_features_flan_t5_large\"\n\nMore Information needed"
] |
5f7566160fd6eec364a486795f717a91ef84d88d
|
# Dataset Card for "System_100K"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
EgilKarlsen/System_100K
|
[
"region:us"
] |
2023-08-22T14:07:23+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "validation", "path": "data/validation-*"}]}], "dataset_info": {"features": [{"name": "log", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 13071466, "num_examples": 90000}, {"name": "validation", "num_bytes": 1375771, "num_examples": 10000}], "download_size": 1982338, "dataset_size": 14447237}}
|
2023-08-22T14:07:31+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "System_100K"
More Information needed
|
[
"# Dataset Card for \"System_100K\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"System_100K\"\n\nMore Information needed"
] |
[
6,
14
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"System_100K\"\n\nMore Information needed"
] |
4fd924cb4400d9db401de7870ea12883731528dd
|
# Dataset Card for "fw_squad_num_bi_train_100_eval_100"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
tyzhu/fw_squad_num_bi_train_100_eval_100
|
[
"region:us"
] |
2023-08-22T14:23:53+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "train_doc2id", "path": "data/train_doc2id-*"}, {"split": "train_id2doc", "path": "data/train_id2doc-*"}, {"split": "train_find_word", "path": "data/train_find_word-*"}, {"split": "eval_find_word", "path": "data/eval_find_word-*"}]}], "dataset_info": {"features": [{"name": "inputs", "dtype": "string"}, {"name": "targets", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 322056, "num_examples": 500}, {"name": "train_doc2id", "num_bytes": 158244, "num_examples": 200}, {"name": "train_id2doc", "num_bytes": 158844, "num_examples": 200}, {"name": "train_find_word", "num_bytes": 4968, "num_examples": 100}, {"name": "eval_find_word", "num_bytes": 5068, "num_examples": 100}], "download_size": 416933, "dataset_size": 649180}}
|
2023-08-22T14:24:08+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "fw_squad_num_bi_train_100_eval_100"
More Information needed
|
[
"# Dataset Card for \"fw_squad_num_bi_train_100_eval_100\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"fw_squad_num_bi_train_100_eval_100\"\n\nMore Information needed"
] |
[
6,
29
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"fw_squad_num_bi_train_100_eval_100\"\n\nMore Information needed"
] |
f2ea4cf200faf2271422dd4a25aca1906c783bf3
|
# Dataset Card for "fw_squad_num_bi_train_10_eval_10"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
tyzhu/fw_squad_num_bi_train_10_eval_10
|
[
"region:us"
] |
2023-08-22T14:27:59+00:00
|
{"configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}, {"split": "train_doc2id", "path": "data/train_doc2id-*"}, {"split": "train_id2doc", "path": "data/train_id2doc-*"}, {"split": "train_find_word", "path": "data/train_find_word-*"}, {"split": "eval_find_word", "path": "data/eval_find_word-*"}]}], "dataset_info": {"features": [{"name": "inputs", "dtype": "string"}, {"name": "targets", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 28138, "num_examples": 50}, {"name": "train_doc2id", "num_bytes": 13797, "num_examples": 20}, {"name": "train_id2doc", "num_bytes": 13857, "num_examples": 20}, {"name": "train_find_word", "num_bytes": 484, "num_examples": 10}, {"name": "eval_find_word", "num_bytes": 491, "num_examples": 10}], "download_size": 53723, "dataset_size": 56767}}
|
2023-08-22T14:28:13+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "fw_squad_num_bi_train_10_eval_10"
More Information needed
|
[
"# Dataset Card for \"fw_squad_num_bi_train_10_eval_10\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"fw_squad_num_bi_train_10_eval_10\"\n\nMore Information needed"
] |
[
6,
29
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"fw_squad_num_bi_train_10_eval_10\"\n\nMore Information needed"
] |
2ae2deb9296fa6084ec6ae9fff0b9b2eb53dafa5
|
# Dataset of chitose/千歳/千歳 (Kantai Collection)
This is the dataset of chitose/千歳/千歳 (Kantai Collection), containing 336 images and their tags.
The core tags of this character are `grey_hair, long_hair, ponytail, headband, breasts, large_breasts, grey_eyes, ribbon`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:--------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 336 | 258.86 MiB | [Download](https://huggingface.co/datasets/CyberHarem/chitose_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 336 | 192.25 MiB | [Download](https://huggingface.co/datasets/CyberHarem/chitose_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 682 | 358.82 MiB | [Download](https://huggingface.co/datasets/CyberHarem/chitose_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 336 | 243.86 MiB | [Download](https://huggingface.co/datasets/CyberHarem/chitose_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 682 | 440.21 MiB | [Download](https://huggingface.co/datasets/CyberHarem/chitose_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/chitose_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 17 |  |  |  |  |  | 1girl, black_pantyhose, solo, smile, hakama_skirt, looking_at_viewer, red_hakama, sitting |
| 1 | 8 |  |  |  |  |  | 1girl, jacket, red_hakama, solo, black_pantyhose, blouse, hair_ribbon, white_background, looking_at_viewer, simple_background, white_shirt, blush, long_sleeves, smile, tassel, hakama_short_skirt, sitting |
| 2 | 9 |  |  |  |  |  | 1girl, smile, solo, looking_at_viewer, open_mouth, hair_ribbon, blush, brown_eyes, upper_body, japanese_clothes |
| 3 | 11 |  |  |  |  |  | 1girl, blush, looking_at_viewer, open_shirt, solo, black_pantyhose, open_mouth, navel, panties_under_pantyhose, smile, thighband_pantyhose, white_panties, cleavage, lying, nipples, no_bra, short_hair, skirt |
| 4 | 10 |  |  |  |  |  | 1girl, solo, looking_at_viewer, bikini, cleavage, smile, blush |
| 5 | 9 |  |  |  |  |  | 1boy, 1girl, hetero, blush, huge_breasts, solo_focus, nipples, paizuri, open_mouth, short_hair, penis, saliva, tongue_out |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | black_pantyhose | solo | smile | hakama_skirt | looking_at_viewer | red_hakama | sitting | jacket | blouse | hair_ribbon | white_background | simple_background | white_shirt | blush | long_sleeves | tassel | hakama_short_skirt | open_mouth | brown_eyes | upper_body | japanese_clothes | open_shirt | navel | panties_under_pantyhose | thighband_pantyhose | white_panties | cleavage | lying | nipples | no_bra | short_hair | skirt | bikini | 1boy | hetero | huge_breasts | solo_focus | paizuri | penis | saliva | tongue_out |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:------------------|:-------|:--------|:---------------|:--------------------|:-------------|:----------|:---------|:---------|:--------------|:-------------------|:--------------------|:--------------|:--------|:---------------|:---------|:---------------------|:-------------|:-------------|:-------------|:-------------------|:-------------|:--------|:--------------------------|:----------------------|:----------------|:-----------|:--------|:----------|:---------|:-------------|:--------|:---------|:-------|:---------|:---------------|:-------------|:----------|:--------|:---------|:-------------|
| 0 | 17 |  |  |  |  |  | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 8 |  |  |  |  |  | X | X | X | X | | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 9 |  |  |  |  |  | X | | X | X | | X | | | | | X | | | | X | | | | X | X | X | X | | | | | | | | | | | | | | | | | | | | |
| 3 | 11 |  |  |  |  |  | X | X | X | X | | X | | | | | | | | | X | | | | X | | | | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | |
| 4 | 10 |  |  |  |  |  | X | | X | X | | X | | | | | | | | | X | | | | | | | | | | | | | X | | | | | | X | | | | | | | | |
| 5 | 9 |  |  |  |  |  | X | | | | | | | | | | | | | | X | | | | X | | | | | | | | | | | X | | X | | | X | X | X | X | X | X | X | X |
|
CyberHarem/chitose_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T14:48:37+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T18:17:38+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of chitose/千歳/千歳 (Kantai Collection)
============================================
This is the dataset of chitose/千歳/千歳 (Kantai Collection), containing 336 images and their tags.
The core tags of this character are 'grey\_hair, long\_hair, ponytail, headband, breasts, large\_breasts, grey\_eyes, ribbon', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
38c3e2148a95600b95364d7a9511b33affa1d4c5
|
# Dataset of fumizuki/文月/文月 (Kantai Collection)
This is the dataset of fumizuki/文月/文月 (Kantai Collection), containing 373 images and their tags.
The core tags of this character are `brown_hair, long_hair, ponytail, brown_eyes`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:---------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 373 | 261.69 MiB | [Download](https://huggingface.co/datasets/CyberHarem/fumizuki_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 373 | 186.36 MiB | [Download](https://huggingface.co/datasets/CyberHarem/fumizuki_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 779 | 378.43 MiB | [Download](https://huggingface.co/datasets/CyberHarem/fumizuki_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 373 | 246.78 MiB | [Download](https://huggingface.co/datasets/CyberHarem/fumizuki_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 779 | 476.67 MiB | [Download](https://huggingface.co/datasets/CyberHarem/fumizuki_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/fumizuki_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 8 |  |  |  |  |  | 1girl, black_serafuku, black_skirt, blush, crescent_pin, open_mouth, simple_background, solo, twitter_username, white_necktie, hair_between_eyes, long_sleeves, white_background, black_sailor_collar, black_shirt, looking_at_viewer, neckerchief, one-hour_drawing_challenge, smile, black_socks, kneehighs, pleated_skirt |
| 1 | 6 |  |  |  |  |  | 1girl, black_sailor_collar, black_serafuku, black_shirt, black_skirt, crescent_pin, long_sleeves, pleated_skirt, simple_background, solo, white_necktie, cowboy_shot, looking_at_viewer, white_background, white_neckerchief, hair_between_eyes, open_mouth, smile, blush |
| 2 | 23 |  |  |  |  |  | 1girl, black_sailor_collar, long_sleeves, serafuku, solo, yellow_neckerchief, white_shirt, blue_jacket, crescent_pin, simple_background, smile, blush, open_mouth, white_background, looking_at_viewer, black_skirt, hair_between_eyes, yellow_necktie, upper_body |
| 3 | 6 |  |  |  |  |  | 1girl, solo, looking_at_viewer, navel, open_mouth, blush, white_bikini, armpits, crescent, flat_chest, one-hour_drawing_challenge, simple_background, white_background |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | black_serafuku | black_skirt | blush | crescent_pin | open_mouth | simple_background | solo | twitter_username | white_necktie | hair_between_eyes | long_sleeves | white_background | black_sailor_collar | black_shirt | looking_at_viewer | neckerchief | one-hour_drawing_challenge | smile | black_socks | kneehighs | pleated_skirt | cowboy_shot | white_neckerchief | serafuku | yellow_neckerchief | white_shirt | blue_jacket | yellow_necktie | upper_body | navel | white_bikini | armpits | crescent | flat_chest |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:-----------------|:--------------|:--------|:---------------|:-------------|:--------------------|:-------|:-------------------|:----------------|:--------------------|:---------------|:-------------------|:----------------------|:--------------|:--------------------|:--------------|:-----------------------------|:--------|:--------------|:------------|:----------------|:--------------|:--------------------|:-----------|:---------------------|:--------------|:--------------|:-----------------|:-------------|:--------|:---------------|:----------|:-----------|:-------------|
| 0 | 8 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | |
| 1 | 6 |  |  |  |  |  | X | X | X | X | X | X | X | X | | X | X | X | X | X | X | X | | | X | | | X | X | X | | | | | | | | | | | |
| 2 | 23 |  |  |  |  |  | X | | X | X | X | X | X | X | | | X | X | X | X | | X | | | X | | | | | | X | X | X | X | X | X | | | | | |
| 3 | 6 |  |  |  |  |  | X | | | X | | X | X | X | | | | | X | | | X | | X | | | | | | | | | | | | | X | X | X | X | X |
|
CyberHarem/fumizuki_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T14:49:52+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T08:25:52+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of fumizuki/文月/文月 (Kantai Collection)
=============================================
This is the dataset of fumizuki/文月/文月 (Kantai Collection), containing 373 images and their tags.
The core tags of this character are 'brown\_hair, long\_hair, ponytail, brown\_eyes', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
4b83410a557cfb761683d118b1c4faa2b4473550
|
## GitHub Swift Repositories
### Table of Contents
- [Dataset Description](#dataset-description)
* [Dataset Summary](#dataset-summary)
* [Source Data](#source-data)
- [Dataset Metadata](#dataset-metadata)
- [Licensing Information](#licensing-information)
---
### Dataset Description
#### Dataset Summary
This dataset comprises data extracted from GitHub repositories, specifically focusing on Swift code. It was extracted using Google BigQuery and contains detailed information such as the repository name, reference, path, and license.
#### Source Data
- **Initial Data Collection and Normalization**
The data was collected from GitHub repositories using Google BigQuery. The dataset includes data from over 2.8 million open-source repositories. The data extraction process focused specifically on Swift files, identifying them using the `.swift` extension.
- **Who are the source data producers?**
Developers and contributors to open-source projects on GitHub.
---
### Dataset Metadata
- **Data Curators**: The data was curated using Google BigQuery.
- **Last Update**: 22 Aug 2023
- **Dataset Creation Date**: 20 May 2023
---
### Licensing Information
Please note that this dataset is a collection of open-source repositories. Each repository or file might come with its own license. Always refer to the license field associated with each entry.
---
### Feedback and Contributions
We welcome feedback and contributions. If you notice any issues with the dataset or would like your code remove, please raise an issue.
---
|
drewparo/bigquery-swift-unfiltered
|
[
"task_categories:text-generation",
"language:code",
"code",
"codegeneration",
"swift",
"code completation",
"code generation",
"region:us"
] |
2023-08-22T14:56:41+00:00
|
{"language": ["code"], "task_categories": ["text-generation"], "pretty_name": "swiftBigQuery", "tags": ["code", "codegeneration", "swift", "code completation", "code generation"], "dataset_info": {"features": [{"name": "repo_name", "dtype": "string"}, {"name": "ref", "dtype": "string"}, {"name": "path", "dtype": "string"}, {"name": "license", "dtype": "string"}, {"name": "copies", "dtype": "string"}, {"name": "content", "dtype": "string"}, {"name": "hash", "dtype": "string"}, {"name": "line_mean", "dtype": "float64"}, {"name": "line_max", "dtype": "int64"}, {"name": "alpha_frac", "dtype": "float64"}, {"name": "autogenerated", "dtype": "bool"}, {"name": "config_or_test", "dtype": "bool"}, {"name": "has_no_keywords", "dtype": "bool"}, {"name": "has_few_assignments", "dtype": "bool"}], "splits": [{"name": "train", "num_bytes": 1669068980.5339837, "num_examples": 377225}], "download_size": 788231777, "dataset_size": 1669068980.5339837}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-23T12:50:28+00:00
|
[] |
[
"code"
] |
TAGS
#task_categories-text-generation #language-code #code #codegeneration #swift #code completation #code generation #region-us
|
## GitHub Swift Repositories
### Table of Contents
- Dataset Description
* Dataset Summary
* Source Data
- Dataset Metadata
- Licensing Information
---
### Dataset Description
#### Dataset Summary
This dataset comprises data extracted from GitHub repositories, specifically focusing on Swift code. It was extracted using Google BigQuery and contains detailed information such as the repository name, reference, path, and license.
#### Source Data
- Initial Data Collection and Normalization
The data was collected from GitHub repositories using Google BigQuery. The dataset includes data from over 2.8 million open-source repositories. The data extraction process focused specifically on Swift files, identifying them using the '.swift' extension.
- Who are the source data producers?
Developers and contributors to open-source projects on GitHub.
---
### Dataset Metadata
- Data Curators: The data was curated using Google BigQuery.
- Last Update: 22 Aug 2023
- Dataset Creation Date: 20 May 2023
---
### Licensing Information
Please note that this dataset is a collection of open-source repositories. Each repository or file might come with its own license. Always refer to the license field associated with each entry.
---
### Feedback and Contributions
We welcome feedback and contributions. If you notice any issues with the dataset or would like your code remove, please raise an issue.
---
|
[
"## GitHub Swift Repositories",
"### Table of Contents\n- Dataset Description\n * Dataset Summary\n * Source Data\n- Dataset Metadata\n\n- Licensing Information\n\n---",
"### Dataset Description",
"#### Dataset Summary\n\nThis dataset comprises data extracted from GitHub repositories, specifically focusing on Swift code. It was extracted using Google BigQuery and contains detailed information such as the repository name, reference, path, and license.",
"#### Source Data\n\n- Initial Data Collection and Normalization\n\nThe data was collected from GitHub repositories using Google BigQuery. The dataset includes data from over 2.8 million open-source repositories. The data extraction process focused specifically on Swift files, identifying them using the '.swift' extension.\n\n- Who are the source data producers?\n\nDevelopers and contributors to open-source projects on GitHub.\n\n---",
"### Dataset Metadata\n\n- Data Curators: The data was curated using Google BigQuery.\n\n- Last Update: 22 Aug 2023\n\n- Dataset Creation Date: 20 May 2023\n\n---",
"### Licensing Information\n\nPlease note that this dataset is a collection of open-source repositories. Each repository or file might come with its own license. Always refer to the license field associated with each entry.\n\n---",
"### Feedback and Contributions\n\nWe welcome feedback and contributions. If you notice any issues with the dataset or would like your code remove, please raise an issue.\n\n---"
] |
[
"TAGS\n#task_categories-text-generation #language-code #code #codegeneration #swift #code completation #code generation #region-us \n",
"## GitHub Swift Repositories",
"### Table of Contents\n- Dataset Description\n * Dataset Summary\n * Source Data\n- Dataset Metadata\n\n- Licensing Information\n\n---",
"### Dataset Description",
"#### Dataset Summary\n\nThis dataset comprises data extracted from GitHub repositories, specifically focusing on Swift code. It was extracted using Google BigQuery and contains detailed information such as the repository name, reference, path, and license.",
"#### Source Data\n\n- Initial Data Collection and Normalization\n\nThe data was collected from GitHub repositories using Google BigQuery. The dataset includes data from over 2.8 million open-source repositories. The data extraction process focused specifically on Swift files, identifying them using the '.swift' extension.\n\n- Who are the source data producers?\n\nDevelopers and contributors to open-source projects on GitHub.\n\n---",
"### Dataset Metadata\n\n- Data Curators: The data was curated using Google BigQuery.\n\n- Last Update: 22 Aug 2023\n\n- Dataset Creation Date: 20 May 2023\n\n---",
"### Licensing Information\n\nPlease note that this dataset is a collection of open-source repositories. Each repository or file might come with its own license. Always refer to the license field associated with each entry.\n\n---",
"### Feedback and Contributions\n\nWe welcome feedback and contributions. If you notice any issues with the dataset or would like your code remove, please raise an issue.\n\n---"
] |
[
38,
8,
29,
5,
58,
97,
40,
48,
36
] |
[
"passage: TAGS\n#task_categories-text-generation #language-code #code #codegeneration #swift #code completation #code generation #region-us \n## GitHub Swift Repositories### Table of Contents\n- Dataset Description\n * Dataset Summary\n * Source Data\n- Dataset Metadata\n\n- Licensing Information\n\n---### Dataset Description#### Dataset Summary\n\nThis dataset comprises data extracted from GitHub repositories, specifically focusing on Swift code. It was extracted using Google BigQuery and contains detailed information such as the repository name, reference, path, and license.#### Source Data\n\n- Initial Data Collection and Normalization\n\nThe data was collected from GitHub repositories using Google BigQuery. The dataset includes data from over 2.8 million open-source repositories. The data extraction process focused specifically on Swift files, identifying them using the '.swift' extension.\n\n- Who are the source data producers?\n\nDevelopers and contributors to open-source projects on GitHub.\n\n---### Dataset Metadata\n\n- Data Curators: The data was curated using Google BigQuery.\n\n- Last Update: 22 Aug 2023\n\n- Dataset Creation Date: 20 May 2023\n\n---### Licensing Information\n\nPlease note that this dataset is a collection of open-source repositories. Each repository or file might come with its own license. Always refer to the license field associated with each entry.\n\n---### Feedback and Contributions\n\nWe welcome feedback and contributions. If you notice any issues with the dataset or would like your code remove, please raise an issue.\n\n---"
] |
c03031fa21ae4ad3861e8217cd486b12c57ba821
|
# Dataset Card for "HowFarAreYou_3DSpeakerTrain"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
BigSuperbPrivate/HowFarAreYou_3DSpeakerTrain_full
|
[
"region:us"
] |
2023-08-22T15:02:49+00:00
|
{"dataset_info": {"features": [{"name": "file", "dtype": "string"}, {"name": "audio", "dtype": "audio"}, {"name": "label", "dtype": "string"}, {"name": "instruction", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 10635609028.329079, "num_examples": 27002}, {"name": "validation", "num_bytes": 1267987126.6229205, "num_examples": 3001}], "download_size": 12590591786, "dataset_size": 11903596154.952}}
|
2023-08-22T16:55:45+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "HowFarAreYou_3DSpeakerTrain"
More Information needed
|
[
"# Dataset Card for \"HowFarAreYou_3DSpeakerTrain\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"HowFarAreYou_3DSpeakerTrain\"\n\nMore Information needed"
] |
[
6,
22
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"HowFarAreYou_3DSpeakerTrain\"\n\nMore Information needed"
] |
6ea56563f3e0b175b93ee47478600dac0664df61
|
# Robust *e*-NeRF Synthetic Event Dataset
<table style="display: block">
<tr>
<td><a href="https://wengflow.github.io/robust-e-nerf"><img src="https://img.shields.io/badge/Project_Page-black?style=for-the-badge" alt="Project Page"></a></td>
<td><a href="https://arxiv.org/abs/2309.08596"><img src="https://img.shields.io/badge/arXiv-black?style=for-the-badge" alt="arXiv"></a></td>
<td><a href="https://github.com/wengflow/robust-e-nerf"><img src="https://img.shields.io/badge/Code-black?style=for-the-badge" alt="Code"></a></td>
<td><a href="https://github.com/wengflow/rpg_esim"><img src="https://img.shields.io/badge/Simulator-black?style=for-the-badge" alt="Simulator"></a></td>
</tr>
</table>
<p align="center">
<img src="assets/dataset_easy.gif" alt="Easy" width=60%/>
<img src="assets/dataset_medium.gif" alt="Medium" width=60%/>
<img src="assets/dataset_hard.gif" alt="Hard" width=60%/>
</p>
This repository contains the synthetic event dataset used in [**Robust *e*-NeRF**](https://wengflow.github.io/robust-e-nerf) to study the collective effect of camera speed profile, contrast threshold variation and refractory period on the quality of NeRF reconstruction from a moving event camera. The dataset is simulated using an [improved version of ESIM](https://github.com/wengflow/rpg_esim) with three different camera configurations of increasing difficulty levels (*i.e.* *easy*, *medium* and *hard*) on seven Realistic Synthetic 360 scenes (adopted in the synthetic experiments of NeRF), resulting in a total of 21 sequence recordings. Please refer to the [Robust *e*-NeRF paper](https://arxiv.org/abs/2309.08596) for more details.
This synthetic event dataset allows for a retrospective comparison between event-based and image-based NeRF reconstruction methods, as the event sequences were simulated under highly similar conditions as the NeRF synthetic dataset. In particular, we adopt the same camera intrinsics and camera distance to the object at the origin. Furthermore, the event camera travels in a hemi-/spherical spiral motion about the object, thereby having a similar camera pose distribution for training. Apart from that, we also use the same test camera poses/views. Nonetheless, this new synthetic event dataset is not only specific to NeRF reconstruction, but also suitable for novel view synthesis, 3D reconstruction, localization and SLAM in general.
If you use this synthetic event dataset for your work, please cite:
```bibtex
@inproceedings{low2023_robust-e-nerf,
title = {Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion},
author = {Low, Weng Fei and Lee, Gim Hee},
booktitle = {Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV)},
year = {2023}
}
```
## Dataset Structure and Contents
This synthetic event dataset is organized first by scene, then by level of difficulty. Each sequence recording is given in the form of a [ROS bag](http://wiki.ros.org/rosbag) named `esim.bag`, with the following data streams:
| ROS Topic | Data | Publishing Rate (Hz) |
| :--- | :--- | :--- |
| `/cam0/events` | Events | - |
| `/cam0/pose` | Camera Pose | 1000 |
| `/imu` | IMU measurements with simulated noise | 1000 |
| `/cam0/image_raw` | RGB image | 250 |
| `/cam0/depthmap` | Depth map | 10 |
| `/cam0/optic_flow` | Optical flow map | 10 |
| `/cam0/camera_info` | Camera intrinsic and lens distortion parameters | 10
It is obtained by running the improved ESIM with the associated `esim.conf` configuration file, which references camera intrinsics configuration files `pinhole_mono_nodistort_f={1111, 1250}.yaml` and camera trajectory CSV files `{hemisphere, sphere}_spiral-rev=4[...].csv`.
The validation and test views of each scene are given in the `views/` folder, which is structured according to the NeRF synthetic dataset (except for the depth and normal maps). These views are rendered from the scene Blend-files, given in the `scenes/` folder. Specifically, we create a [Conda](https://docs.conda.io/en/latest/) environment with [Blender as a Python module](https://docs.blender.org/api/current/info_advanced_blender_as_bpy.html) installed, according to [these instructions](https://github.com/wengflow/rpg_esim#blender), to run the `bpy_render_views.py` Python script for rendering the evaluation views.
## Setup
1. Install [Git LFS](https://git-lfs.com/) according to the [official instructions](https://github.com/git-lfs/git-lfs?utm_source=gitlfs_site&utm_medium=installation_link&utm_campaign=gitlfs#installing).
2. Setup Git LFS for your user account with:
```bash
git lfs install
```
3. Clone this dataset repository into the desired destination directory with:
```bash
git lfs clone https://huggingface.co/datasets/wengflow/robust-e-nerf
```
4. To minimize disk usage, remove the `.git/` folder. However, this would complicate the pulling of changes in this upstream dataset repository.
|
wengflow/robust-e-nerf
|
[
"size_categories:n<1K",
"license:cc-by-4.0",
"arxiv:2309.08596",
"region:us"
] |
2023-08-22T15:12:56+00:00
|
{"license": "cc-by-4.0", "size_categories": ["n<1K"], "paperswithcode_id": "robust-e-nerf-synthetic-event-dataset", "pretty_name": "Robust e-NeRF", "viewer": false}
|
2023-09-18T08:42:24+00:00
|
[
"2309.08596"
] |
[] |
TAGS
#size_categories-n<1K #license-cc-by-4.0 #arxiv-2309.08596 #region-us
|
Robust *e*-NeRF Synthetic Event Dataset
=======================================
| | | | |
| --- | --- | --- | --- |
| | | | |



This repository contains the synthetic event dataset used in Robust *e*-NeRF to study the collective effect of camera speed profile, contrast threshold variation and refractory period on the quality of NeRF reconstruction from a moving event camera. The dataset is simulated using an improved version of ESIM with three different camera configurations of increasing difficulty levels (*i.e.* *easy*, *medium* and *hard*) on seven Realistic Synthetic 360 scenes (adopted in the synthetic experiments of NeRF), resulting in a total of 21 sequence recordings. Please refer to the Robust *e*-NeRF paper for more details.
This synthetic event dataset allows for a retrospective comparison between event-based and image-based NeRF reconstruction methods, as the event sequences were simulated under highly similar conditions as the NeRF synthetic dataset. In particular, we adopt the same camera intrinsics and camera distance to the object at the origin. Furthermore, the event camera travels in a hemi-/spherical spiral motion about the object, thereby having a similar camera pose distribution for training. Apart from that, we also use the same test camera poses/views. Nonetheless, this new synthetic event dataset is not only specific to NeRF reconstruction, but also suitable for novel view synthesis, 3D reconstruction, localization and SLAM in general.
If you use this synthetic event dataset for your work, please cite:
Dataset Structure and Contents
------------------------------
This synthetic event dataset is organized first by scene, then by level of difficulty. Each sequence recording is given in the form of a ROS bag named 'URL', with the following data streams:
It is obtained by running the improved ESIM with the associated 'URL' configuration file, which references camera intrinsics configuration files 'pinhole\_mono\_nodistort\_f={1111, 1250}.yaml' and camera trajectory CSV files '{hemisphere, sphere}\_spiral-rev=4[...].csv'.
The validation and test views of each scene are given in the 'views/' folder, which is structured according to the NeRF synthetic dataset (except for the depth and normal maps). These views are rendered from the scene Blend-files, given in the 'scenes/' folder. Specifically, we create a Conda environment with Blender as a Python module installed, according to these instructions, to run the 'bpy\_render\_views.py' Python script for rendering the evaluation views.
Setup
-----
1. Install Git LFS according to the official instructions.
2. Setup Git LFS for your user account with:
3. Clone this dataset repository into the desired destination directory with:
4. To minimize disk usage, remove the '.git/' folder. However, this would complicate the pulling of changes in this upstream dataset repository.
|
[] |
[
"TAGS\n#size_categories-n<1K #license-cc-by-4.0 #arxiv-2309.08596 #region-us \n"
] |
[
34
] |
[
"passage: TAGS\n#size_categories-n<1K #license-cc-by-4.0 #arxiv-2309.08596 #region-us \n"
] |
b1dd536775669f2fdfc05e5d81752a996ea398fa
|
# Dataset Card for "guanaco-llama2-200"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
scwoods/guanaco-llama2-200
|
[
"region:us"
] |
2023-08-22T15:27:11+00:00
|
{"dataset_info": {"features": [{"name": "text", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 338808, "num_examples": 200}], "download_size": 201257, "dataset_size": 338808}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-22T15:27:15+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "guanaco-llama2-200"
More Information needed
|
[
"# Dataset Card for \"guanaco-llama2-200\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"guanaco-llama2-200\"\n\nMore Information needed"
] |
[
6,
18
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"guanaco-llama2-200\"\n\nMore Information needed"
] |
84d3e382a053451c45dd25bf407310f6f8372392
|
# Dataset of perth/パース (Kantai Collection)
This is the dataset of perth/パース (Kantai Collection), containing 433 images and their tags.
The core tags of this character are `blonde_hair, braid, purple_eyes, hair_bun, braided_bun, braided_bangs, breasts, short_hair`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 433 | 477.96 MiB | [Download](https://huggingface.co/datasets/CyberHarem/perth_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 433 | 283.66 MiB | [Download](https://huggingface.co/datasets/CyberHarem/perth_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 1043 | 627.29 MiB | [Download](https://huggingface.co/datasets/CyberHarem/perth_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 433 | 427.41 MiB | [Download](https://huggingface.co/datasets/CyberHarem/perth_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 1043 | 865.05 MiB | [Download](https://huggingface.co/datasets/CyberHarem/perth_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/perth_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 19 |  |  |  |  |  | 1girl, blue_necktie, green_vest, short_sleeves, solo, upper_body, white_shirt, dress_shirt, green_cape, cloak, looking_at_viewer, badge, hair_ribbon, school_uniform, simple_background, white_background, hair_between_eyes |
| 1 | 54 |  |  |  |  |  | 1girl, blue_necktie, blue_skirt, green_vest, plaid_skirt, pleated_skirt, school_uniform, white_shirt, dress_shirt, green_cape, short_sleeves, solo, badge, green_thighhighs, cloak, looking_at_viewer, cowboy_shot, white_background, simple_background |
| 2 | 7 |  |  |  |  |  | 1girl, alternate_costume, fake_animal_ears, playboy_bunny, rabbit_ears, solo, wrist_cuffs, detached_collar, strapless_leotard, cowboy_shot, large_breasts, rabbit_tail, cleavage, fake_tail, pantyhose, green_leotard, looking_at_viewer, necktie |
| 3 | 33 |  |  |  |  |  | 1girl, solo, white_hoodie, blue_skirt, hooded_sweater, long_sleeves, plaid_skirt, official_alternate_costume, pink_apron, pleated_skirt, looking_at_viewer, simple_background, white_background, blush, long_hair, thighhighs |
| 4 | 10 |  |  |  |  |  | 1girl, official_alternate_costume, solo, striped_bikini, simple_background, white_background, cowboy_shot, medium_breasts, navel, looking_at_viewer, blush, cleavage, hairclip, one-hour_drawing_challenge, sarong, collarbone, green_bikini, twitter_username |
| 5 | 5 |  |  |  |  |  | 1girl, cleavage, navel, outdoors, solo, striped_bikini, blue_sky, cloud, cowboy_shot, day, medium_breasts, blush, hairclip, looking_at_viewer, official_alternate_costume, collarbone, large_breasts, ocean, sarong, smile |
| 6 | 10 |  |  |  |  |  | 1girl, enmaided, frilled_apron, solo, white_apron, maid_headdress, black_dress, maid_apron, short_sleeves, blush, puffy_sleeves, waist_apron, cowboy_shot, large_breasts, looking_at_viewer, gloves, one-hour_drawing_challenge, simple_background |
| 7 | 6 |  |  |  |  |  | 1girl, blush, nude, solo_focus, 1boy, hair_ribbon, hetero, large_breasts, bangs, nipples, penis, simple_background, bar_censor, fellatio, hair_between_eyes, open_mouth, white_background |
| 8 | 5 |  |  |  |  |  | 1girl, green_kimono, print_kimono, alternate_costume, floral_print, long_hair, obi, wide_sleeves, blush, hair_flower, long_sleeves, food, hair_between_eyes, holding, large_breasts, open_mouth, solo_focus |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | blue_necktie | green_vest | short_sleeves | solo | upper_body | white_shirt | dress_shirt | green_cape | cloak | looking_at_viewer | badge | hair_ribbon | school_uniform | simple_background | white_background | hair_between_eyes | blue_skirt | plaid_skirt | pleated_skirt | green_thighhighs | cowboy_shot | alternate_costume | fake_animal_ears | playboy_bunny | rabbit_ears | wrist_cuffs | detached_collar | strapless_leotard | large_breasts | rabbit_tail | cleavage | fake_tail | pantyhose | green_leotard | necktie | white_hoodie | hooded_sweater | long_sleeves | official_alternate_costume | pink_apron | blush | long_hair | thighhighs | striped_bikini | medium_breasts | navel | hairclip | one-hour_drawing_challenge | sarong | collarbone | green_bikini | twitter_username | outdoors | blue_sky | cloud | day | ocean | smile | enmaided | frilled_apron | white_apron | maid_headdress | black_dress | maid_apron | puffy_sleeves | waist_apron | gloves | nude | solo_focus | 1boy | hetero | bangs | nipples | penis | bar_censor | fellatio | open_mouth | green_kimono | print_kimono | floral_print | obi | wide_sleeves | hair_flower | food | holding |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:---------------|:-------------|:----------------|:-------|:-------------|:--------------|:--------------|:-------------|:--------|:--------------------|:--------|:--------------|:-----------------|:--------------------|:-------------------|:--------------------|:-------------|:--------------|:----------------|:-------------------|:--------------|:--------------------|:-------------------|:----------------|:--------------|:--------------|:------------------|:--------------------|:----------------|:--------------|:-----------|:------------|:------------|:----------------|:----------|:---------------|:-----------------|:---------------|:-----------------------------|:-------------|:--------|:------------|:-------------|:-----------------|:-----------------|:--------|:-----------|:-----------------------------|:---------|:-------------|:---------------|:-------------------|:-----------|:-----------|:--------|:------|:--------|:--------|:-----------|:----------------|:--------------|:-----------------|:--------------|:-------------|:----------------|:--------------|:---------|:-------|:-------------|:-------|:---------|:--------|:----------|:--------|:-------------|:-----------|:-------------|:---------------|:---------------|:---------------|:------|:---------------|:--------------|:-------|:----------|
| 0 | 19 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 54 |  |  |  |  |  | X | X | X | X | X | | X | X | X | X | X | X | | X | X | X | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 7 |  |  |  |  |  | X | | | | X | | | | | | X | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 33 |  |  |  |  |  | X | | | | X | | | | | | X | | | | X | X | | X | X | X | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 10 |  |  |  |  |  | X | | | | X | | | | | | X | | | | X | X | | | | | | X | | | | | | | | | | X | | | | | | | | X | | X | | | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 5 |  |  |  |  |  | X | | | | X | | | | | | X | | | | | | | | | | | X | | | | | | | | X | | X | | | | | | | | X | | X | | | X | X | X | X | | X | X | | | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 6 | 10 |  |  |  |  |  | X | | | X | X | | | | | | X | | | | X | | | | | | | X | | | | | | | | X | | | | | | | | | | | | X | | | | | | | X | | | | | | | | | | | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | |
| 7 | 6 |  |  |  |  |  | X | | | | | | | | | | | | X | | X | X | X | | | | | | | | | | | | | X | | | | | | | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | | | | | | | | |
| 8 | 5 |  |  |  |  |  | X | | | | | | | | | | | | | | | | X | | | | | | X | | | | | | | X | | | | | | | | | X | | | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | X | | | | | | | | X | X | X | X | X | X | X | X | X |
|
CyberHarem/perth_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T15:37:53+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T20:01:39+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of perth/パース (Kantai Collection)
========================================
This is the dataset of perth/パース (Kantai Collection), containing 433 images and their tags.
The core tags of this character are 'blonde\_hair, braid, purple\_eyes, hair\_bun, braided\_bun, braided\_bangs, breasts, short\_hair', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
4ae74febe9ee394b40e0799f2efa06233499992f
|
# Dataset of ayanami/綾波 (Kantai Collection)
This is the dataset of ayanami/綾波 (Kantai Collection), containing 500 images and their tags.
The core tags of this character are `brown_hair, long_hair, side_ponytail, ribbon, brown_eyes, hair_ribbon`, which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by [DeepGHS Team](https://github.com/deepghs)([huggingface organization](https://huggingface.co/deepghs)).
## List of Packages
| Name | Images | Size | Download | Type | Description |
|:-----------------|---------:|:-----------|:--------------------------------------------------------------------------------------------------------------------------|:-----------|:---------------------------------------------------------------------|
| raw | 500 | 333.91 MiB | [Download](https://huggingface.co/datasets/CyberHarem/ayanami_kantaicollection/resolve/main/dataset-raw.zip) | Waifuc-Raw | Raw data with meta information (min edge aligned to 1400 if larger). |
| 800 | 500 | 247.60 MiB | [Download](https://huggingface.co/datasets/CyberHarem/ayanami_kantaicollection/resolve/main/dataset-800.zip) | IMG+TXT | dataset with the shorter side not exceeding 800 pixels. |
| stage3-p480-800 | 959 | 457.78 MiB | [Download](https://huggingface.co/datasets/CyberHarem/ayanami_kantaicollection/resolve/main/dataset-stage3-p480-800.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
| 1200 | 500 | 316.47 MiB | [Download](https://huggingface.co/datasets/CyberHarem/ayanami_kantaicollection/resolve/main/dataset-1200.zip) | IMG+TXT | dataset with the shorter side not exceeding 1200 pixels. |
| stage3-p480-1200 | 959 | 565.19 MiB | [Download](https://huggingface.co/datasets/CyberHarem/ayanami_kantaicollection/resolve/main/dataset-stage3-p480-1200.zip) | IMG+TXT | 3-stage cropped dataset with the area not less than 480x480 pixels. |
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for [waifuc](https://deepghs.github.io/waifuc/main/tutorials/installation/index.html) loading. If you need this, just run the following code
```python
import os
import zipfile
from huggingface_hub import hf_hub_download
from waifuc.source import LocalSource
# download raw archive file
zip_file = hf_hub_download(
repo_id='CyberHarem/ayanami_kantaicollection',
repo_type='dataset',
filename='dataset-raw.zip',
)
# extract files to your directory
dataset_dir = 'dataset_dir'
os.makedirs(dataset_dir, exist_ok=True)
with zipfile.ZipFile(zip_file, 'r') as zf:
zf.extractall(dataset_dir)
# load the dataset with waifuc
source = LocalSource(dataset_dir)
for item in source:
print(item.image, item.meta['filename'], item.meta['tags'])
```
## List of Clusters
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | Tags |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 0 | 20 |  |  |  |  |  | 1girl, serafuku, simple_background, solo, upper_body, white_background, smile, looking_at_viewer, black_sailor_collar, open_mouth, short_sleeves, blush, closed_eyes |
| 1 | 5 |  |  |  |  |  | 1girl, black_sailor_collar, black_skirt, pleated_skirt, serafuku, simple_background, solo, looking_at_viewer, short_sleeves, white_background, brown_skirt, character_name, cowboy_shot, open_mouth, smile, upper_body |
| 2 | 13 |  |  |  |  |  | 1girl, pleated_skirt, serafuku, solo, black_sailor_collar, black_skirt, looking_at_viewer, cowboy_shot, one-hour_drawing_challenge, open_mouth, twitter_username, simple_background, smile, very_long_hair, white_background, two-tone_background |
| 3 | 5 |  |  |  |  |  | 1girl, black_skirt, blue_sky, cloud, day, looking_at_viewer, open_mouth, pleated_skirt, serafuku, short_sleeves, smile, solo, black_sailor_collar, outdoors, very_long_hair, anchor_symbol, cowboy_shot, blush, green_eyes, holding, ocean, upper_teeth_only |
| 4 | 8 |  |  |  |  |  | 1girl, looking_at_viewer, solo, small_breasts, navel, blush, cowboy_shot, front-tie_top, smile, open_mouth, side-tie_bikini_bottom, simple_background, white_background, black_bikini, twitter_username, very_long_hair |
| 5 | 21 |  |  |  |  |  | 1girl, solo, smile, looking_at_viewer, obi, yukata, blue_kimono, alternate_costume, floral_print, holding, open_mouth, blush, green_eyes, paper_fan, very_long_hair |
| 6 | 6 |  |  |  |  |  | 1girl, looking_at_viewer, school_swimsuit, solo, smile, open_mouth, white_one-piece_swimsuit |
| 7 | 5 |  |  |  |  |  | 1girl, blush, nipples, nude, open_mouth, small_breasts, 1boy, hetero, sex, solo_focus, sweat, collarbone, mosaic_censoring, penis, pussy, simple_background, tears, vaginal, wavy_mouth, bangs, black_background, black_ribbon, heart, looking_at_viewer, navel, spread_legs, very_long_hair |
| 8 | 5 |  |  |  |  |  | 1girl, alternate_costume, full_body, simple_background, solo, smile, sneakers, standing, white_background, white_shirt, bag, dress, long_sleeves, looking_at_viewer, open_mouth, pants, very_long_hair, white_footwear |
| 9 | 8 |  |  |  |  |  | detached_collar, fake_animal_ears, playboy_bunny, rabbit_ears, looking_at_viewer, simple_background, small_breasts, strapless_leotard, wrist_cuffs, 1girl, open_mouth, solo, black_leotard, blush, white_background, alternate_costume, black_pantyhose, cowboy_shot, kneeling, rabbit_tail, red_bowtie, smile, twitter_username, very_long_hair, white_leotard |
### Table Version
| # | Samples | Img-1 | Img-2 | Img-3 | Img-4 | Img-5 | 1girl | serafuku | simple_background | solo | upper_body | white_background | smile | looking_at_viewer | black_sailor_collar | open_mouth | short_sleeves | blush | closed_eyes | black_skirt | pleated_skirt | brown_skirt | character_name | cowboy_shot | one-hour_drawing_challenge | twitter_username | very_long_hair | two-tone_background | blue_sky | cloud | day | outdoors | anchor_symbol | green_eyes | holding | ocean | upper_teeth_only | small_breasts | navel | front-tie_top | side-tie_bikini_bottom | black_bikini | obi | yukata | blue_kimono | alternate_costume | floral_print | paper_fan | school_swimsuit | white_one-piece_swimsuit | nipples | nude | 1boy | hetero | sex | solo_focus | sweat | collarbone | mosaic_censoring | penis | pussy | tears | vaginal | wavy_mouth | bangs | black_background | black_ribbon | heart | spread_legs | full_body | sneakers | standing | white_shirt | bag | dress | long_sleeves | pants | white_footwear | detached_collar | fake_animal_ears | playboy_bunny | rabbit_ears | strapless_leotard | wrist_cuffs | black_leotard | black_pantyhose | kneeling | rabbit_tail | red_bowtie | white_leotard |
|----:|----------:|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------------------------------|:--------|:-----------|:--------------------|:-------|:-------------|:-------------------|:--------|:--------------------|:----------------------|:-------------|:----------------|:--------|:--------------|:--------------|:----------------|:--------------|:-----------------|:--------------|:-----------------------------|:-------------------|:-----------------|:----------------------|:-----------|:--------|:------|:-----------|:----------------|:-------------|:----------|:--------|:-------------------|:----------------|:--------|:----------------|:-------------------------|:---------------|:------|:---------|:--------------|:--------------------|:---------------|:------------|:------------------|:---------------------------|:----------|:-------|:-------|:---------|:------|:-------------|:--------|:-------------|:-------------------|:--------|:--------|:--------|:----------|:-------------|:--------|:-------------------|:---------------|:--------|:--------------|:------------|:-----------|:-----------|:--------------|:------|:--------|:---------------|:--------|:-----------------|:------------------|:-------------------|:----------------|:--------------|:--------------------|:--------------|:----------------|:------------------|:-----------|:--------------|:-------------|:----------------|
| 0 | 20 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 1 | 5 |  |  |  |  |  | X | X | X | X | X | X | X | X | X | X | X | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 2 | 13 |  |  |  |  |  | X | X | X | X | | X | X | X | X | X | | | | X | X | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 3 | 5 |  |  |  |  |  | X | X | | X | | | X | X | X | X | X | X | | X | X | | | X | | | X | | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 4 | 8 |  |  |  |  |  | X | | X | X | | X | X | X | | X | | X | | | | | | X | | X | X | | | | | | | | | | | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 5 | 21 |  |  |  |  |  | X | | | X | | | X | X | | X | | X | | | | | | | | | X | | | | | | | X | X | | | | | | | | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 6 | 6 |  |  |  |  |  | X | | | X | | | X | X | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
| 7 | 5 |  |  |  |  |  | X | | X | | | | | X | | X | | X | | | | | | | | | X | | | | | | | | | | | X | X | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | | | | | | | | | | |
| 8 | 5 |  |  |  |  |  | X | | X | X | | X | X | X | | X | | | | | | | | | | | X | | | | | | | | | | | | | | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | | | | | | | | | | | | |
| 9 | 8 |  |  |  |  |  | X | | X | X | | X | X | X | | X | | X | | | | | | X | | X | X | | | | | | | | | | | X | | | | | | | | X | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | X | X | X | X | X | X | X | X | X | X | X | X |
|
CyberHarem/ayanami_kantaicollection
|
[
"task_categories:text-to-image",
"size_categories:n<1K",
"license:mit",
"art",
"not-for-all-audiences",
"region:us"
] |
2023-08-22T16:00:04+00:00
|
{"license": "mit", "size_categories": ["n<1K"], "task_categories": ["text-to-image"], "tags": ["art", "not-for-all-audiences"]}
|
2024-01-15T10:28:21+00:00
|
[] |
[] |
TAGS
#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us
|
Dataset of ayanami/綾波 (Kantai Collection)
=========================================
This is the dataset of ayanami/綾波 (Kantai Collection), containing 500 images and their tags.
The core tags of this character are 'brown\_hair, long\_hair, side\_ponytail, ribbon, brown\_eyes, hair\_ribbon', which are pruned in this dataset.
Images are crawled from many sites (e.g. danbooru, pixiv, zerochan ...), the auto-crawling system is powered by DeepGHS Team(huggingface organization).
List of Packages
----------------
### Load Raw Dataset with Waifuc
We provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code
List of Clusters
----------------
List of tag clustering result, maybe some outfits can be mined here.
### Raw Text Version
### Table Version
|
[
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
"TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n",
"### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.",
"### Raw Text Version",
"### Table Version"
] |
[
44,
61,
5,
4
] |
[
"passage: TAGS\n#task_categories-text-to-image #size_categories-n<1K #license-mit #art #not-for-all-audiences #region-us \n### Load Raw Dataset with Waifuc\n\n\nWe provide raw dataset (including tagged images) for waifuc loading. If you need this, just run the following code\n\n\nList of Clusters\n----------------\n\n\nList of tag clustering result, maybe some outfits can be mined here.### Raw Text Version### Table Version"
] |
9d10134b59951ca9201a198f31fd31b0d93086af
|
# Dataset Card for "deepfashion_bl2"
[More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
|
ohicarip/deepfashion_bl2
|
[
"region:us"
] |
2023-08-22T16:08:51+00:00
|
{"dataset_info": {"features": [{"name": "image", "dtype": "image"}, {"name": "text", "dtype": "string"}], "splits": [{"name": "train", "num_bytes": 4518429847.744, "num_examples": 34032}], "download_size": 5304374988, "dataset_size": 4518429847.744}, "configs": [{"config_name": "default", "data_files": [{"split": "train", "path": "data/train-*"}]}]}
|
2023-08-22T16:16:20+00:00
|
[] |
[] |
TAGS
#region-us
|
# Dataset Card for "deepfashion_bl2"
More Information needed
|
[
"# Dataset Card for \"deepfashion_bl2\"\n\nMore Information needed"
] |
[
"TAGS\n#region-us \n",
"# Dataset Card for \"deepfashion_bl2\"\n\nMore Information needed"
] |
[
6,
15
] |
[
"passage: TAGS\n#region-us \n# Dataset Card for \"deepfashion_bl2\"\n\nMore Information needed"
] |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.