File size: 4,724 Bytes
59ce86f
 
 
 
 
 
 
 
 
 
b74aa56
 
 
 
 
 
 
 
 
 
59ce86f
 
3d2429f
59ce86f
 
b74aa56
 
 
59ce86f
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b74aa56
6df6dc5
 
 
59ce86f
 
 
 
 
3d2429f
59ce86f
 
 
 
cf79c80
 
ab81902
 
 
 
 
 
 
 
 
 
 
cf79c80
59ce86f
 
cf79c80
 
ab81902
 
 
 
 
 
 
cf79c80
59ce86f
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
---
language:
- fr
license: cc-by-sa-4.0
size_categories:
- 10K<n<100K
task_categories:
- token-classification
tags:
- pos
- DFP
- french prompts
annotations_creators:
- found
language_creators:
- found
multilinguality:
- monolingual
source_datasets:
- universal_dependencies_fr_spoken
---

# universal_dependencies_fr_spoken_fr_prompt_pos
## Summary

**universal_dependencies_fr_spoken_fr_prompt_pos** is a subset of the [**Dataset of French Prompts (DFP)**](https://huggingface.co/datasets/CATIE-AQ/DFP).  
It contains **58,926** rows that can be used for a part-of-speech task.  
The original data (without prompts) comes from the dataset [universal_dependencies](https://huggingface.co/datasets/universal_dependencies) where only the French spoken split has been kept.  
A list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the [xP3](https://huggingface.co/datasets/bigscience/xP3) dataset by Muennighoff et al.


## Prompts used
### List
21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.

```
'Extraire les classes des mots du texte suivant : '+text,  
'Extrais les classes des mots du texte suivant : '+text,  
'Extrayez les classes des mots du texte suivant : '+text,  
'Isoler les classes des mots du texte suivant : '+text,  
'Isole les classes des mots du texte suivant : '+text,  
'Isolez les classes des mots du texte suivant : '+text,  
'Dégager les classes des mots dans le texte : '+text,  
'Dégage les classes des mots dans le texte : '+text,  
'Dégagez les classes des mots dans le texte : '+text,  
'Générer les classes des mots issues du texte suivant : '+text,  
'Génère les classes des mots issues du texte suivant : '+text,  
'Générez les classes des mots issues du texte suivant : '+text,  
'Trouver les classes des mots du texte : '+text,  
'Trouve les classes des mots du texte : '+text,  
'Trouvez les classes des mots du texte : '+text,  
'Repérer les classes des mots présentes dans le texte suivant : '+text,  
'Repère les classes des mots présentes dans le texte suivant : '+text,  
'Repérez les classes des mots présentes dans le texte suivant : '+text,  
'Indiquer les classes des mots du texte :'+text,  
'Indique les classes des mots du texte : '+text,  
'Indiquez les classes des mots du texte : '+text
```

### Features used in the prompts
In the prompt list above, `text` and `targets` have been constructed from:
```
fr_spoken = load_dataset('universal_dependencies', 'fr_spoken')  
# text
fr_spoken['train']['tokens'] = list(map(lambda i: ' '.join(fr_spoken['train']['tokens'][i]), range(len(fr_spoken['train']['tokens']))))
# targets
fr_spoken['train']['upos'] = list(map(lambda x: x.replace("[","").replace("]","").replace('17','AUX').replace('16','VERB').replace('15','INTJ').replace('14','ADV').replace('13','_').replace('12','X').replace('11','PRON').replace('10','PROPN').replace('9','CCONJ').replace('8','DET').replace('7','PART').replace('6','ADJ').replace('5','SCONJ').replace('4','SYM').replace('3','NUM').replace('2','ADP').replace('1','PUNCT').replace('0','NOUN'), map(str,fr_spoken['train']['upos'])))
```



# Splits
- `train` with 24,507 samples
- `valid` with 19,089 samples
- `test` with 15,330 samples



# How to use?
```
from datasets import load_dataset
dataset = load_dataset("CATIE-AQ/universal_dependencies_fr_spoken_fr_prompt_pos")
```

# Citation
## Original data
```
@inproceedings{nivre-etal-2020-universal,  
    title = "{U}niversal {D}ependencies v2: An Evergrowing Multilingual Treebank Collection",  
    author = "Nivre, Joakim and de Marneffe, Marie-Catherine and Ginter, Filip  and Haji{\v{c}}, Jan  and Manning, Christopher D.  and Pyysalo, Sampo  and Schuster, Sebastian  and Tyers, Francis  and Zeman, Daniel",  
    booktitle = "Proceedings of the Twelfth Language Resources and Evaluation Conference",  
    month = may,  
    year = "2020",  
    address = "Marseille, France",  
    publisher = "European Language Resources Association",  
    url = "https://aclanthology.org/2020.lrec-1.497",  
    pages = "4034--4043",  
    language = "English",  
    ISBN = "979-10-95546-34-4",}
```

## This Dataset
```
@misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023,  
	author       = { {Centre Aquitain des Technologies de l'Information et Electroniques} },  
	title        = { DFP (Revision 1d24c09) },  
	year         = 2023,  
	url          = { https://huggingface.co/datasets/CATIE-AQ/DFP },  
	doi          = { 10.57967/hf/1200 },  
	publisher    = { Hugging Face }  
}
```


## License
CC BY-SA 4.0