en
en

Question du test Natural Language Processing - Les bases

La tokenisation est le processus de séparation du texte en mots ou groupes de mots.

Très facile

Qu'est-ce que la tokenisation ?

Auteur: ConstantinStatut : PubliéeQuestion passée 528 fois
Modifier
3
Évaluations de la communauté
developer avatar
Réponse incorrecte
Auteur anonyme
05/01/2025
Il existe des tokens qui sont plus petits qu’un seul mot
developer avatar
Ambiguë
Auteur anonyme
25/07/2024
Un token n'est pas forcement un mot ou un groupe de mot
developer avatar
Dragon parfait
30/07/2024
OK