Press "Enter" to skip to content

Word embedding

(“plongement de mots” en français) technique, utilisée en traitement du langage naturel, consistant à placer un ensemble de mots dans un espace ayant un grand nombre de dimensions (chaque mot étant alors représenté par son vecteur de coordonnées dans cet espace). L’idée est d’exploiter ensuite cet espace pour trouver des relations entre ces mots (par exemple en considérant les mots proches dans cet espace comme proches sémantiquement).