Encyclosphere.org ENCYCLOREADER
  supported by EncyclosphereKSF

Attention (apprentissage automatique)

From Wikipedia (Fr) - Reading time: 3 min


L'attention, en apprentissage automatique, est une méthode consistant à déterminer l'importance relative de chaque élément au sein d'une séquence. Ainsi, par exemple en traitement automatique des langues, cette attention est représentée par des coefficients attribués à chaque mot d'une phrase en fonction de son importance dans la phrase[1]. L'attention s'applique plus généralement à une séquence de vecteurs (plongement lexical par exemple) de longueur arbitraire.

Contrairement à des paramètres qui seraient déterminés lors de la phase d'apprentissage puis fixés lors de l'utilisation (par exemple dans un réseau de neurones à action directe), les coefficients attribués par l'attention sont calculés en fonction de l'entrée et vont donc varier en fonction des valeurs d'entrée. Ces poids peuvent être calculés séquentiellement comme dans les réseaux de neurones récurrents (RNN), ou plus récemment en parallèle comme dans les transformeurs[2],[3].

Le mécanisme d'attention des transformeurs a en particulier été conçu pour remédier aux faiblesses liées aux RNN. Dans un RNN, chaque mot hérite d'une partie de l'information du mot précédent, qui lui même hérite d'une partie de l'information du mot précédent.Ainsi, l'information récupérée d'un mot décroît exponentiellement avec le nombre de mots qui le sépare du mot actuel. Ce qui fait que ces réseaux n'ont qu'une mémoire à relativement court terme. À l'inverse, l'attention, telle qu'implémentée dans les transformeurs, permet de combiner directement l'information à différents endroits du texte.

Références

[modifier | modifier le code]
  1. R. N. Rathi et A. Mustafi, « The importance of Term Weighting in semantic understanding of text: A review of techniques », Multimedia Tools and Applications, vol. 82, no 7,‎ , p. 9761–9783 (ISSN 1380-7501, PMID 35437420, PMCID 9007265, DOI 10.1007/s11042-022-12538-3, lire en ligne, consulté le )
  2. Ashish Vaswani, Noam Shazeer, Niki Parmar et Jakob Uszkoreit, Attention Is All You Need, (DOI 10.48550/arXiv.1706.03762, lire en ligne)
  3. Aayush Mittal, « Attention : révolutionner l'efficacité des transformateurs », sur Unite.AI, (consulté le )

Licensed under CC BY-SA 3.0 | Source: https://fr.wikipedia.org/wiki/Attention_(apprentissage_automatique)
12 views | Status: cached on July 19 2025 05:11:18
↧ Download this article as ZWI file
Encyclosphere.org EncycloReader is supported by the EncyclosphereKSF