Gaz neuronal

Le gaz neuronal[1],[2] est un réseau de neurones artificiel, inspiré des cartes autoadaptatives, et introduites en 1991 par Thomas Martinetz et Klaus Schulten[3].Le gaz neuronal est un algorithme simple pour trouver une représentation optimale de données à partir de vecteurs principaux. La méthode fut appelée "gaz neuronal" parce que l'évolution des vecteurs principaux durant l'étape d'apprentissage fait penser à un gaz qui occupe un espace de façon uniforme.

Cet algorithme est appliqué à la compression de données ou à la quantification vectorielle, par exemple en reconnaissance des langues naturelles[4], en traitement d'images[5] ou à la reconnaissance de motifs.En tant qu'alternative robuste et convergente à l'algorithme K-moyennes, il peut être utilisé pour le partitionnement de données[6].

Algorithme

Soit une distribution de probabilité P(x) sur des vecteurs x (les données), et un nombre fini de vecteurs principaux wi, i=1, ..., N.

À chaque étape de temps t (discret), un vecteur d'entrée x est tiré aléatoirement selon la loi P, afin d'être présenté à l'algorithme. Ensuite, les vecteurs principaux sont classés du plus proche au plus lointain de ce vecteur x : i0 sera l'indice du vecteur principal le plus proche de x, i1 l'indice du second plus proche, etc, et iN-1 représente l'indice du vecteur principal le plus éloigné de x. Enfin, chaque vecteur principal (k = 0, ..., N-1) est adapté selon la règle, dépendante de k, que voici :

avec ε le taux d'adaptation, et λ la taille du voisinage. Pour assurer la convergence, il est nécessaire que ε et λ soit décroissant en fonction de t (ie. décroisse quand t augmente). Après un nombre suffisant d'étapes d'adaptation, les vecteurs principaux recouvrent (et représentent) l'espace de données avec une erreur de représentation minimum (ou presque minimale).

L'étape d'adaptation présente dans l'algorithme de gaz neuronal peut être interprétée comme une descente de gradient d'une fonction de coût. En adaptant tous les vecteurs, et pas seulement le plus proche des vecteurs principaux, avec un taux d'adaptation inversement proportionnel à la distance avec le vecteur x, l'algorithme parvient à obtenir une convergence bien plus robuste que son alternative, l'algorithme des K-moyennes (même sa version en temps réel).

On peut remarquer que le modèle de gaz neuronal ne supprime jamais de nœud, mais n'en ajoute jamais non plus.

Notes et références

« La deuxième exploite un algorithme de gaz neuronal croissant basé sur l'étiquetage des clusters par maximisation de vraisemblance (IGNGF - Incremental Growing Neural Gas with Feature maximisation) »
  • (en) Thomas Martinetz et Klaus Schulten, « A "neural gas" network learns topologies », dans T. Kohonen, K. Mäkisara, O.Simula et J. Kangas (éds.), Artificial Neural Networks, Elsevier, (lire en ligne), p. 397–402
  • (en) F. Curatelli et O. Mayora-Iberra « Competitive learning methods for efficient Vector Quantizations in a speech recognition environment » () (DOI 10.1007/10720076_10, S2CID 18669123)
    « (ibid.) », dans Osvaldo Cairó, L. Enrique Sucar, Francisco J. Cantú-Ortiz, MICAI 2000: Advances in artificial intelligence : Mexican International Conference on Artificial Intelligence, Acapulco, Mexico, April 2000 : proceedings, Springer (ISBN 978-3-540-67354-5), p. 109
  • (en) Anastassia Angelopoulou, Psarrou, Jose Garcia Rodriguez et Kenneth Revett « Automatic landmarking of 2D medical shapes using the growing neural gas network » (DOI 10.1007/11569541_22, lire en ligne)
    « (ibid.) », dans Yanxi Liu, Tianzi Jiang, Changshui Zhang (éds.), Computer vision for biomedical image applications: first international workshop, CVBIA 2005, Beijing, China, October 21, 2005 : proceedings, Springer (ISBN 978-3-540-29411-5), p. 210
  • (en) Fernando Canales et Max Chacon « Modification of the growing neural gas algorithm for cluster analysis » (DOI 10.1007/978-3-540-76725-1_71, lire en ligne)
    « (ibid.) », dans Luis Rueda, Domingo Mery, Josef Kittler, International Association for Pattern Recognition, Progress in pattern recognition, image analysis and applications: 12th Iberoamerican Congress on Pattern Recognition, CIARP 2007, Viña del Mar-Valparaiso, Chile, November 13–16, 2007 ; proceedings, Springer (ISBN 978-3-540-76724-4), p. 684–693
  • Voir aussi

    Lectures additionnelles

    • (en) T. Martinetz, S. Berkovich et K. Schulten, « "Neural-gas" Network for Vector Quantization and its Application to Time-Series Prediction », IEEE-Transactions on Neural Networks, vol. 4, no 4,‎ , p. 558-569.
    • (en) T. Martinetz et K. Schulten, « Topology representing networks », Neural Networks, vol. 7, no 3,‎ , p. 507-522.

    Articles connexes

    Liens externes

    • DemoGNG est un applet Java illustrant les algorithmes de gaz neuronal, de gaz neuronal croissant, ainsi que les cartes auto-adaptative et d'autres méthodes liées à l'apprentissage efficace.
    • (en) « Neural gas », Algorithme de gaz neuronal (version du sur Internet Archive).
    🔥 Top keywords: Cookie (informatique)Wikipédia:Accueil principalShannen DohertyLamine YamalRobin Le NormandChampionnat d'Europe de footballSpécial:RechercheFête nationale françaiseNico WilliamsCarlos Alcaraz (tennis)Huguette BelloAymeric LaporteDonald TrumpLuke PerryCarlos AlcarazÉquipe d'Espagne de footballAR-15Équipe d'Angleterre de footballNovak DjokovicChampionnat d'Europe de football 2024Álvaro MorataFluctuat nec mergiturTentative d'assassinat de Donald Trump en 2024Tadej PogačarLe Comte de Monte-CristoHarry KaneDani OlmoPrise de la BastilleLa Baule-les-Pins (film)Melanie GriffithLuis de la Fuente (football, 1961)Working GirlDani CarvajalJude BellinghamFrançois LetexierIñaki WilliamsRenaud CapuçonCole PalmerChampionnat d'Europe de football 2020