Le code source d’AlexNet de 2012, pionnier de l’IA moderne, désormais disponible sur Github grâce à Google et au Computer History Museum.

L’intelligence artificielle (IA) transforme le paysage technologique, ayant ses origines dans les années 1950. L’essor de l’IA moderne a été catalysé par AlexNet en 2012, un système de reconnaissance d’images révolutionnaire. Son développement a été soutenu par l’amélioration des données massives et de la puissance de calcul. Aujourd’hui, les réseaux neuronaux sont fondamentaux dans divers domaines, et le code d’AlexNet, récemment rendu public, permet une exploration approfondie de cette avancée majeure.

L’IA : Une Révolution Technologique en Cours

L’intelligence artificielle (IA) s’impose comme l’un des courants de pensée les plus influents et omniprésents dans le domaine technologique. Il est désormais difficile d’effectuer une recherche en ligne sans être bombardé d’annonces concernant des produits liés à l’IA, y compris des outils qui nécessitent des autorisations pour contrôler nos appareils. Alors que l’IA pourrait se retrouver dans chaque aspect de notre vie d’ici 2025, les réseaux neuronaux qui en sont à l’origine ont des racines qui remontent à plusieurs décennies. En effet, l’exploration de ces concepts a commencé dans les années 1950, mais c’est en 2012 que l’IA a véritablement pris son envol avec AlexNet, un système de reconnaissance d’images qui a récemment été mis à disposition en open source.

Les Fondements et l’Évolution de l’IA

Au fil des ans, diverses interprétations de l’IA ont émergé, généralement en référence à des machines capables d’apprentissage autonome. Bien que ce concept ait été popularisé par des auteurs de science-fiction dès le XIXe siècle, il n’est pas encore pleinement réalisé. Aujourd’hui, le terme « IA » désigne souvent des modèles linguistiques et des algorithmes d’apprentissage automatique, qui diffèrent de la pensée indépendante d’une machine. Cette approche d’apprentissage profond consiste principalement à alimenter les ordinateurs avec d’énormes ensembles de données pour les entraîner à réaliser des tâches spécifiques.

Le concept d’apprentissage profond n’est pas nouveau non plus. Dans les années 1950, des pionniers comme Frank Rosenblatt à Cornell ont déjà développé des réseaux neuronaux simplifiés, mais la technologie de l’époque ne permettait pas leur pleine réalisation. Ce n’est qu’à partir des années 1980 que l’apprentissage automatique a commencé à faire un retour significatif.

En 1986, une équipe composée de Geoffrey Hinton, David Rumelhart et Ronald J. Williams a partagé un article sur la rétropropagation, un algorithme permettant d’ajuster les poids des réponses d’un réseau neuronal selon le coût. Bien que l’idée ait été évoquée auparavant, leur succès a permis de populariser cette méthode. La rétropropagation, qui repose sur des principes mathématiques datant de Leibniz, a été difficile à mettre en œuvre jusqu’à ce qu’une avancée technologique le permette.

Malgré des résultats encourageants, la technologie de l’époque manquait de la vitesse nécessaire pour rendre l’apprentissage profond viable. La clé pour faire avancer l’IA à son niveau actuel a été l’accès à des quantités massives de données et à une puissance de calcul élevée.

En 2006, la professeure Fei-Fei Li de l’Université de Stanford a lancé la création d’ImageNet, une base de données ambitieuse contenant une image pour chaque mot anglais. Avec l’aide de ses étudiants, elle a collecté et classé des millions de photographies, travaillant avec WordNet pour identifier les images. Ce projet monumental a nécessité l’intervention de freelances pour être achevé, et en 2009, ImageNet était devenu le plus grand ensemble de données de son genre.

En parallèle, Nvidia développait le système de programmation CUDA pour ses GPU. Cette technologie a permis aux chercheurs d’utiliser ces puissantes puces pour des applications au-delà des simples graphiques, facilitant ainsi l’implémentation de réseaux neuronaux dans divers domaines, y compris la reconnaissance vocale.

En 2011, deux étudiants de Geoffrey Hinton, Ilya Sutskever et Alex Krizhevsky, ont commencé à travailler sur AlexNet. Sutskever, convaincu du potentiel de leur projet, a persuadé Krizhevsky d’utiliser ses compétences en optimisation GPU pour entraîner le réseau neuronal. Hinton, agissant comme conseiller principal, a vu leur travail aboutir à la publication d’un article en 2012, présenté lors d’une conférence en vision par ordinateur.

Hinton a résumé leur collaboration en ces termes : « Ilya a pensé que nous devrions le faire, Alex a rendu cela possible, et j’ai reçu le prix Nobel. » À l’époque, AlexNet n’a pas suscité beaucoup d’attention, mais il a redéfini le paysage de l’IA moderne. Avant son avènement, les réseaux neuronaux n’étaient pas courants ; aujourd’hui, ils constituent la base de presque tous les systèmes d’IA, des robots aux dispositifs innovants. À mesure que la puissance des ordinateurs continue d’augmenter, nous ne faisons qu’effleurer la surface de ce qui est possible.

Étant donné l’impact monumental d’AlexNet sur l’IA, la mise à disposition de son code source est non seulement un geste de transparence, mais également une opportunité pour tous de l’explorer. Le Computer History Museum a collaboré avec Alex Krizhevsky et Geoffrey Hinton pour garantir que cette information soit partagée de manière équitable et légale. Le code source, désormais accessible sur Github, est décrit comme la version d’AlexNet telle qu’elle était en 2012, et représente un jalon fascinant dans l’évolution de l’intelligence artificielle.