Ingénieur·e·s et Intelligence Artificielle

Ingénieur·e·s et Intelligence Artificielle 

L’Intelligence artificielle : un sujet à la mode qui semble capable de résoudre tous les problèmes, même en ingénierie ! 

L’IA n’est pas à proprement parler une technologie nouvelle. Dès la fin des années 40, Alan Turing, brillant mathématicien britannique dont les travaux pendant la seconde Guerre Mondiale pour décrypter les codes allemands sont aux fondements de l’informatique, se posait la question de savoir si une machine pouvait ‘‘penser’’ et proposait le Test de Turing pour le valider. Ces travaux seront repris par John McCarthy et Marvin Lee Minsky au sein du Groupe d’Intelligence Artificielle du MIT, et déboucheront dès 1958 sur le langage de programmation Lisp, qui servira de base de développement aux nombreuses recherches menées sur l’IA pendant des décennies.

Depuis, l’IA s’est diffusée dans de multiples applications, aussi bien dans la recherche que dans l’industrie. La plupart des entreprises en ont fait priorité et investissent massivement dans ce domaine. 

Nombreuses sont les définitions données à l’intelligence artificielle. Marvin Lee Minsky, l’un de ses créateurs, la définit comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». Le Parlement européen, quant à lui, la définit comme « la possibilité pour une machine de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». Ces définitions pourraient être élargies en incluant les comportements dépassant les capacités humaines, puisque les ordinateurs actuels parviennent aujourd’hui à les surpasser dans certaines tâches comme :  

  • La vision : En 2015, lors de la compétition annuelle ImageNet, qui teste la reconnaissance des images, les machines ont surpassé l’acuité humaine. 
  • La perception du langage : Certains systèmes développés par Micrososft, IBM ou Google comprennent désormais plus de 90 % des phrases, y compris celles dont la longueur est supérieure à 40 mots. Leur capacité à entendre à partir d’un appel téléphonique égale désormais l’homme.
  •  Les jeux : Après la célèbre victoire d’AlphaGo de Google DeepMind sur le champion coréen de go Lee Sedol en mars 2016, c’est le tour du poker en janvier 2017, où Libratus, un programme développé à l’université Carnegie-Mellon de Pittsburgh, a vaincu certains des meilleurs joueurs de poker du monde. 

Aujourd’hui, l’intelligence artificielle est exploitable dans la plupart des fonctions, entreprises et secteurs d’activité. L’implémentation de ces nouvelles technologies nécessite donc en parallèle des ressources humaines importantes. En effet, une étude publiée par LinkedIn en 2020 montre que les compétences en intelligence artificielle sont particulièrement recherchées par les entreprises et ont connu une augmentation des recrutements de 40% cette même année. 

En partant de ce constat, on peut se demander comment s’adapter, en tant qu’ingénieur, comment s’adapter à cette nouvelle révolution technologique, et comment trouver notre place dans ce secteur en pleine croissance ? 

Interview de Monsieur Adrien Chan Hon Tong (ONERA)

Pour nous éclairer sur ces questions, l’équipe du Paraxial a fait appel à Monsieur Adrien Chan Hon Tong, ingénieur chercheur à l’ONERA et enseignant du cours ‘Apprentissage et reconnaissance des formes’ en 3ème année à SupOptique (parcours Signal et Image). 

Adrien Chan Hon Tong : Bonjour, merci pour votre invitation. J’ai étudié à l’école Polytechnique puis j’ai fait une thèse au CEA sur de l’apprentissage, suivie par une embauche à l’ONERA. 

ACHT : Mon travail varie fortement en fonction des projets. L’ONERA est un EPIC (Unité Élaborations et Procédés d’Imagerie et de Contrôle) et pas un EPST comme l’INRIA (Etablissement Public National à caractère Scientifique et Technologique) : l’état ne couvre que 50% des salaires des employés, il faut donc trouver les 50% restant dans des contrats à l’extérieur. Ainsi nous n’avons pas le luxe de refuser certains projets même s’ils modifient fortement notre activité. Parfois, le projet consiste à industrialiser des codes de l’état de l’art à partir des publications/github associés, parfois il s’agit de recherche plus amont sur, par exemple, le couplage possible entre l’apprentissage par ordinateur et les modèles physiques développés par d’autres branches de l’ONERA, notamment la mécanique des fluides qui reste le cœur de métier de l’ONERA. 

ACHT : Je fais surtout de l’apprentissage par ordinateur qui consiste à réaliser via un ordinateur des tâches facilement réalisables par un humain mais mal posées. L’exemple le plus immédiat est la classification d’image : il est trivial pour un humain de dire si une image est une « image de chat » alors que toute définition formelle est vaine. Je ne me risquerai pas à essayer de définir l’IA en général. 

ACHT : La vision par ordinateur a été révolutionnée par l’arrivée de méthodes d’apprentissage massives : les approches où on essayait d’extraire « à la main » des bords ont été balayés. 

ACHT : Je ne pense pas que l’IA va tout changer, mais les gains de performance de ces dernières années font que ces techniques doivent être dans la boite à outils de l’ingénieur pour être utilisées à bon escient. Après, dès qu’il y a du traitement d’images, du signal ou du langage, là par contre, l’ingénieur ne peut pas faire l’impasse sur l’apprentissage par ordinateur. Ce qui d’ailleurs pose de nouvelles questions de certification car ces méthodes sont très performantes mais malheureusement très sensibles aux glissements de la distribution de données cibles (data drift en anglais, c’est quand les données que vous rencontrez en production ne correspondent pas à la distribution sur laquelle le modèle a été appris : par exemple une voiture autonome apprise sur les autoroutes américaines aura probablement du mal sur les petites routes de corse…). Ce qui explique que pour la HAS un médicament puisse être « certifié » par un essai clinique randomisé mais que ce soit plus compliqué avec un dispositif médical intégrant de l’IA : l’essai doit être complété par des éléments attestant une certaine maitrise du module IA. 

ACHT : Il y a des milliers de tuto sur le net pour « se former » au deep learning. Mais en réalité, on ne se forme réellement qu’en pratiquant beaucoup (vraiment beaucoup). Car être expert en deep learning, c’est surtout réussir à analyser pourquoi ça ne marche pas la première fois qu’on essaye de traiter une nouvelle base de données… Tout est encore très empirique et il faut avancer par essaie erreur (tout en utilisant les consensus apportés par l’état de l’art). Il faut aussi des bases en Python et une bonne maitrise de l’outil informatique car la puissance de calcul nécessaire passe souvent par des GPU sur serveurs. ■

Retour en haut