La puissance de l'Intelligence Artificielle

Quand on entend le mot Intelligence Artificielle (ou I.A.), on imagine souvent un robot aux super pouvoirs prêt à dominer l’Homme. Ou encore une cohorte “d’algorithmes” envahissant petit à petit nos entreprises au détriment de nos emplois. Mais qu’en est-il vraiment

Il y a maintenant quelques années que j’ai commencé à m’intéresser à ce sujet. Je voyais énormément d’articles dans les média présentant l’IA comme un super cerveau, combinant l’intelligence de l’homme avec la capacité de calcul de la machine. Certains annonçaient qu’elle allait sauver le monde, d’autre prédisaient des millions d’emplois supprimés, remplacés par des ordinateurs. J’en étais venu à penser que maîtriser l’IA permettait de résoudre n’importe quel problème, m’offrant à moi aussi ce super pouvoir. J’ai donc décidé de quitter mon emploi pour passer un diplôme d’ingénieur en Intelligence Artificielle. Deux ans plus tard et mon diplôme en poche, ma vision de cette technologie a forcément évolué et je souhaite prendre quelques minutes afin d’expliquer à quoi elle correspond.

Qu’est-ce que l’Intelligence Artificielle ?

Le terme Intelligence Artificielle est née dans les années 1950, à l’époque où l’informatique était encore balbutiante. Il désignait alors la capacité que pourrait avoir une machine à prendre une décision à la manière d’un Humain. A ce titre, un simple thermostat peut être considéré comme de l’IA puisqu’il est capable de décider à votre place quand allumer ou couper votre chaudière ! Rien de très sexy.

Dans un programme informatique traditionnel, le programmeur doit décrire à l’ordinateur quelle logique il doit suivre. Dans le cas de notre thermostat, on écrirait par exemple :

  • Demander à l’utilisateur la température souhaitée.
  • Mesurer la température dans la maison.
    • Si la température mesurée est inférieure à la température souhaitée, allumer la chaudière.
    • Sinon, couper la chaudière

J’espère que les experts en régulation me pardonneront cette vision extrêmement simpliste 🙂

Si ce type de programmation est bien adapté à des problèmes “simples”, il présente certaines limites. En effet, il existe de nombreux cas où décrire un raisonnement est trop compliqué.

La première révolution : le Machine Learning

Mais depuis une vingtaine d’années, une technologie nommée Machine Learning a changé la donne. Comme son nom l’indique, ce type de d’algorithme offre à l’ordinateur la capacité à apprendre.

Avec le Machine Learning, il n’est plus nécessaire de décrire le fonctionnement souhaité. Il “suffit” de montrer au programme des exemples de ce que l’on veut faire pour qu’il détermine lui même comment y parvenir.

Prenons un exemple un peu plus complexe que notre chauffage. Un des principaux domaines d’utilisation du Machine Learning est la banque. Une des difficultés auxquelles celles-ci sont confrontées est de savoir si une personne qui sollicite un prêt sera en mesure de le rembourser. Écrire un programme qui permet de prendre une telle décision est extrêmement difficile car les facteurs influant sur la capacité de remboursement sont très nombreux et peuvent se combiner. Une solution est alors de récupérer l’historique de remboursement de plusieurs milliers de clients sous une forme comme celle ci (qui est ici très simplifiée).

Genre Age Salaire Montant emprunté Durée A remboursé ?
Femme
25
2.600 €
80.000 €
15 ans
oui
Homme
22 ans
1.800 €
70.000 €
12 ans
non
...
...
...
...
...
...

On fournit ensuite ces données à un algorithme de Machine Learning qui va les passer en revue et “apprendre” quelle sont les caractéristiques d’une personne apte à rembourser un prêt. Il pourra ainsi définir ses propres règles de décision. Il suffira ensuite de collecter les informations concernant un nouveau client et de les fournir au programme pour qu’il y applique ces règles et décide si l’on peut lui accorder le prêt.

Il n’y a rien de magique la dessous. L’ordinateur utilise sa puissance de calcul pour déterminer une relation mathématique entre les différents paramètres, et l’applique ensuite pour effectuer des prévisions. Il y a beaucoup d’intelligence chez les chercheurs qui ont mis au point cette technologie, beaucoup moins dans le programme qui les applique.

Mais malgré toute sa puissance, la technologie du Machine Learning a rarement fait la une des magazines. En effet, elle restait cantonnée à des domaines très techniques.

La 2° révolution : le Deep Learning.

Le terme Intelligence Artificielle doit en réalité sa popularité à un type d’algorithmes qui se développe depuis une dizaine d’année : le Deep Learning. Sous ce nom un peu barbare se cachent des programmes que l’on nomme réseaux de neurones. Comme leur nom le laisse supposer, ils ont la capacité à répliquer (à échelle réduite) le fonctionnement du cerveau. Sur le principe, ils fonctionnent comme les algorithmes de Machine Learning décrits ci-dessus. Mais ils ne se contentent plus de travailler sur des chiffres. Ils peuvent maintenant être appliqués à des images, du son ou du texte. Avec le programme adéquat, l’ordinateur devient alors capable de faire la différence entre un chien et un chat ou entre la Tour Eiffel et l’Empire State Building, donnant ainsi l’illusion de l’intelligence.

Là encore, il s’agit bien d’une illusion. Une image est en fait un immense tableau de nombres (qui représentent la couleur de chaque point) et l’algorithme “apprend” la correspondance entre ces points et le résultat qu’il doit déterminer.

Mais dans ce cas, les bénéfices de la technologie sont visibles du grand public. Reconnaître un animal ou une personne sur une image est en effet beaucoup plus impressionnant que décider si l’on peut accorder un crédit à une personne. Il n’en fallait pas plus pour que l’Intelligence Artificielle gagne des lettres de noblesse.

Les applications l’Intelligence Artificielle.

Avec l’émergence du Machine Learning et du Deep Learning, l’IA s’est répandue ces dernières années à tous les secteurs, des applications professionnelles au grand public, de la santé à l’industrie en passant par la finance. Les cas d’usage sont si nombreux que l’on ne peut pas tous les passer en revue, mais je présenterai quelques grandes catégories.

Le marketing.

Très tôt, les services marketing des grandes entreprises se sont appropriés les outils de Machine Learning pour améliorer “l’expérience utilisateur” :

  • En analysant le comportement d’achat des clients, on peut classer ceux-ci en différentes catégories. Chacune d’entre elle pourra ainsi être traitée de manière spécifique, permettant de réaliser des actions plus proches des attentes de chaque client.
  • A partir de notre historique de consommation, des entreprises comme Amazon ou Netflix (entre autres) nous proposent des produits et services adaptés à nos goûts.

La détection d’anomalie.

Les algorithmes peuvent également apprendre à détecter des comportements inhabituels. Ils sont ainsi couramment utilisés par les banques pour détecter les transactions frauduleuses ou dans l’industrie pour prévoir l’imminence d’une panne de machine. Mais on trouve des applications plus généralistes comme la détection de spams ou d’e-mails de phishing.

Les applications grand public.

La première qui vient à l’esprit est bien entendu la reconnaissance faciale qui nous permet de déverrouiller automatiquement notre smartphone (du moins quand nous ne portons pas de masque !). Mais on retrouve d’autres applications comme par exemple certains logiciels de retouche photo qui permettent d’améliorer automatiquement des images. Ou encore dans les jeux vidéos où l’IA permet d’adapter le comportement de certains personnages à la situation ou de leur donner la voix d’une célébrité. Sony envisage même d’utiliser l’IA pour créer des personnages

La santé.

Si certaines applications grand public peuvent prêter à sourire, le domaine de la santé est beaucoup plus sérieux. Des algorithmes sont maintenant capables d’analyser des images médicales afin d’y détecter des pathologies telles que des tumeurs. On estime aujourd’hui que certains programmes sont plus performants que les meilleurs spécialistes, en particulier lorsqu’il s’agit de détecter une tumeur à un stade précoce. Ceci permet donc de commencer le traitement beaucoup plus tôt, maximisant ainsi les chances de guérison du patient.

L’environnement.

On oppose souvent Intelligence Artificielle et environnement, les algorithmes d’IA nécessitant en effet d’importantes ressources de calcul lors de leur phase d’apprentissage. Pourtant, il existe de nombreuses applications au service de l’environnement. L’IA permet par exemple d’automatiser l’analyse d’images satellites et de fournir ainsi aux agriculteurs des conseils personnalisés en fonction de leurs cultures. Ceci permet d’optimiser l’irrigation ou de limiter l’emploi d’engrais ou de pesticide. Elle peut également être utilisée pour optimiser le chauffage ou la climatisation des bâtiments, réduisant ainsi leur empreinte carbone. Et Google envisage d’améliorer la gestion des feux tricolores, minimisant ainsi les arrêts intempestifs générant de la pollution inutile

La reconnaissance de texte ou de voix.

Depuis quelques années, de nombreuses entreprises ont souhaité automatiser une partie de leurs relations avec les clients (pour le meilleur… comme pour le pire). Mais au delà de l’image d’Épinal, il faut reconnaître que grâce à l’IA, les serveurs vocaux et les chatbots ont fait beaucoup de progrès, permettant par exemple d’obtenir des renseignements en dehors des heures d’ouverture des bureaux… et générant également des économies substantielles pour les entreprises.

Toujours dans le domaine du texte, l’IA permet d’exploiter la manne d’informations que représentent les réseaux sociaux. En analysant des posts, des commentaires ou des tweets, une entreprise peut maintenant connaître les sentiments des utilisateurs à son égard et même les classer en différentes catégories. Elle pourra ensuite utiliser ces informations pour améliorer la qualité de ses produits ou services. Dans le même ordre d’idée, certains services de secours ont mis en place des “robots” capable d’analyser les tweets des internautes pour détecter plus rapidement les accidents.

Les limites de l’Intelligence Artificielle.

Comme on le voit à travers ces quelques exemples, l’IA a envahi nos vies numériques. Pour le meilleur.. mais aussi pour le pire. Comme toute technologie, elle peut être détournée à des fins malveillantes, comme par exemple la création des Deep Fakes. Il devient ainsi possible de faire tenir à une personne n’importe quel discours. C’est le côté obscur de l’IA.

Néanmoins, ce n’est pas là que se trouve sa principale limite. Vous avez peut-être noté que je n’ai pas parlé de conduite autonome dans la liste des applications. En effet, malgré des avancées remarquables ces dernières années, cette technologie n’est encore tout à fait prête à remplacer les conducteurs. Il y a de nombreuses raisons à cela, mais voici selon moi la principale : toutes les applications listés ci-dessus sont des tâches parfois complexes, mais des tâches unitaires. Un programme est entraîné pour exercer une activité particulière. Or, la conduite n’est pas une tâche unitaire. Il faut en permanence analyser son environnement (essentiellement par la vue, mais aussi par l’ouïe), comprendre le situation, décider comment réagir et enfin agir sur les commandes. Bref, c’est un ensemble de tâches liées. Et c’est ce que l’IA ne sait pas faire aujourd’hui… ou en tous cas pas en dehors des laboratoires.

Intelligence Artificielle = Intelligence Augmentée ?

Compte-tenu des progrès de ces dernières années, la définition de l’Intelligence Artificielle a évolué. Elle est maintenant décrite comme :

Une technologie informatique qui permet de résoudre des problèmes complexes qu'on aurait cru réservés à l'intelligence humaine.

Or, comme nous venons de le voir, les applications de l’IA permettent d’effectuer des tâches complexes, mais pas encore de résoudre des problèmes complexes. C’est pourquoi certaines personnes lui préfèrent le nom d’Intelligence Augmentée. J’aime beaucoup cette dernière appellation : elle décrit bien la capacité des algorithmes à mettre leur puissance à notre service afin de nous assister dans nos tâches… et non pas à nous remplacer.