Cybersécurité, data mining, machine learning…. l’intelligence artificielle de A à Z

L’intelligence artificielle s’affirme dans la vie des entreprises et le quotidien de tous. Alors que s’ouvre jeudi Viva Technology, dont nous vous présentons les moments forts, voici quelques fondamentaux pour l’aborder.

 Pendant trois jours, Viva Technology met en scène Porte de Versailles, à Paris (XVe), les applications concrètes de l’intelligence artificielle.
Pendant trois jours, Viva Technology met en scène Porte de Versailles, à Paris (XVe), les applications concrètes de l’intelligence artificielle. Getty Images/iStockphoto

    L'intelligence artificielle pilote les applis des smartphones, anime les enceintes connectées, épluche des milliards de données pour proposer l'information, le bien ou le service optimal

    Algorithme

    Bien avant l'ordinateur, l'être humain a toujours mis en action des algorithmes, ces successions de calculs qui aboutissent à une solution dans une durée impartie. Ajouter les bons ingrédients dans une recette ou suivre un itinéraire pour se rendre au bureau en font partie. Tout s'est automatisé avec les premiers calculateurs, dès les années 1950, qui assistaient les scientifiques dans des opérations mathématiques complexes. L'intelligence artificielle ou IA -le recours à des algorithmes de plus en plus puissants- est théorisée à cette époque. On confie à la machine le soin de calculer, comme un humain le ferait, mais à la vitesse d'un inépuisable ordinateur.

    La vraie évolution intervient à la fin des années 2000 avec l'augmentation exponentielle de la puissance de calculs des ordinateurs couplée à l'accès à des millions de données en ligne, le Big Data. Les développeurs informatiques ont commencé à mettre au point des programmes composés d'algorithmes qui indiquent aux ordinateurs quels calculs lancer automatiquement et dans quel but en leur fournissant toutes les ressources nécessaires. Lorsque vous effectuez par exemple une recherche sur Google, PageRank, l'algorithme le plus utilisé du monde, puise dans un océan de pages Internet pour trouver le résultat le plus probant en recoupant les termes recherchés et de plus en plus à la lumière de vos données personnelles.

    L'étape suivante est l'avènement de l'apprentissage automatique ou « deep learning », où l'ordinateur établit ses propres règles de calculs en se basant sur des jeux de données dont il se nourrit.

    Cybersécurité

    L’IA devient un système immunitaire évolutif en anticipant les menaces informatiques. LP/Olivier Arandel
    L’IA devient un système immunitaire évolutif en anticipant les menaces informatiques. LP/Olivier Arandel Getty Images/iStockphoto

    Parmi les applications concrètes de l'IA, l'anticipation des menaces informatiques s'annonce comme l'une des plus prometteuses. En se nourrissant d'un historique d'attaques et de virus compilés dans des bases de données, les logiciels apprennent à anticiper les problèmes de sécurité comme à combler les failles dans les systèmes informatiques. L'IA devient un système immunitaire évolutif. Problème : les pirates ont également recours à des attaques capables de déjouer les meilleurs systèmes de défense en repérant les vulnérabilités grâce à l'IA. Heureusement, tout cela nécessite des ressources lourdes qui maintiennent une longueur d'avance pour les défenseurs.

    À VivaTech, Orange cyberdéfense propose de se mettre dans la peau d'un pirate sur son espace Hacking-Room et voir en action les réactions de l'IA.

    Data mining

    Le nouvel or noir s'extrait de serveurs qui contiennent des téraoctets de données, ou « data » en anglais. Pour affiner leurs calculs et leurs réponses, les algorithmes de l'IA ont en effet besoin d'une ressource clé : les mégadonnées ou le Big Data. Issues de nos navigations sur Internet, nos achats ou nos posts sur les réseaux sociaux, ces volumes de données numériques brutes -textes, photos ou sons- sont tellement massifs qu'aucun esprit humain n'est capable de les exploiter. Le « data mining », ou l'exploitation de données, consiste à demander à des algorithmes de fouiller parmi ces milliards d'informations afin d'établir des modèles, ou « patterns ». Ces données sont ensuite automatiquement recroisées avec d'autres jusqu'à pouvoir les faire interpréter par les algorithmes suivants.

    Une entreprise de marketing peut, par exemple, analyser les habitudes de consommation de ses clients et établir des publicités ciblées car personnalisées. La plate-forme vidéo Netflix « mine » les données de visionnage afin d'évaluer les préférences de ses abonnés et de déterminer des tendances. Ces informations servent ensuite à recommander le bon contenu à l'utilisateur mais aussi à produire le film ou la série qui trouvera facilement son public.

    Intelligences artificielles

    Selon l'un des pionniers du secteur, l'Américain Marvin Lee Minsky, l'IA se définit à partir des années 1960 comme « la construction de programmes informatiques qui s'adonnent à des tâches étant, pour l'instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l'apprentissage perceptuel, l'organisation de la mémoire et le raisonnement critique ». Depuis ces premiers travaux théoriques, différentes branches de l'IA ont émergé.

    L'IA distribuée. Elle fait appel à plusieurs agents ou petits logiciels qui ont chacun une expertise et une tâche précise mais qui coopèrent entre eux, comme dans une fourmilière, pour résoudre un problème. Pour cela, ils traitent les données brutes afin de les convertir en informations. Cette forme d'IA trouve une application dans la coordination des véhicules mobiles autonomes, qui doivent faire face à un trafic routier pas toujours rationnel.

    L'IA faible. Cette intelligence artificielle couvre toutes les applications actuelles car elle revient à simplement reproduire un comportement ou une tâche. L'ordinateur ne comprend pas ce qu'il fait et même s'il est capable d'apprendre de manière plus ou moins autonome, cela reste dans un cadre précis. On la retrouve dans les jeux vidéo, les assistants personnels comme Alexa d'Amazon ou Siri d'Apple mais aussi dans les logiciels de traduction. Cette technologie dépasse uniquement les capacités de l'humain par sa vitesse d'exécution et sa facilité à naviguer dans des millions de data.

    L'IA forte. L'« Artificial General Intelligence », en anglais, alimente toutes les craintes de voir l'homme dépassé par les robots. C'est la principale source d'inspiration des œuvres de science-fiction. Encore très théorique, l'IA forte pourrait analyser des données, prévoir et résoudre des problèmes complexes mais elle serait surtout capable d'apprendre en lisant et d'établir ses propres jugements. Une cinquantaine de grandes entreprises travaillent à créer cette IA. En attendant cette ultime étape, « l'intelligence artificielle concrète est sortie de la phase d'expérimentation et devient une réalité dans les entreprises et se déploie dans toutes les activités, de la santé au e-commerce en passant par la mobilité », assurent Julie Ranty et Maxime Baffert, les directeurs de VivaTech.

    Machine learning

    André Manoukian et Philippe Guillaud appliquent l’IA à la musique. LP/Damien Licata-Caruso
    André Manoukian et Philippe Guillaud appliquent l’IA à la musique. LP/Damien Licata-Caruso Getty Images/iStockphoto

    Comme le dit souvent Yann Le Cun, référence mondiale de l'IA et directeur scientifique chez Facebook, « il n'y a pas d'intelligence possible sans apprentissage ». L'apprentissage automatique, ou machine Learning en anglais, est une technique en pleine effervescence dans le domaine de l'IA. Cette branche naît à la fin des années 1950 sous l'impulsion de Arthur Samuel. Il développe pour IBM un programme informatique de Jeu de Dames qui s'améliore après chaque partie. Le scientifique américain invente l'expression Machine Learning car la machine devient capable d'évoluer par elle-même sans qu'il soit nécessaire de modifier à un moment ou un autre ses algorithmes. Avec suffisamment d'entraînement, elle accomplit des tâches pour lesquelles elle n'était pas programmée à l'origine.

    Il existe plusieurs méthodes d'apprentissage pour doper les facultés de son IA. La plus utilisée actuellement est l'apprentissage supervisé, où l'ordinateur reçoit une masse de données, par exemple des millions d'images de chats, et s'éduque à les reconnaître grâce à leurs caractéristiques jusqu'à ce que ses algorithmes parviennent par eux-mêmes à faire la différence avec des images d'autres animaux. C'est aussi ce qu'on appelle le « Deep Learning », ou l'apprentissage profond, car il fait appel à plusieurs niveaux de détails et traite des données beaucoup plus complexes. C'est grâce à cela que, par exemple, une voiture autonome peut reconnaître un panneau de limitation de vitesse.

    La start-up Muzeek, fondée par Philippe Guillaud et le musicien André Manoukian, exploite, elle, cette IA à travers un logiciel capable de s'inspirer des notes de musique et de composer ses propres morceaux tout en les faisant coller à des images. Ou comment 80 oeuvres originales deviennent en quelques heures 25 000 chansons. Enfin, la start-up AZMed, présente sur le stand de la région Sud à Viva Tech, a conçu un logiciel qui automatise les diagnostics de fractures à partir de l'analyse de radios.

    Perception artificielle

    C'est la capacité pour un ordinateur à mesurer son environnement grâce à des stimuli sur des capteurs. L'analyse des données produites alimente ensuite des algorithmes qui peuvent déclencher des réactions rationnelles. C'est l'équivalent logiciel de nos cinq sens. La vision par ordinateur débouche par exemple sur la reconnaissance faciale et l'audition par machine utilise des micros afin de reconnaître des voix en particulier ou encore afin d'analyser des phrases pour les traduire dans leur contexte.

    Le projet PhantoMovControl et son prototype, présenté sur le stand du CNRS à Viva Tech, fait lui appel à l'IA appliquée au toucher pour décoder les contractions musculaires des membres fantômes et ainsi rendre les prothèses des personnes amputées plus intelligentes.

    Réseau neuronal

    Et si les algorithmes étaient reliés entre eux comme les milliards de neurones de nos cerveaux ? Les réseaux neuronaux imitent le fonctionnement de notre cortex en se répartissant les tâches. Cette technique d'apprentissage automatique revient à insérer une donnée qui est traitée à la chaîne par un algorithme après l'autre en fonction de paramètres préétablis.

    Par exemple, pour reconnaître une image ou une expression, le premier algorithme définit une liste de caractéristiques puis un second affine et un autre réduit encore le champ des possibilités jusqu'à ce qu'une solution définitive apparaisse. Elle est validée par l'humain qui supervise toujours, pour l'instant, cette analyse. La technique se révèle particulièrement utile pour la traduction contextualisée de textes mais aussi de phrases en quasi-temps réel.

    Supercalculateur

    Prédire des maladies ou améliorer les performances d'une voiture à la milliseconde nécessite une gigantesque capacité de calculs pour traiter en temps réel des milliards de données. Incontournables dans le domaine de l'IA, les supercalculateurs exploitent le potentiel de performance maximal d'un ordinateur. Leurs exploits se mesurent en petaflops. Un petaflop équivaut à 1 million de milliards d'opérations par seconde. D'ordinaire installé à l'Idris, le centre de calcul du CNRS sur le plateau de Saclay, dans l'Essonne, le supercalculateur le plus puissant de France et ses 14 petaflops, le Jean Zay, sera exposé sur le stand de HPE, son concepteur, à Viva Tech (Hall 1 – D130). Cet imposant assemblage de processeurs Intel et d'accélérateurs graphiques Nvidia fera une démonstration de son potentiel dans la recherche moléculaire ou la prévision climatique.

    Test de Turing

    Inventé en 1950 par l'un des pères de l'informatique, le Britannique Alan Turing, ce test mesure le degré d'intelligence d'une machine et sa capacité à « penser ». Un jury assiste à une conversation via un clavier entre un ordinateur et un humain. Au bout de cinq minutes, s'il est impossible pour 30 % des juges de distinguer l'homme de la machine, alors cet ordinateur a passé le test et peut réfléchir par lui-même.

    Le défi pour la machine est en effet de réussir quatre fonctions humaines : le traitement automatique du langage naturel, la représentation des connaissances, le raisonnement automatisé et la capacité à apprendre.

    Pour la première fois, en 2014 à Londres, un programme russe d'IA a réussi à « berner » 33 % d'un jury humain en simulant les pensées d'un ado de 13 ans. L'IA avait réussi à répondre à des questions non déterminées à l'avance et à imiter son niveau intellectuel. Pour l'anecdote, cette avancée majeure est intervenue le jour du 60e anniversaire de la mort de Turing.

    Zéro

    Souvent qualifiée d'avancée majeure, AlphaZero, l'IA de Google Deepmind, a atteint en décembre 2018 un « niveau de jeu surhumain » en seulement 24 heures. Sans se baser sur des parties précédentes jouées par des humains, le programme a réussi à se perfectionner aux jeux d'échecs, de go et de shogi (variante japonaise des échecs). Il a balayé tous les autres programmes spécialisés uniquement en s'appropriant les règles.

    Pour les échecs, AlphaZero s'est entraînée pendant quatre heures à raison de 44 millions de parties pour vaincre Stockfish, l'IA championne du monde de la discipline. L'IA a tâtonné puis appris de ses erreurs avant de trouver une tactique imparable. Son successeur, AlphaStar, a battu en janvier dernier deux joueurs professionnels de Starcraft 2, un jeu vidéo de stratégie en temps réel où l'humain semblait indétrônable.

    Plus récemment, la nouvelle IA de DeepMind a subi un revers cuisant en n'obtenant que 7/20 à un examen de mathématiques de niveau lycée. C'est l'énoncé mélangeant chiffres, texte et symboles qui a enrayé la logique pourtant entraînée de l'IA. La marge de progression reste gigantesque.