Il existe de nombreuses analyses techniques et cas d’usages sur l’intelligence artificielle. Nous avons choisi dans cet article d’apporter une contribution à la réflexion stratégique sur les implications de l’IA.
Cela peut sembler éloigné des préoccupations immédiates d’une entreprise, mais dans un environnement mouvant, celles qui réussissent sont celles qui anticipent le futur. Cette vision du futur doit être alimentée par des analyses multiples et des débats sur ce que cet avenir pourrait être.
C’est dans cette optique que nous vous livrons l’analyse de Vascoo UP sur l’incidence possible de l’intelligence artificielle sur l’intelligence humaine. Ce n’est bien entendu qu’une des multiples coupes tomographiques possibles de ce sujet.
Il ne s’agit pas d’être passéiste, certains sumériens ont probablement pensé que le développement de l’écriture cunéiforme allait détruire la tradition orale. Tel n’est pas le propos ici, même si ces sumériens n’avaient pas totalement tort. Le but est de s’interroger sur la coévolution popularisée par Pascal Picq dans Le nouvel âge de l’humanité. Celle-ci peut avoir une influence positive ou négative.
Comment une innovation peut-elle influencer l’évolution darwinienne ?
La coévolution a été manifeste dans le passé pour, par exemple, l’invention du feu. L’apport nutritionnel qu’il a permis a favorisé le développement du cerveau des hominidés. C’est inversement le cas du GPS. Il est aujourd’hui démontré que son usage tend à provoquer la réduction des zones du cerveau consacrées à l’orientation et à la représentation dans l’espace.
Pourquoi l’intelligence artificielle aurait-elle une influence ?
Pour le comprendre penchons-nous sur le raisonnement humain.
L’apprentissage est d’abord expérimental et statistique. Un bébé qui jette son jouet et le voit retomber à chaque fois en déduit qu’un objet lâché va vers le bas. Cela ne signifie nullement qu’il a compris le principe de la loi universelle de la gravitation et qu’il est un Newton en devenir. Cette même forme d’apprentissage existe pour de nombreuses formes de vie.
L’intelligence humaine devient ensuite progressivement structuraliste et déductive. Nous cherchons à comprendre pour résoudre.
Notre cerveau étant limité en vitesse de traitement et taille de mémoire, nous identifions des schémas, des logiques, des stratégies, des règles…, pour résoudre des problèmes qui seraient trop volumineux pour être traités par itération. C’est typiquement le cas pour des jeux comme les échecs et le go mais plus généralement pour l’ensemble de la démarche scientifique. Elle procède de deux types d’approches, soit nous pensons comprendre et utilisons l’expérimentation pour valider la théorie, soit des expériences nous donnent des résultats et nous cherchons à les comprendre. Dans tous les cas nous voulons comprendre.
Avec l’intelligence artificielle le processus est différent. L’IA utilise des corrélations pour en arriver à la causalité mais sans nécessairement passer par une compréhension. Un Isaac Newton fonctionnant selon le mode d’apprentissage de l’intelligence artificielle aurait lancé des milliards de pommes pour modéliser des règles de trajectoire.
On peut imaginer un monde dans lequel une minorité de plus en plus réduite de supers nerds « comprend » et consacre son temps au développement des moteurs d’intelligence artificielle. Ceux-ci étant entraînés à la fois par quelques coachs d’IA qui se contentent de classer les réponses lorsque l’auto-apprentissage n’est pas possible, et par une immense majorité qui utilise la technologie sans la comprendre, comme nous utilisons le GPS sans savoir comment il fonctionne.
Les différentes générations, que nous avons qualifiées de « numériques », sont d’ailleurs de très bons utilisateurs de certains aspects du numérique comme les réseaux sociaux, mais très peu d’entre eux ont soulevé le capot.
Le risque d’une régression de notre capacité d’analyse et de compréhension semble réel, en tout cas plus que celui de machines qui prendraient le pouvoir.
Le rêve ou le cauchemar de l’intelligence artificielle n’est pas nouveau.
Il a été théorisé par de nombreux philosophes au premier rang desquels nous pouvons mettre Leibnitz. Son calculus ratiocinator n’en était-il pas la préfiguration ?
Mais plus d’un siècle avant lui, Rabelais, plus humaniste et probablement plus lucide, avait écrit dans Pantagruel : « Science sans conscience n’est que ruine de l’âme ». La conscience pour Rabelais ne se réfère pas à l’éthique mais à la pleine conscience de ce que nous faisons. Elle passe par la compréhension. C’est une connaissance réflexive que nous pouvons nous approprier.
En simplifiant nous sommes en face d’un choix : devons-nous suivre la vision mécaniste et algorithmique de Gottfried Leibnitz ou celle humaniste de François Rabelais ?
Quel est le rapport de cette question avec l’entreprise et le numérique ?!
Ceux d’entre vous qui ont eu le courage de lire cet article jusque-là se demandent probablement quel est le rapport de cette question avec l’entreprise et le numérique !?
C’est un lien à la fois avec les organisations et les individus. Les organisations dominantes seront celles qui comprennent et contrôlent les mécanismes eux-mêmes, et pas de simples utilisateurs.
Pour éviter de marcher sur une chausse trappe acérée, les organisations doivent plus que jamais se concentrer sur le « pourquoi » et non pas sur le « comment » ou pire sur le « quoi ». Dans une conférence qui a déjà 10 ans, Simon Sinek décrit très bien cet enjeu et ses conséquences.
Pierre FRANÇOIS