Pourra-t-on bientôt pirater les humains ?
Un roi tombe. Nous sommes le 11 mai 1997 et Gary Kasparov, quinze fois champion du monde d'échecs, n'en revient pas : Deeper Blue, un robot-ordinateur développé par IBM vient de l'emporter face à lui. C'est la première fois qu'une machine bat un champion du monde. La preuve est faite : l'ordinateur est devenu plus intelligent que l'Homme.
Comment ce coup d'éclat a-t-il été rendu possible ? L'ordinateur a été "nourri" par les développeurs d'IBM avec des centaines de milliers de parties précédemment jouées, ce qu'on appelle le machine learning. Si cet apprentissage était alors dirigé par les chercheurs, aujourd'hui, les machines apprennent désormais "par elles-mêmes" grâce au deep learning, ou apprentissage profond.
Grossièrement, cette technologie s'appuie sur un réseau de neurones artificiels inspiré du cerveau humain qui effectue des millions de calculs et s'auto-corrige. En quelques années, toutes les grandes firmes technologiques ont investi le secteur. Google, Apple ou Samsung l'utilisent au quotidien à travers leurs assistants personnels (Cortana, Siri, GoogleNow).
Les progrès exponentiels en la matière, passés en quelques années de simple expérience théorique à une technologie utilisée massivement par des millions d'utilisateurs laissent penser que les machines seront bientôt capables "d'augmenter" les humains, disent les plus enthousiastes. De les "hacker", disent certains... Mark Zuckerberg, fondateur de Facebook ou Ellon Musk, patron de Tesla s'en sont fait les ardents défenseurs. "Avec l'IA et les expériences transhumanistes, il y a l'idée d'accéder à l'immortalité. La mort obsède ces multimilliardaires qui veulent croire à leur pérennité", relève Christian Lexcellent, auteur de "Pourra-t-on pirater l'être humain ? Intelligence humaine versus Intelligence artificielle"
Christian Lexcellent
Sarah Connor ?
Une perspective qui nourrit quelques inquiétudes. Avant de mourir, Stephen Hawking, le célèbre astrophysicien, mettait en garde : l'intelligence artificielle pourrait bien entraîner la disparition de l'humanité. Yuval Noah Harari, auteur de Sapiens, une brève histoire de l'humanité et 21 leçons pour le XXIe siècle a lui aussi fait part des mêmes craintes. Dans l'un des scénarios qu'il imagine pour l'avenir de l'humanité, il décrit : "l'autorité passera des humains aux algorithmes spécialisés en intelligence artificielle et en analyse des mégadonnées. Ce n'est pas une augmentation des capacités humaines, c'est un hacking de l'humanité par les machines."
D'autres scientifiques comme Bill Gates ou Steve Wozniac (cofondateur d'Apple) ont eux aussi alerté l'opinion publique des risques de progrès de l'IA. Tous s'appuient sur une thèse connue des amateurs de science-fiction : la singularité technologique. Selon cette hypothèse, l'invention de l'intelligence artificielle conduirait à un emballement technologique capable de s'auto-alimenter, qui échapperait à terme au contrôle de l'Homme. La prise de contrôle par les machines en somme.
De Terminator à I-Robot, de Matrix à Blade Runner, les dystopies hollywoodiennes ont été nombreuses à explorer ce scénario.
Reste qu'en 2021, l'algorithme des tendances Youtube continue de nous proposer des musiques improbables, que celui d'Apple galère à reconnaître deux visages identiques sur nos téléphones. Alors joue-t-on à se faire peur ? "L'intelligence artificielle n'est pas mauvaise en soi mais peut servir les pires intérêts", précise Christian Lexcellent. Et de conclure : "la grande offensive libertarienne emmenée par Ellon Musk et les GAFA qui consiste à dire : laissons faire la technologie, on verra ensuite. C'est là qu'il y a danger : laisser le contrôle nous échapper".