Passer au contenu

Artificial intelligence

La véritable menace de l'IA provient de l’absence d’un cadre juridique pour les technologies émergentes.

Ian Kerr, l'Université d'Ottawa
Ian Kerr, l'Université d'Ottawa Photographie: Tony Fouhse

Dans le monde de l’intelligence artificielle, une avancée récente peut s’attirer tant la stupéfaction d’un expert que le regard indifférent d’un autre. Et la crainte existentielle que les superordinateurs menacent un jour la civilisation peut animer un universitaire, tandis que son confrère ne pousse qu’un simple « bof ». 

Il y a peu de consensus dans la communauté scientifique quant à la capacité de créer une I.A. qui excède où même approche l’intelligence humaine, un concept connu sous le nom de « singularité technologique ». Cela pourrait prendre 20 ans, ou 100 ans, ou même ne jamais se réaliser. Et ces débats seraient restés dans les corridors des universités, n’eût été les mises en garde formulées par certaines sommités scientifiques, disant que l’I.A. pourrait un jour détruire l’humanité.

Ces sommités incluent le célèbre cosmologiste Stephen Hawking et Stuart Russell, coauteur du livre de référence sur l’I.A. Des titans de Silicon Valley comme Elon Musk de SpaceX et le cofondateur de Skype Jaan Tallinn ont aussi fréquemment commenté le « risque existentiel » que posent ces technologies émergentes. Ce dernier a versé des millions de dollars à des associations académiques et des groupes de réflexion pour qu’ils étudient la question.

Devrions-nous prendre ces préoccupations au sérieux? Plusieurs chefs de file dans le domaine affirment qu’il n’y a aucune raison de paniquer, que nous sommes très loin de créer une réplique du cerveau humain. Et même si les politiciens doivent rester au fait des avancées scientifiques dans le domaine, leur objectif immédiat devrait être de comprendre comment la technologie existante peut affecter la société d’aujourd’hui.

« Ils devraient concentrer leurs efforts sur le développement d’outils pour encadrer les technologies qui sont ici maintenant », estime Ian Kerr, titulaire de la Chaire de recherche du Canada en éthique, en droit et en technologie. « Ceci dit, ils doivent le faire en surveillant l’expansion rapide dans l’avenir. »

Le Canada est dans une bonne position pour poser ces questions, en tant que lieu où se sont produites certaines de ces récentes avancées scientifiques. Mais à l’heure actuelle, cette discussion n’a pas lieu.

Or, tandis que les machines deviennent de plus en plus intelligentes, l’intérêt du public et des entreprises va continuer à augmenter, et les décideurs devront faire du rattrapage. Des enjeux tels que la manière dont les données sont conservées et utilisées, ou la responsabilité dans l’éventualité où un robot – au sol ou même dans le ciel – devait accidentellement blesser quelqu’un poseront des défis importants à la communauté juridique au cours des prochaines années. Les juristes et législateurs seront de plus en plus sollicités pour aider à façonner le cadre réglementaire qui régira l’I.A. dans son ensemble.

« Une discussion collective doit avoir lieu sur l’utilisation de la technologie alors qu’elle s’améliore graduellement, de manière socialement positive », a noté dans une entrevue par courriel Yoshua Bengio, chef du Laboratoire d’informatique des systèmes adaptatifs de l’Université de Montréal et pionnier de l’I.A. « Ça relève davantage du domaine politique, mais les scientifiques doivent aussi prendre part à cette discussion. » 

Plusieurs chercheurs des deux côtés de l’Atlantique conviennent qu’il serait imprudent d’ignorer totalement l’idée que des systèmes hautement intelligents puissent éventuellement voir le jour, mais que l’accent mis en ce moment sur les superordinateurs détourne l’attention d’enjeux plus pressants, comme la manière de gérer les métadonnées dans l’intérêt de la société.

« Ce sur quoi nous devrions vraiment nous concentrer sont des choses comme la vie privée et le fait que nous sommes dépendants de machines [qui peuvent facilement faire défaut] », estime Tony Prescott, professeur de neurosciences cognitives et directeur du Centre Sheffield pour la robotique à l’Université de Sheffield, au Royaume-Uni.

« Je ne suis pas d’accord avec les déclarations qui sèment la panique [comme celles de] Musk et Hawkings, qui ne sont pas des experts du sujet », renchérit le professeur Bengio. « Il n’y a rien à craindre dans l’avenir prévisible, si vous examinez attentivement l’état actuel de la technologie. »

Stephen Hawking et Elon Musk sont deux des personnalités les plus connues qui ont signalé les torts potentiels que pourrait causer le développement incontrôlé de l’I.A. Même Bill Gates de Microsoft s’est rangé « dans le camp de ceux qui sont préoccupés par la super intelligence ».

Le physicien d’Oxford Stephen Hawking ajoute aussi souvent son grain de sel. « Il est tentant de rejeter la notion de machines hautement intelligentes comme de la simple science-fiction », a-t-il souligné dans un article coécrit avec Stuart Russell, ainsi que Max Tegmark et Frank Wilczek du MIT. « Mais ce serait une erreur, et potentiellement la pire erreur de notre histoire. »

Dans une entrevue avec la BBC en décembre, Hawking a affirmé que l’I.A. « pourrait entraîner la fin de la race humaine ».

L’I.A. surhumaine est un objectif qui est très atteignable, a pour sa part écrit Russell, coauteur du manuel de référence dans le domaine (Intelligence artificielle, une approche moderne). « Pour vous sentir à l’aise avec l’idée que ça ne l’est pas [atteignable], vous devriez jouer votre avenir face à la puissance combinée des Google, Microsoft, Apple, IBM et des capacités militaires mondiales », a-t-il noté dans une récente contribution sur Huffington Post. 

Réussir le test de Turing

Ces mises en garde suivent la publication de Superintelligence : Paths, Dangers, Strategies, écrit par le philosophe d’Oxford Nick Bostrom. Dans son livre à succès de 2014, Bostrom soulève l’hypothèse qu’une « explosion de l’intelligence » pourrait permettre aux machines d’excéder l’intelligence humaine. Rapidement, ces êtres sensibles pourraient devenir l’espèce dominante du monde, avec des conséquences catastrophiques pour l’humanité, même si elles n’ont pas d’intentions malicieuses en tant que telles.

Musk, qui veut coloniser la planète Mars « pour sauvegarder l’existence de l’humanité », n’hésite pas à utiliser des scénarios apocalyptiques lorsqu’il parle des risques posés par l’I.A.

Sans détailler ses craintes, le dirigeant de SpaceX et Tesla a qualifié l’A.I. de « notre plus grande menace existentielle » et a plaidé en faveur d’un meilleur encadrement réglementaire. Avec Jaan Tallinn de Skype, il a martelé ces mises en garde sur diverses plateformes et a lancé un appel pour que plus d’études soient menées sur les A.I. afin de surveiller et contenir ces menaces. 

Jusqu’ici, aucune machine n’a passé le seuil du test de Turing, développé par Alan Turing, le mathématicien, déchiffreur de codes et père de l’informatique moderne. Le test implique qu’une machine puisse faire croire à une personne qu’elle communique avec un autre être humain. 

L’émergence de l’apprentissage automatique

Pour le moment, l’action se passe dans le domaine de l’apprentissage profond. Et même si personne n’est en train d’affirmer que cela pose un risque à l’humanité, il comporte son lot de défis pour la profession juridique et la société.

De récentes avancées sur l’« apprentissage profond » (deep learning), plusieurs étant survenues aux universités de Toronto et de Montréal, ont contribué au regain d’intérêt généré pour ce domaine qui avait passé un séjour prolongé sur les tablettes du monde scientifique, et attiré l’attention d’entreprises telles que Google, Microsoft, Facebook, Yahoo et Baidu.

Inspiré par le fonctionnement du cerveau, l’apprentissage profond a permis des améliorations importantes dans certaines capacités des ordinateurs, dont la reconnaissance vocale et le traitement du langage naturel – tous des éléments qui peuvent être utilisés pour personnaliser des produits, créer des moteurs de recherche plus efficaces et bâtir des robots plus réalistes.

Par l’apprentissage profond, les systèmes peuvent acquérir des connaissances en reconnaissant des schémas et en utilisant des informations qu’ils ont amassées auparavant. Plus ils recueillent des informations, plus ils deviennent agiles. En combinant des processeurs puissants et des couches de neurones artificielles, les programmes informatiques peuvent même apprendre à faire certaines tâches de manière indépendante. L’expert de l’apprentissage profond Geoffrey Hinton, titulaire d’une Chaire de recherche du Canada en apprentissage automatique, a dit récemment que Google est en voie de développer des algorithmes dotés de « bon sens ».

La technologie rend les systèmes de plus en plus capables d’analyser le comportement, l’humeur et les désirs d’un individu. En théorie, cela correspond à du profilage – et ça inquiète certains observateurs.

Les entreprises et les États « deviennent de plus en plus capables de prédire le comportement des gens », souligne Joanna Bryson, professeure associée spécialisée en intelligence artificielle à l’Université de Bath. « C’est pourquoi la réglementation devrait se concentrer sur les questions de confidentialité – parce que les gens dont les comportements sont anticipés peuvent être exploités. »

« L’apprentissage des machines rend possible l’analyse de ces données pour prédire et (dans une certaine mesure) comprendre les êtres humains », ajoute dans une entrevue par courriel Bernhard Schölkopf, directeur de l’Institut allemand Max Planck pour les systèmes intelligents. Les gouvernements devraient se concentrer sur « les modifications apportées à nos vies qui seront engendrées par I.A., et la nécessité de [créer des lois] pour faire face à ces changements ».

Ces avancées n’ont pas échappé aux géants de la Silicon Valley, qui ont embauché plusieurs spécialistes de l’apprentissage profond au cours de la dernière décennie. À la suite de l’acquisition de leur entreprise en démarrage d’I.A. en 2013, Google a engagé Goeffrey Hinton et certains de ses anciens étudiants de l’Université de Toronto. La compagnie a aussi acquis plus récemment le laboratoire d’I.A. DeepMind, basé à Londres. Sa mission autopromulguée : « Résoudre l’intelligence ».

À ce jour, la plus grande réussite de DeepMind est le développement de logiciels qui ont permis à un ordinateur de s’autoenseigner près de 50 vieux jeux Atari à un niveau professionnel, après s’être fait montrer les règles d’un seul jeu. Cette réalisation est probablement ce qui a valu au fondateur Demis Hassabis un billet pour la conférence secrète Bilderberg, un rassemblement privé annuel des dirigeants du monde entier et de divers horizons. L’I.A. a dominé l’ordre du jour de la rencontre de cette année.

Si la stratégie d’Apple dans ce domaine reste nébuleuse, Facebook a embauché en 2013 le chef de l’apprentissage profond et professeur à l’Université de New York Yann LeCun à la tête de son laboratoire de recherche sur l’intelligence artificielle. Pendant ce temps, la compagnie chinoise Baidu, qui aurait demandé aux forces armées du pays de l’aider à développer ses capacités en matière d’intelligence artificielle, a engagé en 2014 le professeur de l’Université de Stanford Andrew Ng à la tête de son laboratoire de Silicon Valley sur l’apprentissage profond. >

Les limites de l’I.A.

L’I.A. donne aux ordinateurs la capacité de comprendre les questions, rechercher de vastes bases de données, traiter ces informations et fournir des réponses ou des indications. Mais bien que la technologie actuelle semble très avancée, son indépendance demeure largement illusoire.

Chaque fois que nous communiquons avec un dispositif – que ce soit pour réserver des billets de cinéma, payer une facture de gaz, écouter les indications d’un GPS – nous employons un niveau plutôt faible d’I.A. Ce qui peut sembler intelligent a plutôt des fonctions prédéterminées. La Siri d’Apple et la fonction de conduite automatique de Google sont de bons exemples de produits qui utilisent un niveau faible d’I.A. Le système le plus avancé ne peut que s’enseigner lui-même à reconnaître du bacon et compter ses calories. Et quand il a battu ses adversaires humains à Jeopardy, l’ordinateur Watson d’IBM ne savait pas qu’il avait gagné.

En revanche, un niveau d’I.A. élevé, aussi connu comme intelligence artificielle générale ou I.A.G., serait égal ou supérieur à l’intelligence humaine. Pour atteindre ce niveau d’I.A. élevée et selon une définition souvent citée, un système doit avoir la capacité de raisonner, de représenter ses connaissances, de planifier, d’apprendre, de communiquer en langage naturel et d’intégrer toutes ces compétences pour l’atteinte d’un objectif commun. Pensez à HAL, l’ordinateur dérangé dans 2001: l’Odyssée de l’espace ou au Lieutenant commander Data dans Star Trek.

Le terme « faible » utilisé pour désigner un niveau moins élevé d’I.A. demeure tout de même plus ou moins approprié. Par exemple, la technologie qui permet à la NSA de développer des outils très sophistiqués d’exploration de données entre dans cette catégorie, tout comme les armes autonomes, qui utilisent une technologie très semblable à celle des voitures sans conducteur.

Perdre le contrôle d’un système d’I.A. – par des erreurs de programmation, notamment – pose un danger bien plus grand que la possibilité d’un robot aux intentions maléfiques, notent des observateurs. « C’est le moyen le plus probable qu’un système intelligent puisse causer des dommages », estime Thomas Dietterich, professeur d’informatique à l’Université de l’Oregon.

« La chose la plus utile que nous puissions faire est de demander à l’Académie nationale de génie des États-Unis de mener une étude sur les risques à court et à long terme de l’I.A. et de ses technologies connexes, et de formuler des recommandations pour le gouvernement américain et l’industrie », a ajouté le professeur dans une entrevue par courriel.

Mais même si aucun scénario catastrophe ne se concrétise, des experts soulignent que nous laissons toujours plus de pouvoir décisionnel à ces machines à l’I.A. « faible », que ce soient des pilotes automatiques ou la lecture de cartes géographiques. « Ces dépendances pourraient être tout aussi socialement dommageables que la possibilité lointaine d’un soulèvement des machines », estime le professeur Kerr de l’Université d’Ottawa.

« Nous essayons de rendre les choses toujours plus efficaces et il y aura une tendance à laisser ces systèmes prendre de plus en plus de décisions qui affectent nos vies », croit Bernhard Schölkopf de l’Institut Max Planck. « Ces systèmes peuvent attribuer des cotes de crédit, prescrire des traitements médicaux ou déterminer qui obtient le droit de passer l’immigration à l’aéroport. Les possibilités sont très larges. »

Cet accent mis sur des systèmes superintelligents survient à un moment où les gens réalisent que les technologies comme les téléphones intelligents et les moteurs de recherche aident à créer un système économique qui peut prospérer en se fiant à un grand nombre de travailleurs autonomes – pensez à Uber et Airbnb.

L’automatisation et de la mondialisation ont déjà déplacé de nombreux emplois peu qualifiés, mais les cols blancs sont également touchés, y compris dans la profession juridique.

« C’est l’une des plus grandes craintes [parmi les résidents de l’UE] : que les robots leur volent leurs emplois », affirme Erica Palmerini, professeure de droit à la Scuola Superiore Sant’Anna de Pise et coordinatrice du projet RoboLaw soutenu par l’UE. « Cela pourrait être l’un des plus grands obstacles au développement du marché de la robotique. »

Ironiquement, ceux-là mêmes qui créent de vastes données nécessaires à la formation des algorithmes – traducteurs, photographes, journalistes et plusieurs d’autres – oeuvrent à leur propre perte économique. Il reste à voir si la nouvelle révolution technologique va créer plus d’emplois qu’elle n’en détruit.

Pour être clair, l’énorme potentiel de l’I.A. pour améliorer le sort de l’humanité – tout simplement en rendant les humains plus intelligents et efficaces – ne fait aucun doute. Certains sont particulièrement optimistes : le directeur du génie chez Google, Ray Kurzweil, qui a notoirement prédit que les machines passeront le test de Turing d’ici 2029, fait figure d’évangéliste.

« L’I.A fait avancer les diagnostics de maladies, trouve des remèdes, développe de l’énergie propre et renouvelable, aide à assainir l’environnement, fournit de l’éducation de haute qualité pour les peuples du monde entier », a écrit Kurzweil, dans un billet de blogue intitulé Don’t Fear Artificial Intelligence (N’ayez pas peur de l’intelligence artificielle). « Les capacités mentales de pratiquement tout le monde en seront renforcées d’ici une décennie. »

Vide juridique

Déjà, l’I.A. de niveau faible est partout. Mais sommes-nous proches de développer une I.A. de niveau élevé? Pas au point de craindre une prise de contrôle par les robots.

« La majorité des chercheurs qui font réellement des contributions techniques importantes dans l’apprentissage profond ne sont pas du tout inquiets des dangers potentiels d’une superintelligence artificielle », dit le professeur Bengio de l’Université de Montréal. « Ils s’inquiètent plutôt que leurs algorithmes soient trop stupides. »

« Il n’y a pas de preuve que nous progressons de façon exponentielle » ajoute le professeur Prescott de l’Université de Sheffield. « Si vous demandez aux gens qui étudient le cerveau, ils diront que nous ne faisons vraiment qu’effleurer la surface. »

Plusieurs observateurs jugent qu’il y a tout simplement trop de choses à accomplir, compte tenu des capacités actuelles du matériel et des logiciels. L’hypothèse que l’intelligence humaine puisse être reproduite au niveau électronique pourrait s’avérer inexacte. Selon le principal expert en informatique quantique, David Deutsch, nous n’avons même pas de définition viable de l’intelligence, et encore moins une idée claire de la manière de la reproduire.

« En ce moment, nous luttons pour atteindre le niveau d’intelligence que nous voyons dans une fourmi. Je ne crois pas que ça va changer considérablement sous le paradigme actuel », croit pour sa part Jos Vernon directeur au WebSupergoo et un ancien ingénieur du savoir à Londres. « Si ce niveau d’intelligence n’est pas déjà sur votre ordinateur ou votre téléphone, c’est qu’il n’existe pas. »

Le monde juridique, pendant ce temps, n’a porté que très peu d’attention aux avancées et discussions qui animent ce domaine scientifique. Du point de vue politique, certaines juridictions autorisent les voitures autonomes. Et les gouvernements tentent de trouver le juste équilibre réglementaire entre la liberté et la sécurité dans le domaine de la robotique et en particulier des drones non militaires.

De l’autre côté de l’Atlantique, les législateurs européens ont récemment reçu les recommandations du consortium RoboLaw, formé d’experts du droit, du génie et de la philosophie, sur la façon de gérer l’introduction de ces nouvelles technologies dans la société. Le consortium a publié l’an dernier une sorte de feuille de route sur la manière d’encadrer la robotique. Le document s’attarde à une série de questions, dont l’éthique et la responsabilité. Il inclut même une discussion sur la reconnaissance de robots en tant que personnes morales.

Il y a peu de lois et de règlements, cependant, qui portent expressément sur l’I.A. – autres que certaines dispositions de commerce électronique, par exemple, qui permettent à des « agents électroniques » de conclure des contrats.

Des titans de la Silicon Valley ainsi que des entreprises d’I.A. ont entrepris de combler ce vide intellectuel, notamment en aidant les groupes de réflexion et des associations universitaires à explorer non seulement les questions liées aux risques existentiels, mais aussi les préoccupations plus terre-à-terre comme la responsabilité.

Google affirme qu’elle a mis en place un comité d’éthique, apparemment à la demande de DeepMind, pour se pencher sur la technologie émergente.

Le directeur de la recherche chez Microsoft, Eric Horvitz, finance l’étude One Hundred Year sur l’intelligence artificielle à l’Université Stanford. Horvitz, ancien président de l’Association pour la promotion de l’intelligence artificielle (Association for the Advancement or Artificial Intelligence), va contribuer à la sélection d’un panel qui se penchera sur la façon dont l’I.A. aura une incidence sur l’automatisation, la sécurité nationale, la psychologie, l’éthique, le droit, la vie privée, la démocratie et d’autres enjeux de société.

Le Future of Life Institute de Boston est une autre organisation nouvellement formée et dédiée à l’évaluation des menaces et des avantages potentiels de l’I.A. Ce groupe de bénévoles a été cofondé par Max Tegmark de MIT, un cosmologiste qui, avec Stephen Hawking, a lancé des mises en garde à l’effet que l’I.A. pourrait être la dernière invention de l’humanité, sauf si « nous apprenons à éviter les risques ». Le cofondateur Jaan Tallinn a contribué au financement de l’organisation.

« Les choses se passent vraiment rapidement et ça ouvre porte à l’arrivée de machines d’un niveau d’intelligence égal à celle de l’humain durant notre propre existence », a affirmé Tegmark dans une entrevue. « Il est vraiment important de bien faire les choses, et il est temps de commencer à y penser. »

En janvier, le FLI a organisé une conférence (fermée aux médias) afin « d’identifier les axes de recherche prometteurs qui peuvent aider à maximiser les bénéfices futurs de l’I.A., tout en évitant les écueils ». Une lettre ouverte a résulté de la rencontre, signée par de nombreux experts du domaine de l’I.A., et qui réclame des mesures de sécurité accrues pour empêcher l’utilisation abusive de la technologie, et une meilleure compréhension de la façon dont elle aura une incidence sur la société.

Après l’évènement, Elon Musk, qui avec Hawking et les acteurs Morgan Freeman et Alan Alda, siège au conseil consultatif scientifique du FLI, a fait don de 10 millions de dollars pour lancer un programme de recherche globale visant à s’assurer que l’I.A. reste « bénéfique pour l’humanité ».

Max Tegmark de MIT affirme que le FLI a reçu jusqu’ici environ 300 propositions. On ne sait pas dans quelle mesure les soumissions retenues se concentreront davantage sur l’impact des technologies actuelles sur la société, ou sur l’exploration des risques associés à l’I.A. de niveau élevé.

Le programme de Stanford et le FLI font donc partie d’un espace de plus en plus achalandé de think tanks et autres associations qui étudient l’avenir de l’I.A. Plusieurs de ces organisations sont associées à des bailleurs de fonds tels que Jaan Tallinn et des leaders d’opinion comme le professeur Nick Bostrom ou Tegmark.

Pour le moment, ces associations influencent largement le débat sur ces questions relatives à l’I.A. Mais plusieurs observateurs estiment que les gouvernements devront tôt ou tard prendre part à ces discussions. Dans l’attente, les gens sont susceptibles de se protéger contre toutes sortes de risques et de problèmes réels de la bonne vieille manière : en s’assurant que les humains eux-mêmes développent de bons réflexes éthiques.

« Ce n’est pas l’I.A. en elle-même qui est le problème », note Joanna Bryson de l’Université de Bath. Elle soutient que la technologie est tout simplement l’extension de notre propre culture et de nos valeurs. « Nous sommes porteurs à la fois des problèmes et des solutions. L’I.A. améliore les capacités humaines – ce n’est qu’une manière de nous rendre plus intelligents, de nous permettre d’apprendre plus de choses plus rapidement ».

« Nous devons nous attaquer aux problèmes sociaux directement, et non pas transformer l’I.A. en un épouvantail. »