Passer au contenu

Le droit au diapason de l’intelligence artificielle

ChatGPT et Dall-E : outils qui changent la donne. La profession juridique se doit donc d’intervenir pour contribuer à atténuer les risques croissants que l’intelligence artificielle (IA) pose pour l’intérêt public.

DALL·E A drawing of a lawyer speaking to an AI machine taking notes

Nous constatons souvent que les technologies progressent à un rythme beaucoup plus rapide que les lois qui les régissent. ChatGPT et Dall-E, les inventions les plus récentes en matière d’IA générative, en sont les dernières illustrations et soulèvent des questions difficiles auxquelles le corps législatif devra répondre sans plus tarder. Les deux applications présentent des défis pour le droit canadien actuel.

Au cours des 15 dernières années, le domaine de l’intelligence artificielle et de l’apprentissage automatique a connu une croissance et une évolution considérables. Certains produits sont devenus très connus; Siri ayant pris place dans nos poches, et Alexa sur des étagères partout au pays. Leur utilisation s’est répandue parmi les plus jeunes et plus âgées. Nous nous fions quotidiennement aux algorithmes de Netflix et de YouTube, presque sans soucis. Leur omniprésence ne semble guère mériter un débat à la Chambre des communes. Mais comme le degré de sophistication de ces technologies évolue chaque année de manière exponentielle, nous devons alors examiner le danger qu’elles posent pour l’intérêt public. 

ChatGPT et Dall-E, toutes deux lancées en 2022, pourraient marquer le début d’une nouvelle ère, et il ne tient qu’aux juristes de s’y préparer.

On peut raisonnablement penser que ces deux applications vont révolutionner la façon dont le commun des mortels envisage la technologie et l’intelligence artificielle. ChatGPT est un logiciel de clavardage très sophistiqué qui répond aux sollicitations et aux demandes d’information, tout en apprenant au fil du temps. D’une catégorie à part entière, ce logiciel est capable de produire des dissertations, des nouvelles et des réponses sophistiquées dans le domaine de la recherche. Aucun autre logiciel au monde ne peut produire ce niveau élevé de littératie et cette qualité merveilleuse de recherche que ChatGPT peut générer. Un prototype de l’outil a été lancé en novembre.

Dall-E remplit une fonction similaire, mais il produit des images artificielles. Prononcé « Dolly », Dall-E est un système d’intelligence artificielle à apprentissage profond capable de générer des images créatives originales et détaillées de tout type à partir de simples entrées textuelles. Tout aussi sophistiqué que ChatGPT, ce système peut générer des images originales de style Picasso et Michel-Ange en quelques secondes. Sa version la plus récente a été lancée en juillet 2022.

La nature instantanée et sophistiquée de ces technologies les rend à la fois attrayantes pour une utilisation de masse, mais problématiques sur le plan de la réglementation juridique. Par exemple, elles pourraient exiger une ramification importante du droit pénal. Ces outils pourraient révolutionner la cybercriminalité et exiger une réponse tout aussi novatrice de la part des corps législatifs et réglementaires. Il convient de mentionner que le droit du travail ne sera certainement pas à l’abri des répercussions de ces outils d’intelligence artificielle. Un logiciel d’IA, capable de rédiger des dissertations et d’effectuer des recherches, pourrait provoquer des changements titanesques sur le marché du travail et bouleverser considérablement les arrangements qui ont dominé le domaine jusqu’à présent. Le domaine qui sera sans doute le plus affecté sera celui de la propriété intellectuelle (PI). 

Si ces technologies produisent des images ou des textes qui sont sensiblement similaires à des œuvres existantes protégées par le droit d’auteur, elles pourraient enfreindre les droits d’auteur de ces mêmes œuvres. Il en va de même pour la contrefaçon de marques, où les images et les textes produits par le logiciel pourraient contrevenir aux droits des propriétaires de marques sensiblement similaires. Pour atténuer ces risques, la solution la plus évidente s’avère être de demander l’autorisation de l’auteur original ou de l’auteure originale. Toutefois, cette solution peut se prouver illusoire pour le consommateur qui produit des images, car elle nécessitera beaucoup de temps et d’argent si cette personne à l’intention de stocker ou de produire en masse des textes ou des images.

Une solution plus pratique pourrait être d’élaborer une législation ou une réglementation visant à atténuer le risque dès le départ. Malheureusement, la PI sera probablement loin d’être le seul domaine qui nécessitera une attention législative. La Loi sur la protection des renseignements personnels sera également exposée à de nouveaux risques. Si des images ou des textes générés par l’IA révèlent l’identité de personnes réelles, et que le contenu est partagé ou distribué sans leur consentement, cette diffusion suscitera de vives inquiétudes.

Il sera nécessaire de mettre en place des mesures de protection. Bien que ces nouvelles technologies soient extrêmement prometteuses, elles présentent également des risques de préjudices extrêmes, des préjudices qui vont probablement bien au-delà de ce que nous pouvons actuellement concevoir. Nous nous trouvons devant la nécessité de mettre en place des mesures de contrôle appropriées pour empêcher l’utilisation abusive de ces nouvelles technologies. 

Nous ne prétendons pas avoir toutes les réponses. Notre intention est simplement de sensibiliser la population à ces technologies infiniment itératives et sans précédent et aux risques qu’elles posent pour l’intérêt public. Ces initiatives se feront inévitablement ressentir dans la pratique du droit. Toutefois, il n’est pas si certain que le droit substantiel s’adaptera pour répondre aux nouveaux risques, à moins que nous ne choisissions de le faire. En tant que juristes, nous avons l’obligation déontologique et professionnelle de réfléchir aux menaces posées par les technologies mondiales dangereuses et d’examiner attentivement les moyens de les contrer.

Un bon point de départ consiste à intégrer dans nos lois des éléments consacrés à la transparence, la responsabilité, la sécurité, l’équité et la surveillance humaine. Au fur et à mesure des progrès technologiques, d’autres besoins seront à découvrir.

Il est également essentiel de tenir compte du contexte et des objectifs propres au système d’IA concerné lors de l’élaboration des cadres juridiques destinés à le réglementer. Par exemple, le cadre juridique de la réglementation de l’IA dans le secteur de la santé peut être différent de celui de la réglementation de l’IA dans le secteur financier. Cependant, lorsqu’il s’agit de produits de consommation destinés au public, tels que les services permettant de générer des textes et des images, des mesures de protection générales devraient être assurées par la loi afin de protéger l’intérêt public. 

Comme dans tous les domaines du droit, il n’y a pas de réponse unique à la façon par laquelle nous devrions traiter la réglementation des circonstances uniques. Cependant, en tant que juristes, nous devons protéger l’intérêt public, et ce, en temps opportun. Nous devons prévoir la manière dont l’IA affectera le public et ce qu’il convient de faire dans l’immédiat. Nous devons anticiper les risques et nous efforcer de les réduire dès maintenant. Nous n’accomplirons pas notre rôle de protection de l’intérêt public en nous contentant d’observer et d’attendre. 

Il est à nouveau temps pour la profession juridique de se mobiliser. Il ne s’agit pas d’un problème mineur. Aussi sophistiquées que soient les technologies d’IA d’aujourd’hui, ce n’est rien en comparaison de celles qui apparaîtront dans un proche avenir. Le taux de croissance de ces technologies est exponentiel. 

Nous avons besoin de groupes de pression et de groupes de réflexion juridiques pour examiner ces risques et mobiliser des spécialistes du domaine technique, de l’apprentissage automatique et de la programmation dans notre recherche de solutions. Nous devons donc agir en dehors de notre champ d’expertise. 

Les juristes préoccupés par l’IA devraient se poser les trois questions suivantes : 

Comment les changements apportés au droit substantiel devraient-ils protéger l’intérêt public sur le plan des technologies de l’IA? Comment la pratique du droit va-t-elle changer et nous obliger à nous adapter avant que cela ne se produise? Et quels autres risques auxquels nous n’avons pas encore pensé, les outils d’intelligence artificielle pourraient-ils poser au public?