Passer au contenu

L’IA générative en vaut-elle la peine et les risques encourus?

Compte tenu de ses problèmes épineux et persistants, notamment le manque de transparence, certains se demandent si les PDG et les conseils d’administration peuvent faire confiance à l’IA générative.

Skyscrapers against a blue sky
iStock/Chunyip Wong

Les outils d’intelligence artificielle de nouvelle génération comme ChatGPT représentent d’énormes opportunités pour le monde des affaires au Canada et ailleurs.

Mais les PDG et leurs conseils d’administration peuvent-ils lui faire confiance?

Ces programmes, qui peuvent créer du texte, des images, de la musique et des codes en quelques secondes, peuvent rédiger des rapports, composer des chansons et même générer des sites Web.

Certains analystes estiment que l’IA générative pourrait accroître la valeur des entreprises de 4 400 billions de dollars américains chaque an principalement grâce à l’augmentation de la productivité et à la réduction des coûts.

Mais cette nouvelle technologie comporte de nombreux enjeux, comme la production de contenus erronés, l’augmentation des biais et la violation potentielle des lois sur le droit d’auteur et la vie privée. Les applications d’IA générative sont également intrinsèquement opaques, ce qui les rend difficiles à examiner et à corriger lorsque les choses tournent mal.

Certains spécialistes canadiens en gouvernance d’entreprise sont d’avis que les défis de l’IA générative ne sont pas uniques et que les gains potentiels en valent la chandelle. Lui attribuer des tâches appropriées par rapport au risque et l’accompagner d’une supervision adéquate permet l’intégration sécuritaire de ces programmes au sein des entreprises. De plus, la majorité des dirigeants et dirigeantes d’entreprise comprennent que ces outils ne sont pas sans risques et sont réalistes quant à leurs possibilités.

« En fin de compte, ce n’est qu’une technologie de plus qui s’ajoute », explique Andrew MacDougall, associé d’Osler et expert en matière de gouvernance d’entreprise.

« Y a-t-il quelqu’un qui en est responsable Les processus et les procédures sont-ils adéquats? Ce qui importe, c’est que les PDG mettent en place des garde-fous suffisants pour réduire les risques à un niveau acceptable. Pour un PDG, cette situation n’est pas vraiment exceptionnelle ».

Cela dit, les entreprises doivent évaluer la situation au cas par cas.

Trouver le juste milieu entre risque et opportunité est très important, et les gouvernements s’efforcent de formuler des cadres pour réglementer les systèmes d’IA qui sont en constante évolution. En mars, le Parlement européen a adopté la Loi sur l’IA, promulguant ainsi le premier ensemble complet de lois au monde sur l’utilisation de l’IA émanant d’un important organisme de réglementation.

Le Canada et les États-Unis envisagent un cadre juridique qui offrirait des protections sans pour autant freiner l’innovation. Alors que les entreprises américaines continuent de dominer de manière décisive dans ce domaine, avec OpenAI, Google et Meta occupant les premières places, les entreprises canadiennes jouent un rôle prépondérant en termes de contribution à la production de cette technologie. L’IA est une priorité absolue pour le gouvernement Trudeau, avec une récente annonce d’investissement fédéral dans l’infrastructure, la capacité informatique et les mesures de protection du Canada en matière d’IA.

Certains experts informatiques se demandent cependant si les dirigeants et dirigeantes d’entreprise, tant dans le domaine technologique que non technologique, disposent des connaissances et de l’expérience nécessaires pour évaluer les risques de l’IA générative, d’autant plus que ces outils ne sont en circulation que depuis moins de deux ans.

« L’augmentation soudaine de l’étendue et de la capacité de performance a dépassé nos méthodologies d’évaluation actuelles », explique Mohamed Abdalla, professeur spécialisé en IA à l’Université de l’Alberta.

« Nous ne savons pas ce qui constitue de “bonnes mesures d’atténuation de risque”. Nous ne disposons pas encore de mécanismes permettant d’évaluer la fiabilité, l’équité et la sécurité des systèmes d’IA ».

OpenAI a lancé ChatGPT en novembre 2022, atteignant un million d’utilisateurs en seulement cinq jours. Dès lors, les parties concurrentes se sont démenées pour créer des produits similaires. L’IA générative est désormais considérée comme la technologie qui se propage le plus rapidement dans toute l’histoire de l’humanité.

Cependant, il n’existe pas de solution facile à certains des problèmes les plus épineux de l’IA générative, en particulier les hallucinations, des résultats qui semblent très plausibles, livrés avec confiance, mais qui sont complètement faux. La ville de New York a réalisé à quel point cela peut être gênant lorsqu’il a été découvert que son agent conversationnel alimenté par l’IA conseillait les entreprises d’enfreindre la loi.

M. Abdalla dit que malgré le temps et les ressources considérables que les créateurs d’IA générative ont consacrés pour empêcher son utilisation abusive et ses hallucinations, ces problèmes n’ont toujours pas été résolus.

Les entreprises « ne disposent pas d’une méthodologie solide pour garantir de manière fiable un produit stable, prévisible et “sécuritaire” dans tous les contextes, explique-t-il. Il s’agit d’un domaine de recherche actif dont les meilleures pratiques n’ont pas encore été définies. ».

Certains sceptiques affirment que l’IA générative est une technologie naissante, peu fiable et coûteuse qui n’en vaut peut-être pas la peine, l’investissement ou le risque. Après tout, la dernière décennie a vu plusieurs technologies potentiellement « révolutionnaires » s’effondrer après un énorme enthousiasme, notamment les voitures autonomes, le métavers et la chaîne de blocs pour les entreprises.

Une partie du problème réside dans le fait que ces nouveaux modèles ne sont pas conçus pour fournir aux usagers des informations véridiques ou pour parvenir à des conclusions fondées sur la logique ou l’expérience. L’IA générative utilise des algorithmes et de grands modèles de langage pour prédire et générer son produit. Les systèmes ne « pensent » et « n’écrivent » pas d’une manière conventionnelle, même si les réponses semblent très humaines.

« C’est à peu près pourquoi ces grands modèles de langage sont sujets à des hallucinations », a récemment expliqué Yann LeCun, scientifique en chef de l’IA chez Meta et l’un des « parrains de l’IA », devant un auditoire à l’Académie des sciences de New York.

« Ils ne peuvent pas vraiment raisonner; ils ne peuvent pas vraiment planifier. En gros, ils se contentent de générer un mot après l’autre, sans vraiment réfléchir à l’avance au résultat. »

Les modèles fondamentaux de données proviennent de partout sur Internet, ce qui n’est pas toujours sécuritaire et fiable. Certains s’inquiètent même d’un empoisonnement intentionnel des données ou du fait que nous serons à court de données et devrons nous fier à des données provenant de l’IA.

Il y a aussi le problème de la « boîte noire », c’est-à-dire le manque de transparence et d’interprétabilité de l’IA. Les PDG et leurs équipes, même ceux qui ont une formation en génie, ont peu d’espoir de comprendre un jour les résultats de l’IA générative, qui restent souvent un mystère même pour ses créateurs.

Me MacDougall témoigne que l’évaluation des risques liés à l’IA générative figure en tête des priorités des conseils d’administration, notamment en matière de protection de la vie privée.

« C’est l’un des sujets brûlants à chaque réunion du conseil d’administration », confie-t-il.

Cependant, il ne s’attend pas à ce que l’IA générative modifie substantiellement l’assurance de la responsabilité des administrateurs et des dirigeants, connue comme police d’assurance responsabilité A&D, qui couvre le coût des réclamations contre les administrateurs. Certaines entreprises ont signalé l’IA comme un risque potentiel accru.

Et quel est le risque de ne pas adopter la technologie? Attendre d’avoir plus de clarté pourrait s’avérer coûteux pour ceux qui choisissent la voie lente. Microsoft et Google ont enregistré des gains plus élevés que prévu en avril en raison d’une demande plus élevée de services d’IA, notamment l’assistant Copilot AI et l’agent conversationnel Gemini.

On ne sait pas exactement dans quelle mesure les entreprises canadiennes ont adopté l’IA générative. Statistique Canada estime que le taux d’adoption est d’environ 10 pour cent dans l’ensemble, soit près d’une entreprise sur quatre dans les secteurs de l’information et de la culture.

Pourtant, ces outils sont dans le collimateur de la plupart des entreprises canadiennes, en particulier celles du secteur technologique, affirme Sam Ip, associé du groupe Technologique d’Osler et spécialiste en droit de l’IA.

« Presque tous mes clients l’utilisent. »

On ne sait pas non plus combien de travailleurs individuels utilisent ces agents conversationnels, avec ou sans autorisation. Plus tôt cette année, le site d’évaluation des emplois Glassdoor a estimé que 62 % des professionnels utilisaient ChatGPT ou des outils similaires au travail. Certaines entreprises, dont Samsung, ont décidé que les risques n’en valaient tout simplement pas la peine et ont restreint leur utilisation.

De son côté, le gouvernement fédéral canadien a conseillé à ses employés de limiter leur utilisation à des tâches à faibles risques comme le remue-méninge et la rédaction de notes de service, où la fiabilité et la véracité ne sont pas un problème.

Selon son guide sur l’utilisation des outils de l’IA, « les institutions doivent faire preuve de prudence, et évaluer les risques avant de commencer à les utiliser. » Elles devraient également limiter l’utilisation de ces outils aux situations où elles peuvent gérer les risques de façon efficace. »