Répercussions et défis de l’intelligence artificielle pour le travail des ombudsmans parlementaires au Canada
En quelques années seulement, l’intérêt et les préoccupations du public à l’égard de l’intelligence artificielle (IA) ont explosé. L’évolution rapide de ce domaine et l’émergence d’outils d’IA qui semblent remettre en question la nature même de l’expérience humaine ont mené à un discours public sur la possibilité d’un bouleversement pour la société d’une ampleur comparable à la révolution industrielle, voire plus grande. Les discussions entre les ombudsmans, les commissaires à l’information et à la protection de la vie privée et d’autres intervenants dans les organes de contrôle et de responsabilisation de la gouvernance parlementaire ou concernés par ces organes ont permis de relever certains des défis et des répercussions que représente la technologie émergente de l’IA. Dans cet article, l’auteur examine certaines des préoccupations de ces intervenants lorsqu’il s’agit de réglementer l’utilisation de l’IA dans la conception des services du secteur public. Il cite le manque de transparence, le risque de partialité et de manquements à l’éthique, l’insuffisance des règles sur la collecte et la gestion des données, les problèmes de protection de la vie privée et l’équité des critères d’admissibilité aux programmes publics influencés par l’IA comme autant de domaines nécessitant une enquête et la prise de mesures de la part des organes décisionnels parlementaires. Il conclut en invitant les gouvernements à agir rapidement pour protéger les personnes contre le risque de nuisance de l’IA, tout en réfléchissant à la manière d’en exploiter les avantages possibles.
Jay Chalke
En 2019, le bureau de l’ombudsman de la Colombie-Britannique a organisé un symposium au cours duquel des universitaires, des ombudsmans de tout le Canada, des dirigeants autochtones, des hauts fonctionnaires et des étudiants ont été invités à se pencher sur l’avenir du travail d’ombudsman parlementaire dans le contexte d’un large éventail de sujets. Les discussions sur les questions relatives au travail d’ombudsman à l’ère numérique, par exemple, ont porté sur les défis de la surveillance, de la gouvernance et de la responsabilité de la prise de décision ainsi que de l’équité, qui sont liés à l’émergence de l’intelligence artificielle (IA) dans la conception des services du secteur public.
Les discussions qui ont eu lieu lors du symposium ont stimulé l’approfondissement de la question de l’IA. En juin 2021, nous avons publié, avec le commissaire à l’information et à la protection de la vie privée de la Colombie-Britannique et l’ombudsman et commissaire à l’information et à la protection de la vie privée du Yukon, un rapport intitulé Getting Ahead of the Curve: Meeting the challenges to privacy and fairness arising from the use of artificial intelligence in the public sector1 [disponible en anglais seulement].
Au cours des deux années qui ont suivi la publication du rapport, la présence et l’utilisation de l’IA se sont accrues de manière exponentielle, et son application est considérablement plus perfectionnée. Les mises en garde et les craintes concernant son utilisation non réglementée dans le monde numérique se sont également multipliées. Chaque jour, les Canadiens sont soumis – à parts égales – à diverses promesses et mises en garde concernant les possibilités et les pièges associés aux développements de l’intelligence artificielle.
Les gouvernements et les organisations mondiales cherchent un équilibre complexe entre les avantages économiques attendus de l’IA et une prise de conscience croissante du risque de préjudice social qu’elle représente. Ils s’efforcent d’identifier et de traiter les risques liés à l’IA tout en reconnaissant les gains d’efficacité possibles dans la prestation des services publics. Le gouvernement du Canada a publié Utilisation responsable de l’intelligence artificielle (IA)2 pour guider son utilisation de l’IA dans la prestation des services publics. Cet ensemble de documents comprend une Directive sur la prise de décisions automatisée destinée à garantir la transparence, la responsabilité et l’équité, en particulier lors de l’utilisation de l’outil d’évaluation de l’incidence algorithmique. Le gouvernement du Canada a également présenté la Loi sur l’intelligence artificielle et les données3 (projet de loi C-27). La Loi « protéger[a] les Canadiens [et] assurera le développement d’une IA responsable au Canada […] ».
De même, l’Union européenne a élaboré une loi sur l’intelligence artificielle4 et une proposition de règlement5 qui harmoniseront les règles relatives à l’intelligence artificielle. Les États membres de l’UNESCO ont adopté le tout premier accord mondial sur l’éthique de l’IA, décrit comme un instrument qui « permettra non seulement de protéger mais aussi de promouvoir les droits de l’homme et la dignité humaine, et constituera une boussole éthique et un socle normatif mondial permettant d’instaurer un solide respect de l’État de droit dans le monde numérique6_».
Pour le travail des ombudsmans, les répercussions de l’IA dans la prestation de services publics sont importantes. La capacité des systèmes réglementaires à suivre le rythme des innovations en matière d’IA, le manque de transparence du processus décisionnel inhérent à l’IA, ainsi que les préjugés intrinsèques et les normes éthiques suscitent des inquiétudes. En outre, des questions relatives aux processus de collecte, de stockage et de gestion des données, à la protection rigoureuse de la vie privée et aux répercussions des critères d’admissibilité aux programmes publics fondés sur des règles se posent. Tous ces problèmes sont exacerbés par l’instabilité du terrain de l’IA lui-même. Des changements rapides sont à l’origine de ce qui apparaît souvent comme des réponses politiques capricieuses ou, au mieux, précipitées. Le rythme de l’évolution de l’IA a créé un état déplorable et apparemment inévitable de « jeu du chat et de la souris » bureaucratique.
Défis d’ordre réglementaire
Il existe des principes clairs de droit administratif en matière d’équité procédurale, de droit d’être entendu, de droit à une prise de décision impartiale, de droit d’être informé des raisons d’une décision et de possibilité de réexamen. L’absence de l’un ou l’autre de ces éléments est un motif fréquent de plaintes auprès de l’ombudsman. L’intervention réglementaire est nécessaire, mais la réglementation est souvent considérée comme un obstacle à l’innovation. Le défi consiste à déterminer la manière d’adapter ou de moderniser les instruments réglementaires existants pour tenir compte des préoccupations nouvelles et émergentes suscitées par l’utilisation de l’IA par les pouvoirs publics. L’automatisation croissante de la prise de décision gouvernementale compromet l’applicabilité ou l’utilité des règlements existants ou des règles de droit commun établies qui permettraient de répondre de manière satisfaisante aux critiques concernant ces décisions.
La dernière Directive sur la prise de décisions automatisée du gouvernement fédéral est la troisième tentative du gouvernement pour suivre l’évolution rapide de l’IA. Certains des changements les plus récents sont similaires aux recommandations que nous avons adressées aux gouvernements de la Colombie-Britannique et du Yukon dans le document intitulé Getting Ahead of the Curve. Malgré ces progrès, la surveillance et l’application de la directive restent un problème.
À des fins de conformité, les pouvoirs publics et le secteur privé devraient être tenus d’évaluer l’incidence de la technologie de l’IA sur la vie privée avant de la mettre en œuvre. Cette obligation devrait être permanente et vérifiable au moyen d’audits proactifs réalisés par les organismes de réglementation une fois la technologie déployée. Certains contrôles et obligations sont déjà prévus par la loi, comme la nécessité de réaliser des évaluations des facteurs relatifs à la vie privée (EFVP) avant la mise en œuvre d’un processus nouveau ou révisé.
Les règlements, les modèles et les outils d’EFVP devront peut-être être conçus pour répondre aux préoccupations propres à l’IA; il faudrait peut-être proposer une évaluation des facteurs relatifs à la vie privée et l’équité de l’intelligence artificielle (EFVPEIA) et inclure les conditions qui déclenchent l’obligation de réaliser une EFVP sur les systèmes qui exploitent l’IA pour traiter les renseignements personnels et des règles claires sur le moment où une EFVPEIA doit être réalisée. Le processus devrait inclure l’obligation de procéder à des évaluations des risques liés aux menaces pour la sécurité et intégrer des éléments d’évaluation de l’incidence algorithmique propres aux systèmes de prise de décisions automatisée et à leur traitement de l’information à caractère personnel. Le processus devrait également exiger la transparence et rendre obligatoire l’examen des EFVPEIA par les organismes de surveillance compétents.
En outre, pour suivre l’évolution de la technologie et la rapidité avec laquelle des changements importants y sont apportés, et tenir compte de leur incidence sur la société, les délais d’examen de la loi doivent être suffisamment courts. En fonction de la rapidité de l’évolution de la technologie, les gouvernements pourraient être amenés à envisager des modèles continus d’élaboration de lois comme solution pour faire face à des changements aussi rapides.
Absence de transparence
Lors du symposium de 2019, l’ancien ombudsman du Nouveau-Brunswick, Charles Murray, a présenté l’exemple d’une expérience menée par le laboratoire de recherche en IA de Facebook sur les négociations entre robots concernant la propriété d’objets virtuels. Au fur et à mesure des négociations, les robots ont fait dériver de manière apparemment absurde le langage humain, le rendant inintelligible pour les humains chargés de l’expérience. Bien qu’aucun effort délibéré de tromperie ou d’évasion n’ait été programmé dans les robots, ce qui est remarquable, c’est l’utilisation stratégique de la tromperie par les robots pour maximiser la réalisation de leurs objectifs. L’aspect le plus révélateur et le plus significatif de l’expérience est que les humains ont été incapables de comprendre ce qui sous-tendait les négociations et, en fin de compte, sur quoi portaient réellement les négociations.
Le public doit pouvoir comprendre les raisons d’une décision administrative. Si les raisons d’une décision ne peuvent être connues de la personne concernée, comment peut-on s’attendre à ce qu’elle l’accepte? Comment la personne peut-elle alors justifier une demande de révision de la décision? Si elle ne peut discerner les facteurs pris en compte, ainsi que leur pondération et leur analyse, comment peut-elle formuler un argument raisonnable pour contester la décision? D’ailleurs, comment un membre de l’organe d’appel pourrait-il examiner de manière crédible les arguments présentés?
Cette opacité a des conséquences évidentes pour l’ombudsman. Lorsque notre capacité à discerner l’équité des processus est entravée par l’inaccessibilité des intrants ou du code de programmation, nous sommes limités à l’évaluation des seuls résultats. S’il existe des preuves que les robots semblent capables de faire preuve de nuance avec la pratique – par exemple, un rapport indique que des robots ont appris à feindre d’avoir de l’intérêt pour un objet virtuel afin de pouvoir l’utiliser comme concession dans le but d’obtenir un objet de plus grande valeur –, ce qui manque, c’est la capacité de programmer les robots de manière à ce qu’ils aient un sens moral. En effet, même si cela était possible, des questions inévitables se poseraient sur les normes morales sélectionnées pour orienter le codage.
Préjugés et préoccupations éthiques
L’IA est souvent présentée comme un outil de prise de décision rapide, efficace et objectif pour les organes administratifs et même les tribunaux. Ses partisans la voient comme un mécanisme de renforcement de l’équité en raison de la rapidité avec laquelle elle peut examiner et évaluer de grands volumes de données, sans se soucier du fait que cela peut se produire dans un environnement où l’on a des préjugés, où l’on est partial et où l’on a des partis pris inhérents. Certains d’entre eux sont convaincus que cette influence déraisonnable n’existe pas ou qu’elle peut être éliminée ou atténuée par d’autres facteurs au fil du temps. D’autres pensent que nous pouvons compter sur des mécanismes d’examen externes pour remédier aux conséquences préjudiciables sur un nombre relativement faible de personnes concernées. Dans cette version, l’IA est utilitaire; elle représente une solution numérique au « dilemme du tramway ». Elle serait utilisée pour évaluer l’information de manière impartiale et prendre des décisions fondées uniquement sur les « faits », sans considérations extérieures désordonnées telles que l’empathie, la moralité ou la myriade de circonstances atténuantes qui pourraient influencer les décisions et qui le font actuellement.
Cependant, de nombreux éléments viennent contredire la prétendue impartialité de l’IA. En fait, le mythe de la neutralité de l’IA a été réfuté à maintes reprises. L’IA s’appuie sur des algorithmes qui reposent sur des ensembles de données spécifiques et sur l’apprentissage automatique pour stimuler l’action et les décisions. Cependant, comme nous le savons depuis l’ancien principe « à données inexactes, résultats erronés », l’IA n’est neutre que dans la mesure où ses intrants le sont. Les algorithmes utilisés peuvent, par inadvertance, intégrer des préférences, des préjugés, voire des erreurs. Cette faille possible devrait soulever des questions quant à l’efficacité de ce que certains ont appelé l’automatisation des processus décisionnels, en particulier lorsque les enjeux sont importants pour les personnes concernées et pourraient avoir une incidence sur leur liberté, leur situation financière ou leurs droits.
Collecte des données
En 2017, IBM estimait que la très grande majorité (90 %) des données dans le monde avaient été créées au cours des deux années précédentes. Le Forum économique mondial a transformé cette estimation en un graphique simple, mais stupéfiant (fig. 1)7. On peut supposer que la quantité de données créées depuis cette estimation a progressivement réduit la portion déjà mince des données historiques.
Malgré la pléthore de données détenues par de nombreuses organisations publiques et privées, notre capacité à organiser, à gérer et à protéger les données n’a pas suivi notre formidable capacité de production et de collecte de données. En outre, la collecte de données, en particulier dans la conception de réseaux, est souvent considérée comme une tâche technique ou mécanique plutôt que comme une tâche nécessitant une compréhension globale des propriétés des données en matière d’éthique, de respect de la vie privée, de politique et de gouvernance.
Questions liées à la protection de la vie privée
L’utilisation de données biométriques fondée sur l’IA par les pouvoirs publics continue de susciter l’attention du public ainsi que des critiques. La nature sensible de ce type de renseignements personnels soulève d’importantes préoccupations en matière de respect de la vie privée. Toutefois, contrairement à d’autres états où les lois sur la protection de la vie privée ont été récemment modernisées, il n’existe actuellement au Canada aucune loi en vigueur qui traite des droits ou des obligations directement liés à l’IA. Sur le plan fédéral, le projet de loi C-27 (Loi de 2022 sur la mise en œuvre de la Charte du numérique) a été déposé en novembre 2022, mais n’a pas encore force de loi.
Une interprétation moderne du droit à la vie privée en tant que droit de la personne est nécessaire à l’exercice des autres droits fondamentaux. Au minimum, la loi sur la protection de la vie privée devrait être modifiée pour inclure le droit d’être informé de l’utilisation de l’IA, une explication des raisons et des critères utilisés, et la possibilité de s’opposer à l’utilisation de systèmes de prise de décisions automatisée ou de se soustraire à ces systèmes.
La technologie de reconnaissance faciale est une forme de biométrie qui permet d’identifier ou d’authentifier des personnes en comparant leurs traits faciaux à une base de données de visages connus afin de trouver une correspondance. Le procédé comprend trois étapes. Tout d’abord, l’ordinateur recherche les traits du visage dans une image numérique, une trame vidéo ou une autre représentation. Il crée ensuite une représentation numérique du visage d’après la position, la taille et la forme relatives des traits faciaux. Enfin, cette « carte » numérique du visage représenté sur l’image est comparée avec une base de données de visages identifiés, par exemple celle des titulaires de permis de conduire.
En ce qui concerne l’utilisation d’une base de données de permis de conduire pour faciliter la technologie de reconnaissance faciale, l’Insurance Corporation of British Columbia (ICBC) avait déjà proposé d’utiliser sa base de données de reconnaissance faciale de photos de permis de conduire pour aider les organismes d’application de la loi à identifier les personnes soupçonnées d’avoir commis un délit. L’ICBC a notamment proposé d’utiliser sa base de données de reconnaissance faciale pour aider la police de Vancouver à identifier les suspects des émeutes de la Coupe Stanley en 2011. Le commissaire à l’information et à la protection de la vie privée de la Colombie-Britannique a enquêté sur cette affaire et a conclu que l’utilisation déclarée de la technologie de reconnaissance faciale par l’ICBC – pour lutter contre la fraude relative aux permis de conduire – ne l’autorisait pas à utiliser cette base de données à des fins accessoires d’application de la loi sans mandat ou ordonnance du tribunal.
La collecte et l’utilisation de données biométriques à mauvais escient soulèvent d’importantes préoccupations en matière de respect de la vie privée des citoyens. Il convient également de noter que la nature même du fonctionnement de la biométrie constitue une menace pour la vie privée. La Cour suprême du Canada, dans l’affaire R. c. Jarvis (2019), a reconnu que les gens ont une attente raisonnable de protection en matière de vie privée, même dans les lieux publics. Le simple fait de franchir le seuil de sa porte d’entrée ne supprime pas ces attentes. Par exemple, si la plupart des clients d’une banque s’attendent raisonnablement à être enregistrés lorsqu’ils effectuent une transaction à l’intérieur, ils ne consentent pas nécessairement à ce que d’autres données biométriques soient recueillies lorsqu’ils touchent simplement la poignée de la porte d’entrée de la banque. De même, la technologie de reconnaissance faciale est exploitée dans des lieux publics d’une manière qui peut porter atteinte aux attentes raisonnables du public en matière de protection de la vie privée. Les conditions générales de service qui régissent le consentement numérique sont absentes. Souvent, nous ne savons pas que nous sommes observés ou enregistrés, comment et pourquoi nous le sommes, quelles données biométriques ou autres informations sont recueillies dans le cadre de ce processus et comment elles sont utilisées.
L’incidence sur l’admissibilité aux programmes publics
L’essor de l’État-providence moderne au cours des 70 dernières années repose sur un équilibre entre l’établissement de critères ou de règles d’admissibilité aux programmes publics par des institutions démocratiques, l’application de ces critères par des administrateurs publics et la réalisation d’examens par des organes de contrôle, soit des cours, des tribunaux et des ombudsmans.
À ce jour, l’IA a surtout été déployée pour aider et, dans certains cas, remplacer efficacement les administrateurs dans l’application des critères établis par les législateurs ou les décideurs subordonnés. Mais l’IA menace d’intervenir plus tôt dans le processus. Et si, au lieu de critères d’admissibilité, l’IA devait simplement administrer une somme de fonds publics pour un programme social ou un résultat particulier et qu’elle pouvait en déterminer les règles? Et si ces règles étaient toujours fluides, guidées par les résultats et les expériences de chaque décision?
Les répercussions pour la démocratie et l’État de droit sont évidentes, mais il est impossible d’exclure entièrement qu’un tel scénario se produise dans 10 ou 20 ans. Il est temps de se demander si nous voulons que l’IA ait cet effet sur nos institutions démocratiques et, il faut le dire, neutralise leurs capacités de surveillance.
Conclusion
Lorsque le sujet de l’IA dans la prestation de services publics a été abordé lors du symposium de 2019, le débat public sur cette perspective était embryonnaire. Lorsque le rapport conjoint Getting Ahead of the Curve a été publié en ٢٠٢١, la prise de conscience du public s’est manifestée par des articles occasionnels dans les médias grand public. Depuis l’introduction de GPT-٤ au début de ٢٠٢٣, le discours public a augmenté à un rythme comparable à celui de la création de données signalé par IBM en ٢٠١٧. La capacité du robot conversationnel d’Open AI à communiquer de manière convaincante et apparemment raisonnée semble avoir attiré l’attention du public. La possibilité que l’IA puisse reproduire de manière plus efficace et plus cohérente le raisonnement humain – et par conséquent le remplacer – semble toucher au cœur de la nature de l’être humain. Si l’on ajoute à cela l’étonnante capacité de GPT-٤ à communiquer de manière naturelle, il pourrait sembler qu’il ne reste plus grandchose à faire aux administrateurs publics dans leurs interactions avec le public.
L’attrait de l’IA pour la prestation de services publics est compréhensible, mais les risques semblent ne pas avoir été pris en compte. Les pouvoirs publics n’ont presque pas agi pour protéger les citoyens qui seront inévitablement touchés par les innombrables exploitations de l’IA que l’on peut imaginer. Si les gouvernements n’adoptent pas une norme qui préserve les principes de respect de la vie privée et d’équité dans le développement des systèmes d’IA, ils s’exposeront, ainsi que le public qu’ils servent, à des risques et à des préjudices qu’il sera bien plus difficile de réparer que de prévenir.
Notes
1 https://bcombudsperson.ca/assets/media/OMB-GettingAheadoftheCurve-v6.pdf
2 https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai.html
3 https://ised-isde.canada.ca/site/innover-meilleur-canada/fr/loi-lintelligence-artificielle-donnees
4 https://artificialintelligenceact.eu/
5 https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=celex%3A52021PC0206
6 https://unesdoc.unesco.org/ark:/48223/pf0000381137_fre
7 https://www.weforum.org/agenda/2019/08/artificial-intelligence-government-public-sector/