Le secteur public britannique utilise déjà l'IA plus que vous ne le pensez
Professeur de droit économique et codirecteur du Centre for Global Law and Innovation, Université de Bristol
Albert Sanchez-Graells a reçu un financement de la British Academy. Il est l'un des boursiers de mi-carrière 2022 de l'Académie (MCFSS22 \ 220033, 127 125,58 £). Ses recherches et ses opinions ne sont cependant pas attribuables à la British Academy.
L'Université de Bristol fournit un financement en tant que partenaire fondateur de The Conversation UK.
Voir tous les partenaires
L'essor rapide des produits d'intelligence artificielle (IA) comme l'outil de génération de texte ChatGPT inquiète les politiciens, les leaders technologiques, les artistes et les chercheurs. Pendant ce temps, les partisans affirment que l'IA pourrait améliorer la vie dans des domaines tels que la santé, l'éducation et l'énergie durable.
Le gouvernement britannique tient à intégrer l'IA dans ses opérations quotidiennes et a défini une stratégie nationale pour y parvenir en 2021. L'objectif, selon la stratégie, est de "prendre le devant et de donner l'exemple dans le déploiement sûr et éthique de l'IA".
L'IA n'est pas sans risques, notamment en ce qui concerne les droits individuels et la discrimination. Ce sont des risques dont le gouvernement est conscient, mais un récent livre blanc politique montre que le gouvernement est réticent à renforcer la réglementation sur l'IA. Il est difficile d'imaginer comment un "déploiement sûr et éthique" peut être réalisé sans cela.
Des preuves provenant d'autres pays montrent les inconvénients de l'utilisation de l'IA dans le secteur public. Beaucoup aux Pays-Bas sont encore sous le choc d'un scandale lié à l'utilisation de l'apprentissage automatique pour détecter la fraude à l'aide sociale. Il a été découvert que des algorithmes avaient faussement accusé des milliers de parents de fraude aux allocations familiales. Des villes à travers le pays utiliseraient encore cette technologie pour cibler les quartiers à faible revenu dans le cadre d'enquêtes sur les fraudes, avec des conséquences dévastatrices pour le bien-être des gens.
Une enquête en Espagne a révélé des lacunes dans le logiciel utilisé pour déterminer si des personnes commettaient des fraudes en matière d'indemnités de maladie. Et en Italie, un algorithme défectueux a exclu les enseignants qualifiés indispensables des emplois ouverts. Il a entièrement rejeté leurs CV après les avoir considérés pour un seul emploi, plutôt que de les faire correspondre à une autre ouverture appropriée.
La dépendance du secteur public à l'égard de l'IA pourrait également entraîner des risques de cybersécurité ou des vulnérabilités dans les infrastructures critiques soutenant le NHS et d'autres services publics essentiels.
Compte tenu de ces risques, il est crucial que les citoyens puissent faire confiance au gouvernement pour être transparent quant à leur utilisation de l'IA. Mais le gouvernement est généralement très lent ou peu disposé à divulguer des détails à ce sujet – ce que la commission parlementaire sur les normes dans la vie publique a fortement critiqué.
Le Centre gouvernemental pour l'éthique et l'innovation des données a recommandé de rendre publiques toutes les utilisations de l'IA dans les décisions importantes qui affectent les gens. Le gouvernement a ensuite développé l'une des premières normes de transparence algorithmique au monde, pour encourager les organisations à divulguer au public des informations sur leur utilisation des outils d'IA et leur fonctionnement. Une partie de cela implique l'enregistrement des informations dans un référentiel central.
Cependant, le gouvernement a rendu son utilisation volontaire. Jusqu'à présent, seules six organisations du secteur public ont divulgué des détails sur leur utilisation de l'IA.
L'association caritative Public Law Project a récemment lancé une base de données montrant que l'utilisation de l'IA dans le secteur public britannique est beaucoup plus répandue que ne le montrent les révélations officielles. Grâce aux demandes d'accès à l'information, le registre de suivi automatisé du gouvernement (TAG) a, jusqu'à présent, suivi 42 instances du secteur public utilisant l'IA.
De nombreux outils sont liés à la détection des fraudes et à la prise de décision en matière d'immigration, y compris la détection des mariages fictifs ou des fraudes contre les deniers publics. Près de la moitié des conseils locaux du Royaume-Uni utilisent également l'IA pour donner la priorité à l'accès aux allocations de logement.
Les agents pénitentiaires utilisent des algorithmes pour classer les détenus nouvellement condamnés dans des catégories à risque. Plusieurs forces de police utilisent l'IA pour attribuer des scores de risque similaires ou testent la reconnaissance faciale basée sur l'IA.
Le fait que le registre TAG ait rendu public l'utilisation de l'IA dans le secteur public ne signifie pas nécessairement que les outils sont nuisibles. Mais dans la plupart des cas, la base de données ajoute cette note : "L'organisme public n'a pas divulgué suffisamment d'informations pour permettre une bonne compréhension des risques spécifiques posés par cet outil." Les personnes concernées par ces décisions peuvent difficilement être en mesure de les contester s'il n'est pas clair que l'IA est utilisée, ou comment.
En vertu de la loi sur la protection des données de 2018, les personnes ont le droit d'obtenir une explication sur la prise de décision automatisée qui a des effets juridiques ou similaires sur elles. Mais le gouvernement propose également de réduire ces droits. Et même dans leur forme actuelle, ils ne suffisent pas à faire face aux impacts sociaux plus larges de la prise de décision algorithmique discriminatoire.
Le gouvernement a détaillé son approche "pro-innovation" de la réglementation de l'IA dans un livre blanc, publié en mars 2023, qui définit cinq principes de réglementation de l'IA, notamment la sécurité, la transparence et l'équité.
Le document a confirmé que le gouvernement ne prévoyait pas de créer un nouveau régulateur de l'IA et qu'il n'y aurait pas de nouvelle législation sur l'IA de sitôt, chargeant plutôt les régulateurs existants d'élaborer des directives plus détaillées.
Et bien que seulement six organisations l'utilisent jusqu'à présent, le gouvernement n'a pas l'intention d'imposer l'utilisation de la norme de transparence et du référentiel central qu'il a développé. Il n'est pas non plus prévu d'exiger des organismes du secteur public qu'ils demandent une licence pour utiliser l'IA.
Sans transparence ni réglementation, les utilisations dangereuses et contraires à l'éthique de l'IA seront difficiles à identifier et ne seront probablement révélées qu'après avoir déjà fait du mal. Et sans droits supplémentaires pour les personnes, il sera également difficile de repousser l'utilisation de l'IA par le secteur public ou de réclamer une indemnisation.
Lire la suite: Le Royaume-Uni risque de perdre la croissance de la haute technologie s'il échoue sur la réglementation de l'IA
En termes simples, l'approche pro-innovation du gouvernement en matière d'IA n'inclut aucun outil pour s'assurer qu'il remplira sa mission de « diriger du front et de donner l'exemple dans le déploiement sûr et éthique de l'IA », malgré l'affirmation du Premier ministre selon laquelle le Le Royaume-Uni mènera sur des "garde-fous" pour limiter les dangers de l'IA.
Les enjeux sont trop importants pour que les citoyens fondent leurs espoirs sur le secteur public s'autorégulant ou imposant des exigences de sécurité et de transparence aux entreprises technologiques.
À mon avis, un gouvernement engagé dans une bonne gouvernance de l'IA créerait une autorité dédiée et dotée de ressources suffisantes pour superviser l'utilisation de l'IA dans le secteur public. La société peut difficilement donner un chèque en blanc au gouvernement pour qu'il utilise l'IA comme bon lui semble. C'est pourtant ce que le gouvernement semble attendre.
Le secteur public britannique utilise déjà l'IA plus que vous ne le pensez - sans surveillance, il est impossible de comprendre les risques