Le gouvernement britannique est-il prêt à abandonner son approche de la réglementation de l'IA ?
Alors que les travaillistes appellent à l'octroi de licences d'IA, il y a des signes que le gouvernement hésite sur ses plans de contrôle des systèmes automatisés.
Par Ryan Morrisson
L'approche "légère" du gouvernement en matière de réglementation de l'IA n'est "pas à la hauteur de la tâche" selon la secrétaire numérique fantôme du Labour, Lucy Powell, et elle n'est pas la seule à être de cet avis. Le SNP a également appelé à une réunion urgente avec le gouvernement sur la question, et il y a des signes que Whitehall pourrait changer de ton, le Premier ministre Rishi Sunak devant rencontrer demain le président américain Joe Biden pour discuter d'une approche coordonnée de contrôler les grands modèles de langage et d'autres formes d'IA.
Les opinions varient énormément sur la manière de réglementer l'IA et d'atténuer les risques qu'elle présente, tout en évitant de réduire l'impact positif que la technologie peut avoir sur divers secteurs d'activité.
Dans son livre blanc sur l'IA publié plus tôt cette année, le gouvernement britannique a décrit une approche légère qui laisserait essentiellement l'industrie libre de se développer à volonté. Il a proposé que les régulateurs individuels contrôlent les cas les plus «à haut risque» dans leur secteur, plutôt que d'avoir un régulateur global de l'IA, comme cela a été proposé ailleurs dans le monde.
Mais cela est considéré par beaucoup comme une approche très risquée. La Chine a une exigence pour les développeurs de modèles d'IA de base pour s'assurer que la sortie est "conforme aux valeurs chinoises" et l'Europe a des propositions similaires en cours de développement.
La loi sur l'IA de l'UE, la première législation complète sur l'IA au monde, adopte une approche basée sur les risques, en se concentrant sur la fonctionnalité de l'outil d'IA et son potentiel. Cette approche a été conçue avant la montée en puissance des modèles d'IA de base comme GPT-4 et il y a donc maintenant des appels à introduire des mesures plus étendues, y compris des règles de déclaration sur les données de formation et des évaluations des risques de sortie pour s'assurer qu'elle est "conforme aux valeurs européennes".
Les travaillistes appellent à une approche similaire au Royaume-Uni. Cela pourrait inclure l'octroi de licences pour le développement de l'IA, et pas seulement la réglementation de son utilisation. Powell a déclaré qu'il y a "une course mondiale en cours pour être le pays de choix pour la croissance de l'IA, que le Royaume-Uni, avec son secteur leader de l'IA et sa solide réputation en matière de réglementation, est bien placé pour diriger. Mais la stratégie du gouvernement n'est pas à la hauteur de cette tâche, et déjà obsolète après seulement deux mois."
Elle a ajouté que l'IA n'est pas seulement ChatGPT, elle est en développement depuis longtemps et est déjà largement mise en œuvre. "Bien que nous ne puissions pas encore voir toutes ses implications, il est clair qu'elles seront importantes", a déclaré Powell. "Beaucoup d'entre eux seront positifs, améliorant la productivité, les services publics, les découvertes scientifiques, mais ont également le potentiel d'être gravement nocifs s'ils ne sont pas correctement réglementés."
Certains signes indiquent que le gouvernement pourrait hésiter dans sa position dite "pro-innovation". La rencontre de Sunak avec Biden à Washington le verra probablement plaider pour une approche globale de la réglementation de l'IA. Une telle approche globale, affirme-t-on, garantirait des règles du jeu équitables et permettrait aux développeurs de savoir que ce qu'ils construisent serait applicable n'importe où.
Sunak veut positionner le Royaume-Uni au cœur de ce mouvement mondial de réglementation de l'IA, dans l'espoir de transformer l'établissement de normes d'IA en un outil de puissance douce qui aiderait également à vendre le Royaume-Uni comme un endroit où faire des affaires et développer une technologie de pointe. Le problème est que c'est quelque chose que tous les autres pays du monde essaient également de réaliser. Le Japon a récemment annoncé qu'il supprimerait toutes les règles de droit d'auteur du contenu utilisé pour former des modèles afin de stimuler son secteur de l'IA en déclin.
La formation d'une nouvelle organisation mondiale d'IA, semblable à l'Agence internationale de l'énergie atomique, pourrait être le seul moyen pour le Royaume-Uni d'avoir son mot à dire sur les normes internationales. Depuis le Brexit, il a été exclu des forums clés comme le Tech and Trade Council, où des pays comme les États-Unis et le Canada ont commencé à discuter des codes de conduite de l'IA avec l'UE.
La forme que prendra la réglementation finale, ou si elle sera fixée au niveau national ou mondial, dépendra d'une série de négociations avec les entreprises, entre les gouvernements et avec les organisations du troisième secteur. La façon dont cela devrait fonctionner est aussi vivement débattue que la législation elle-même.
Mhairi Aitken de l'Institut Alan Turing s'est dit préoccupé par le changement de langage entourant la réglementation au profit de Big Tech et des grands laboratoires d'IA existants. Sunak a rencontré des chefs de l'industrie de l'IA, dont le PDG d'OpenAI, Sam Altman, la semaine dernière, et Altman a parcouru des pays du monde entier pour rencontrer des décideurs.
Aitken pense que toute licence introduite devrait être indépendante de Big Tech : "Nous avons vu le mois dernier le niveau d'influence que Big Tech a sur la réglementation et la politique", dit-elle, expliquant que le récit autour de l'IA a changé, avec un accent sur les futurs systèmes qui ne sert que de distraction.
"Cela me dérange que ces discussions sur la réglementation ne soient pas centrées sur les voix des communautés touchées", explique Aitken. "Au lieu de cela, ils sont centrés sur les voix de Big Tech dont l'intérêt et la motivation sont de stimuler l'innovation et de gagner de l'argent, plutôt que sur les risques. Ils se concentrent sur les implications hypothétiques plutôt que réelles et les risques rencontrés aujourd'hui."
ForHumanity est une organisation configurée pour octroyer des licences et fournir une certification aux développeurs d'IA. Ce modèle est similaire à celui envisagé par le parti travailliste, et l'organisation crée déjà des certifications et des formations conformément à la loi européenne sur l'IA. Le PDG Ryan Carrier a déclaré à Tech Monitor que tout régime de licence devrait s'appliquer à tous les niveaux et être mis en œuvre par des organisations non gouvernementales tierces.
Il a déclaré que cela devrait également s'appliquer aux petites entreprises, les types "deux personnes construisant une IA dans leur garage", car elles peuvent également créer des outils qui peuvent causer des dommages significatifs. « Nous encourageons les gouvernements à créer des pôles d'innovation qui peuvent produire une gouvernance, une surveillance et une responsabilisation significatives pour de nombreuses PME de manière à effet de levier. La conformité, quelle que soit sa taille, est importante », déclare Carrier.
Pour BCS, le Chartered Institute for IT au Royaume-Uni, la certification et l'octroi de licences sont une bonne idée, mais doivent également être soutenus par un code de conduite solide. "Nous avons déjà demandé un registre des technologues travaillant sur les technologies d'intelligence artificielle dans les 'infrastructures critiques' ou qui 'pourraient potentiellement nuire à la vie humaine'", explique Adam Leon Smith, président du groupe consultatif BCS F-TAG.
"Il est important de comprendre que nous ne pouvons pas nous concentrer uniquement sur la formation des développeurs ou la certification de la technologie", déclare Leon Smith. "Nous devons en fait contrôler attentivement la façon dont nous utilisons l'IA. En effet, les mesures d'atténuation des risques telles que les tests, le consentement éclairé, la surveillance et la surveillance humaines ne peuvent être mises en œuvre qu'avec une compréhension complète du contexte d'utilisation. Cela ne sert à rien réglementant les LLM au-delà des obligations de transparence, réglementez plutôt les personnes qui les mettent en œuvre dans des contextes particuliers."
Il ajoute que les gens veulent réglementer la technologie, mais ce n'est pas la bonne approche. "Premièrement, cela change trop vite, et deuxièmement, c'est le système holistique qui compte", explique-t-il. "En ce qui concerne les domaines critiques pour la sécurité - ce n'est généralement pas une 'partie' ou un 'composant' individuel qui est réglementé - mais le système global."
L'atténuation des risques est l'une des principales raisons de réglementer une telle technologie. C'est quelque chose que les entreprises souhaitent voir se produire car cela rendra le déploiement de la technologie plus sûr. Il est également soutenu par le secteur de l'assurance. Rory Yates, responsable stratégique mondial chez le fournisseur de plateforme d'assurance, EIS, déclare que cela devrait inclure un registre de ceux qui travaillent sur l'IA. "Je pense qu'une approche sensée de la licence ou de la certification est extrêmement bénéfique pour les secteurs hautement réglementés comme l'assurance, d'autant plus qu'ils ont maintenant besoin d'un changement clair dans la façon dont ils assument la responsabilité de leurs clients."
"S'assurer qu'il n'y a que des professionnels accrédités qui développent et utilisent ces technologies sera un moyen de contrôler qui a accès à cette technologie et comment ils l'utilisent. Tout en créant également un marché du travail positif, qui a des normes claires et déterminables pour ce qui est "bien ressemble », a-t-il ajouté.
Tech Monitor a demandé au Labour comment les licences pourraient fonctionner dans la réalité et on lui a répondu qu'un certain nombre d'options étaient envisagées, pas seulement les licences. Le problème est plus qu'il doit y avoir une législation en place et pas seulement une approche légère proposée par les conservateurs, a déclaré un porte-parole du parti.
Comment tirer le meilleur parti des deux mondes dans le cloud hybride