banner
Centre d'Information
Nous nous engageons à respecter nos normes de certification ISO.

Le sommet britannique sur la sécurité de l'IA reçoit le feu vert des géants de la technologie

Jun 11, 2023

Place à un autre forum sur la sécurité de l'IA. Le gouvernement britannique a annoncé qu'il convoquerait cet automne un sommet "mondial" sur l'IA dans le but de convenir de "mesures de sécurité pour évaluer et surveiller les risques les plus importants liés à l'IA", comme l'indique son PR.

On ne sait pas encore qui participera – mais le gouvernement dit qu'il souhaite que la discussion présente "des pays clés, des entreprises technologiques de premier plan et des chercheurs".

"Le sommet, qui se tiendra au Royaume-Uni cet automne, examinera les risques de l'IA, y compris les systèmes frontaliers, et discutera de la manière dont ils peuvent être atténués grâce à une action coordonnée au niveau international. Il fournira également une plate-forme permettant aux pays de travailler ensemble sur d'autres développer une approche commune pour atténuer ces risques », ajoute-t-il.

Le Premier ministre Rishi Sunak est aux États-Unis aujourd'hui où, selon la ligne du gouvernement, il rencontrera le président Biden et fera pression pour un "leadership conjoint" de technologies telles que l'IA, parmi des discussions sur d'autres questions économiquement importantes.

Notamment, le communiqué de presse annonçant l'ambition du Royaume-Uni d'accueillir un sommet mondial sur l'IA regroupe simultanément une revendication distincte, vis-à-vis des "entreprises mondiales développant leur travail sur l'IA au Royaume-Uni", le gouvernement mettant en lumière des développements tels que l'OpenAI ouvrant un bureau à Londres en dernier semaine.

Les relations publiques sont également dominées par des citations en conserve de géants de la technologie et d'entreprises d'IA, comme Google DeepMind, Anthropic, Palantir et Faculty faisant l'éloge du plan du sommet via des déclarations de soutien de cadres supérieurs.

(Pour une saveur de la flatterie de l'industrie intégrée dans les relations publiques du gouvernement, Demis Hassabis de DeepMind proclame que le "Sommet mondial sur la sécurité de l'IA jouera un rôle essentiel en réunissant le gouvernement, l'industrie, le milieu universitaire et la société civile" ; Dario Amodei d'Anthropic félicite le Premier ministre pour "rassembler le monde pour trouver des réponses et avoir des conversations intelligentes" ; et Marc Warner de la Faculté suggère que le Royaume-Uni est "parfaitement placé" pour fournir "un leadership technologique" et "favoriser la collaboration internationale" - alors, euh, passez le seau malade… )

La stratégie pour laquelle le Royaume-Uni semble opter ici est de se positionner comme le meilleur ami de l'industrie de l'IA (ou, eh bien, le larbin) - d'une manière qui pourrait aller à l'encontre des efforts internationaux existants pour convenir de garde-corps significatifs pour l'IA si elle finit par creuser un coin entre la partie américaine et les autres acteurs internationaux.

L'annonce du sommet intervient environ deux semaines après que Sunak a rencontré un certain nombre de dirigeants de la technologie à la tête de géants de l'IA, notamment Amodei d'Anthropic, Hassabis de DeepMind et Sam Altman d'OpenAI. Après quoi, le gouvernement a soudainement commencé à crier sur le risque existentiel de l'IA, dans une répétition claire des préoccupations de science-fiction que les géants de l'IA ont promulguées vis-à-vis des systèmes d'IA "superintelligents" inexistants - dans le but d'encadrer le débat sur l'IA la sécurité en se concentrant sur les risques futurs théoriques - tout en minimisant la discussion sur les dommages réels causés par l'IA ici et maintenant (tels que l'atteinte à la vie privée, les préjugés, la discrimination et la désinformation, la violation du droit d'auteur et les dommages environnementaux, pour n'en nommer que quelques-uns).

La grande tournée européenne de Sam Altman

Dans un autre signe de l'amour somptueux de l'industrie de l'IA pour UK Plc rn, le PDG de Palantir, Alex Karp, a été interviewé ce matin sur AI par l'émission Today de BBC Radio 4, où il a tenu à faire l'éloge de "l'approche pragmatique de la protection des données" du Royaume-Uni. , comme il l'a dit - en comparant favorablement la sous-application des règles de confidentialité au Royaume-Uni à l'application plus stricte du règlement général sur la protection des données par l'UE (qui, en revanche, a rapidement forcé ChatGPT à fournir aux utilisateurs plus d'informations et de contrôles), tout en affirmant qu'il sera "beaucoup plus difficile pour le continent de s'entendre avec de grands modèles linguistiques [que le Royaume-Uni]".

Il reste à voir ce que l'administration Biden pensera du sommet sur la sécurité de l'IA de Sunak. Ou, en effet, si quelqu'un d'important du gouvernement américain sera présent. Mais les géants de l'IA, principalement basés aux États-Unis, brouillent certainement la conversation sur la réglementation de l'IA au-dessus de l'étang.

Les législateurs américains restent préoccupés par le fardeau de la réglementation de l'IA sur l'industrie - et sont manifestement plus réticents à se précipiter avec des garde-corps que, par exemple, leurs homologues de l'Union européenne.

En tant que pays tiers de ces deux côtés, le Royaume-Uni a le choix de décider où jeter son chapeau sur les règles internationales de l'IA. Tous les signes montrent qu'il vise à essayer d'utiliser ce sujet - et les géants américains de l'IA - comme levier stratégique pour se rapprocher des États-Unis, sur la base d'un alignement sur des règles d'IA plus diluées (en supposant que les États-Unis acceptent de jouer à ce jeu ).

Le Royaume-Uni s'est en fait converti tardivement à la discussion sur la manière de réglementer l'IA. Il y a quelques mois à peine, il a publié un livre blanc sur l'IA disant qu'il ne voyait pas la nécessité de nouvelles règles sur mesure ou d'organismes de surveillance pour l'IA - préférant confier la responsabilité aux régulateurs existants surchargés de travail (sans augmenter leurs budgets) en demandant à concevoir et à publier des orientations adaptées au contexte. Le nom de ce livre blanc ? "Une approche pro-innovation de la réglementation de l'IA."

Cela fait également bouger ce sommet sur l'IA à un moment où les gouvernements, les régulateurs et les législateurs du monde entier réagissent déjà à l'alarme croissante concernant les risques de sécurité découlant des technologies d'apprentissage automatique en développement rapide en mobilisant une variété de pistes de discussion et d'initiatives dans le but de décrocher accord international sur les garanties et les normes de sécurité.

L'OCDE a déjà adopté les principes de l'IA en mai 2019. Alors que la FTC a publié des directives sur l'IA en avril 2021. Et même la National Telecommunications and Information Administration (NTIA) du département américain du Commerce a commencé à mener des consultations sur la manière de renforcer la responsabilité de l'IA en avril. . L'ONU se penche également sur l'IA.

Ensuite, il y a le "processus d'Hiroshima" des dirigeants du G7 - une piste récente composée de discussions au niveau du cabinet entre les pays du G7 sur la gouvernance de l'IA qui doit faire rapport d'ici la fin de l'année. Avant cela, les pays du G7 et d'autres avaient lancé le Partenariat mondial sur l'IA, qui vise à promouvoir un développement et une utilisation responsables et centrés sur l'humain en partageant la recherche et en favorisant la collaboration internationale vers une IA digne de confiance.

L'Union européenne, quant à elle, a présenté il y a plus de deux ans son propre projet de loi pour réglementer l'IA. Les législateurs du bloc sont maintenant occupés à trouver un accord sur un texte final de ce cadre – y compris en examinant comment il devrait aborder l'IA générative – avec un accord politique sur la loi européenne sur l'IA recherchée d'ici la fin de cette année. (Bien que la loi paneuropéenne ne soit pas en vigueur avant plusieurs années.)

L'UE et les États-Unis travaillent également (ou du moins discutent) ensemble sur un code de conduite de l'IA qui est conçu comme un ensemble provisoire de normes volontaires jusqu'à ce qu'une législation entre en vigueur - le faisant via un atelier de discussion transatlantique, appelé les États-Unis- Conseil du commerce et de la technologie de l'UE (TTC), un forum auquel le Royaume-Uni n'est pas partie pour avoir quitté l'UE à la suite du référendum sur le Brexit.

La semaine dernière, l'UE a annoncé qu'elle commencerait à rédiger ce code de conduite sur l'IA, affirmant qu'elle espérait avoir quelque chose sur papier d'ici quelques semaines.

Même s'il était moins clair après la réunion du TTC à quel point la partie américaine s'était engagée. Mais les législateurs américains étaient dans la salle pour parler.

Discutant du code de l'IA lors d'un briefing avec des journalistes la semaine dernière, la vice-présidente exécutive de l'UE Margrethe Vestager, qui dirige la stratégie numérique du bloc, a souligné comment cette initiative dirigée par l'UE pourrait, très rapidement, façonner les garde-corps mondiaux de l'IA, déclarant aux journalistes : « Si nous pouvons commencez à rédiger avec les Américains, le reste du G7, des invités et demandez à l'industrie de s'y inscrire - bien sûr aussi pour nous avec une validation par un tiers - alors nous pourrions couvrir un tiers de la population mondiale dans un laps de temps très, très court. Et ça peut être une bonne chose."

Ainsi, le bloc travaille clairement au rythme pour saisir l'opportunité d'appliquer «l'effet Bruxelles» aux règles mondiales de premier ordre en matière d'IA.

Les législateurs de l'UE ont également annoncé récemment une deuxième piste sur la réglementation de l'IA : un pacte sur l'IA qui vise à amener l'industrie technologique à accepter de se conformer volontairement aux dispositions à venir dans la loi sur l'IA de l'UE susmentionnée avant que cette législation n'entre en vigueur (ce qui est susceptible ne sera pas avant 2026, selon Vestager).

Ainsi, l'UE est partout dans la réglementation de l'IA sous plusieurs angles (loi dure, code de l'industrie, code international et un participant clé dans d'autres initiatives mondiales).

Les États-Unis sont également certainement impliqués dans la conversation – bien qu'ils se tiennent à une distance plus froide et gardent leurs cartes plus près de leur poitrine, probablement en raison du lobbying des géants américains de l'IA.

En comparaison, le Royaume-Uni ne fait que tirer sur son pantalon alors qu'il se démène pour rattraper son retard. (Après le début de ses relations publiques avec une affirmation accrocheuse selon laquelle le Royaume-Uni accueillera "le premier grand sommet mondial sur la sécurité de l'IA", il continue de faire semblant de parler en paroles de certains des efforts internationaux existants sur la sécurité de l'IA, au cours des dernières années. années - faisant une mention en passant des "discussions récentes au G7, à l'OCDE et au Partenariat mondial sur l'IA" sur lesquelles cela implique que le sommet britannique s'appuiera. Il n'y a aucune mention des efforts à plusieurs volets de l'UE en matière d'IA ; ' déclarant : "Notre départ de l'UE nous permet également d'agir plus rapidement et avec plus d'agilité en réponse à ce marché en évolution rapide.")

Reste à savoir dans quelle mesure le Royaume-Uni se range du côté de l'industrie américaine de l'IA sur des règles de sécurité intéressées. Mais il y a une opportunité pour Sunak d'enfoncer un coin dans les efforts de l'UE pour amener les Américains dans un code international d'IA plus robuste. D'où toute la flatterie de l'industrie de l'IA.

À la suite de la réunion du TTC entre les législateurs européens et américains, une source de l'UE a déclaré à TechCrunch que les discussions avaient révélé des approches divergentes – affirmant que les États-Unis ne semblaient pas prêts à réglementer, alors qu'ils ont déclaré que le bloc restait attaché à son point de vue établi selon lequel un déploiement responsable de l'IA nécessite une réglementation solide et ambitieuse.

On nous a également dit que l'UE craignait que les discussions sur les principes mondiaux de l'IA ne finissent par se réduire à un plus petit dénominateur commun qui pourrait finir par saper le cadre législatif de la loi sur l'IA basée sur les risques que le bloc a en train.

Il y a donc peut-être plus en jeu et à cheval sur le sommet de l'IA de Sunak qu'il n'y paraît à première vue.

Les législateurs européens et américains s'apprêtent à rédiger rapidement un code de conduite sur l'IA