Aux États-Unis, l’État de Californie, berceau mondial du développement de la tech, pourrait voter une loi visant à réguler les puissants modèles d’intelligence artificielle (IA). Ce projet de loi, bien que largement amendé, continue à faire grincer des dents de certains élus et des entreprises comme OpenAI ou Anthropic. Ces dernières craignent que l’innovation dans ce domaine soit bridée. Après avoir été approuvé par le Sénat, le texte devrait être soumis au vote de l’Assemblée californienne cette semaine.
« S’ils ne sont pas correctement soumis aux contrôles humains, les prochains développements de l’intelligence artificielle pourraient être utilisés pour créer de nouvelles menaces à la sûreté et à la sécurité publiques, en permettant notamment la création et la prolifération d’armes de destruction massive, telles que des armes biologiques, chimiques et nucléaires. » Cette phrase qui fait froid dans le dos figure dans l’un des tout premiers paragraphes du texte « SB-1047 » (SB pour Senate Bill, projet de loi du Sénat).
Le texte porte sur « l’innovation sûre et sécurisée des modèles d’intelligence artificielle de pointe (Safe and Secure Innovation for Frontier Artificial Intelligence Models Act) ». Il ambitionne de réguler l’IA générative, c’est-à-dire les outils permettant de créer des contenus comme des textes ou des images sur simple requête en langage courant. Mais au-delà d’applications telles que ChatGPT, l’IA a le potentiel d’aller beaucoup plus loin. Elle pourrait résoudre des problèmes importants, en médecine par exemple, mais aussi en causer.
La proposition de loi vise ainsi à empêcher les grands modèles d’IA de provoquer des catastrophes majeures qui entraîneraient la mort d’un grand nombre de personnes ou des incidents de cybersécurité de taille s’ils tombaient dans les mains de personnes malveillantes. Mais réguler l’IA n’est pas du goût des géants du secteur, comme OpenAi ou l’un de ses concurrents, Anthropic.
Bataille d’influence entre les géants de l’IA et le sénateur Scott Wiener
Le projet de loi se trouve au cœur d’une féroce bataille d’influence entre ces entreprises et Scott Wiener, le sénateur démocrate qui porte ce projet de loi en Californie, coécrit par Richard Roth, Susan Rubio et Henry Stern, tous trois également sénateurs démocrates. Depuis son dépôt au Sénat le 7 février dernier, le texte a été tellement amendé qu’il en est actuellement à sa dixième version, loin du texte originel. De là à dire qu’il a été vidé de sa substance ?
Certes, Scott Wiener a assoupli le texte d’origine, suivant notamment les conseils d’Anthropic, une start-up basée à San Francisco. La version actuelle du texte accorde moins de pouvoir qu’initialement prévu aux autorités californiennes pour obliger les sociétés d’IA à rendre des comptes ou pour les poursuivre en justice. Si la loi était votée, les développeurs de grands modèles d’IA devraient toutefois tester leurs systèmes et simuler des cyberattaques, sous peine d’amende, mais sans la menace de conséquences pénales. La création d’une nouvelle agence de régulation a également été annulée, au profit d’un organisme chargé de déterminer des normes pour les modèles d’IA les plus avancés.
Sans surprise, OpenAI, le créateur de ChatGPT, s’est prononcé contre le texte « SB-1047 », assurant qu’il risquait de faire fuir les innovateurs de l’État américain et sa fameuse Silicon Valley alors que « la révolution de l’IA commence à peine ». Dans une lettre adressée courant août à Scott Wiener, l’entreprise de Sam Altman ajoute qu’une législation nationale lui semble préférable à un méli-mélo de réglementations.
La Californie « essaie de combler un manque juridique »
Or, « le Congrès [au niveau fédéral, NDLR] étant bloqué sur la réglementation de l’IA, la Californie doit agir pour anticiper les risques prévisibles présentés par les progrès rapides de l’IA tout en encourageant l’innovation », rétorque Scott Wiener dans un communiqué publié le 15 août. Le sénateur n’hésite pas à citer dans un autre communiqué, une semaine plus tard, un appui important en la personne du lieutenant général à la retraite John Shanahan. Selon ce dernier, le projet de loi « SB-1047 » incarne un « équilibre harmonieux entre la promotion de l’innovation américaine et la protection du pays ».
Comment comprendre que le berceau mondial de l’IA veuille légiférer sur ce sujet ? Loin d’être paradoxal, le projet de loi « SB-1047 » cristallise le « double mouvement » auquel fait face la Californie, note Michael Aim, cofondateur et PDG de l’entreprise française Datamensio. D’une part, cet État « essaie de combler un manque juridique » car, comme dit précédemment, « il n’existe pas de loi au niveau fédéral » concernant l’IA, précise Michael Aim.
D’autre part, la Californie veut montrer qu’elle est « leader dans ce domaine aussi bien sur le plan technologique que moral ». Les démocrates, au pouvoir en Californie, « ne veulent pas que les outils venant de leur État puissent alimenter des ennemis des États-Unis ou la cybercriminalité et que cela leur soit reproché », analyse le PDG français.
La Californie est d’ailleurs l’un des États américains les plus protecteurs en matière de protection des données, comme en témoigne l’entrée en vigueur le 1er janvier 2023 du California Consumer Privacy Act (CCPA). Aux États-Unis, aucun cadre fédéral ne régit la protection des données des consommateurs, contrairement à l’Union européenne (UE) qui s’est dotée du Règlement général sur la protection des données (RGPD), entré en vigueur le 25 mai 2018. Et le 12 juillet 2024, le règlement européen sur l’IA a paru au Journal officiel de l’Union européenne. Il s’agit du premier acte législatif sur l’intelligence artificielle (IA) des Vingt-Sept.
RFI via CONGO PUB Online