Le projet de loi SB-1047 sur l'IA met la Silicon Valley en alerte rouge 🚨
Un projet de loi qui change la donne et soulève des questions cruciales sur l'avenir de l'innovation technologique.
Cette semaine, je me suis plongé dans le débat autour du projet de loi SB-1047 en Californie. Pas que le droit ou la régulation soient vraiment ma tasse de thé, mais vu la quantité de tweets qui circulent sur le sujet, j'ai bien compris que ce projet de loi était crucial pour tous ceux qui travaillent dans le domaine de l'Intelligence Artificielle, que ce soit aux États-Unis ou en France.
Je vous propose donc une édition spéciale basée sur mes notes. N'hésitez pas à ajouter vos analyses dans les commentaires !
Un tournant pour la Silicon Valley ?
Le projet de loi SB-1047, qui pourrait devenir loi le 30 septembre si le gouverneur Gavin Newsom le ratifie, pourrait bien décider de l'avenir de la Silicon Valley. Les avis sont très partagés : certains voient cette régulation comme une nécessité, d'autres comme une erreur monumentale.
C’est le sénateur démocrate Scott Wiener, notre équivalent de Thierry Breton, qui a introduit ce projet de loi en février 2024. Son objectif est de réguler le secteur de l'IA en Californie, berceau de la technologie GPT, en s'inspirant de l'ordonnance de Joe Biden sur l'intelligence artificielle. Selon Wiener, "ce projet de loi vise avant tout à assurer le développement sécurisé des systèmes d'intelligence artificielle à grande échelle en établissant des normes de sécurité claires, prévisibles et de bon sens pour les développeurs des systèmes d'IA les plus grands et les plus puissants."
J'ai pris le temps de lire le texte et, franchement, même pour quelqu'un comme moi qui n'est pas expert en droit ou en réglementation technologique, ce n'est pas si compliqué à comprendre. Beaucoup plus facile à lire que les les 419 pages de la loi européenne sur le sujet.
Si ce projet de loi est adopté, il pourrait bien devenir un modèle pour d'autres réglementations à l'échelle mondiale. C’est d’autant plus intéressant que l’Europe a déjà statué sur le sujet. On comprend que les États-Unis, qui ont souvent laissé l’Europe réguler la technologie en se concentrant sur l’innovation, ont cette fois-ci décidé de ne pas laisser le vieux continent seul maître à bord tant les enjeux géopolitiques sont importants. Faut-il y voir une concurrence favorable au secteur ou une manière de se tirer une balle dans le pied ?
Quand on compare les deux projets, même si ils visent toutes deux le même objectif, la loi SB 1047 m’apparaît comme plus stricte et beaucoup moins souple. Je ne pensais pas dire ça un jour, mais l’élève a visiblement dépassé le maître.
Des contraintes inquiétantes
En résumé, le projet de loi impose aux développeurs d'IA de réaliser des tests de sécurité internes approfondis pour les modèles qu'ils entraînent. Si ces modèles dépassent certains seuils, comme un coût d'entraînement supérieur à 100 millions de dollars ou une puissance de calcul nécessitant plus de 10^26 FLOP, ils doivent également mettre en place un protocole de sécurité et de protection complet. Ce protocole inclut des audits annuels par des tiers, des déclarations de conformité, et même un mécanisme d'arrêt d'urgence pour les modèles concernés. Le procureur général américain aurait le pouvoir de prendre des mesures légales contre les sociétés qui ne se conformeraient pas à ces exigences ou en cas de non-signalement d'incidents.
Si ce projet de loi est adopté, la Silicon Valley, berceau de l'IA, pourrait bien subir un sérieux coup de frein. Ces deux dernières années ont été marquées par un rythme effréné et l’émergence d’entrepreneurs plus audacieux les uns que les autres. Certains acteurs de l'industrie ont même envisagé de délocaliser leurs activités, mais la loi, si elle est ratifiée, s'appliquera non seulement aux entreprises basées en Californie, mais aussi à toute entreprise qui y fait des affaires. Raison de plus de vous y intéresser si vous êtes une boîte d’IA française et que vous envisagez de faire du business ici.
La réaction paradoxale des géants de l'IA
Restons optimistes tout de même. Les seuils qui définissent si un modèle d'IA est concerné par la loi sont assez élevés. Il faut avoir dépensé plus de 100 millions de dollars en termes d’entraînement et utilisé plus de 10^26 FLOP de computing. La plupart des acteurs, en particulier les développeurs open-source, devraient être à l’abri. Ce projet de loi ne toucherait, pour l’instant, que les géants comme Google, X et Meta.
Parmi les opposants à ce projet de loi, on retrouve logiquement les grands comme Google, Meta et OpenAI. Anthropic, initialement contre, a fini lui par soutenir la version amendée du projet de loi, estimant que "les avantages l'emportent probablement sur les coûts."
La position des grands acteurs du domaine est d’ailleurs assez intéressante à observer. On se rappelle qu’initialement, la plupart d’entre eux s’étaient montrés plutôt favorables à une réglementation nationale de l'IA. À l’époque, j’y avais vu une manière habile de contrôler la concurrence internationale, mais leurs réactions à l’annonce du projet de loi semblent montrer qu’ils ont encore beaucoup à innover et qu’ils souhaitent avoir les coudées franches.
OpenAI a réagi au projet de loi porté par le sénateur Wiener en insistant sur le fait que toute réglementation de l'IA à fort enjeu devrait être mise en place au niveau fédéral, et non à travers un "patchwork de lois d'État" ce à quoi Wiener a répliqué en disant que le Congrès ne ferait rien, et que "SB 1047 est un projet de loi très raisonnable qui demande aux grands laboratoires d'IA de faire ce qu'ils se sont déjà engagés à faire.
La fronde s’organise
Les leaders du secteur ne sont pas les seuls à réagir. Des voix issues du monde académique, y compris Nancy Pelosi qu’on peut pas taxer d’acclérationniste invétérée, s'opposent également au projet de loi. Ils pensent que si les intentions sont bonnes, la solution proposée est catastrophique. L'IA est une technologie à double usage, comme beaucoup d'autres. Elle peut être utilisée pour le bien comme pour le mal, et réguler la technologie à ce niveau freinera inévitablement son développement. Par crainte de problèmes juridiques, les développeurs pourraient hésiter à expérimenter de nouvelles idées, en particulier celles qui comportent des risques plus élevés. Cela pourrait aussi avoir un impact négatif sur la communauté open source, qui prospère grâce à la collaboration, je pense notamment à nos amis de HuggingFace. Le problème est que les développeurs open source qui mettent leur modèles en accès libre sur HuggingFace ne savent souvent pas ce que d'autres développeurs ou clients font avec leurs modèles. Ils pourraient devenir moins enclin à offrir leur code en accès libre pour éviter d'éventuels problèmes juridiques. Pour mémoire, les innovations passées comme AlphaGo de Google, qui ont fait progresser l'IA de manière significative, comportaient elles aussi des risques considérables. De tels projets n'auraient peut-être pas été possibles avec les contraintes imposées par le SB 1047.