Les législateurs californiens ont approuvé une législation globale sur la sécurité de l'IA qui attend maintenant la signature du gouverneur Gavin Newsom, établissant un point de décision critique pour la deuxième année consécutive.
La proposition exigerait que les principaux développeurs d'intelligence artificielle divulguent leurs protocoles de test de sécurité et certifient leur conformité, une mesure qui pourrait remodeler à la fois la relation de l'État avec son puissant secteur technologique et la conversation nationale plus large autour de la réglementation de l'IA.
Le projet de loi, rédigé par le démocrate de San Francisco Scott Wiener, vise à intégrer la transparence dans le développement de modèles d'IA avancés.
Les entreprises générant plus de 500 millions de dollars de revenus annuels seraient tenues de fournir des rapports détaillés de leurs cadres de test, tandis que les développeurs plus petits travaillant sur des "modèles frontières" soumettraient des divulgations plus générales. Les législateurs soutiennent que cette approche à plusieurs niveaux établit un équilibre entre la sécurité publique et la nécessité de favoriser l'innovation.
Newsom, cependant, fait face à un dilemme familier. L'année dernière, il a opposé son veto à une version plus étendue de la législation de Wiener, avertissant qu'elle pourrait compromettre l'avantage concurrentiel de la Californie.
Ses préoccupations se concentraient sur le potentiel de règles trop strictes qui pourraient pousser les entreprises et leurs capitaux hors de l'État.
Parce que la Californie abrite certaines des entreprises d'IA les plus influentes du monde, le projet de loi pourrait servir de modèle à d'autres États s'il devient loi. Les défenseurs affirment que ce cadre pourrait établir une base pour des pratiques d'IA responsables, particulièrement dans une industrie où les craintes concernant les risques, les abus et le développement non contrôlé augmentent.
Parmi les partisans de la législation figure le laboratoire d'IA Anthropic, qui a salué le projet de loi pour avoir exigé que les entreprises "disent la vérité" sur les tests qu'elles effectuent. OpenAI, sans explicitement soutenir ou s'opposer à la mesure, a reconnu que les principes qui la sous-tendent sont constructifs.
Pourtant, tout le monde n'est pas d'accord. La Chambre de commerce de Californie, TechNet et d'autres groupes de pression de l'industrie ont exprimé de fortes objections. Dans une lettre à Wiener, ils ont averti que se concentrer uniquement sur les "grands développeurs" risque de négliger les acteurs plus petits dont les modèles pourraient également comporter des risques catastrophiques.
Des géants de la technologie comme Apple, Google et Amazon se sont indirectement opposés à la mesure, citant des chevauchements réglementaires potentiels et des incohérences avec les cadres internationaux.
La décision comporte également un poids politique important. Newsom, largement considéré comme un probable candidat démocrate à l'élection présidentielle de 2028, doit évaluer si se ranger du côté des électeurs préoccupés par les dangers de l'IA vaut la peine d'aliéner les donateurs technologiques de l'État. Signer le projet de loi le distinguerait du président Donald Trump, dont l'administration a poursuivi un agenda agressif de développement pro-IA, le présentant comme une course contre la Chine.
Pour Wiener, les enjeux sont tout aussi élevés. Venant tout juste de déposer sa candidature pour le siège au Congrès longtemps occupé par Nancy Pelosi, il a présenté le projet de loi comme le cadre de sécurité de l'IA au niveau de l'État le plus complet du pays. Sa proposition révisée et plus étroite reflète les leçons tirées de la défaite de l'année dernière, ainsi que les recommandations d'un panel de politique d'IA convoqué par Newsom lui-même.
Si Newsom signe le projet de loi, cela marquerait un tournant pour la gouvernance technologique américaine, façonnant potentiellement les normes nationales en l'absence d'une réglementation fédérale complète. S'il y oppose son veto à nouveau, cependant, cela pourrait signaler une priorisation de la compétitivité de l'industrie par rapport aux garanties publiques, et souligner l'influence profonde que Silicon Valley exerce sur la politique californienne.
L'article California Lawmakers Send AI Safety Bill Back to Newsom's Desk est apparu en premier sur CoinCentral.


