TLDRs; Les législateurs californiens ont adopté un projet de loi sur la sécurité des Agents d'IA exigeant la transparence des entreprises, laissant le gouverneur Gavin Newsom face à une décision difficile. Le projet de loi pourrait établir un précédent pour la réglementation de l'IA à l'échelle nationale, reflétant l'influence de la Californie sur les normes de gouvernance technologique. Les géants de la technologie et les groupes de pression s'opposent à cette législation, avertissant qu'elle pourrait nuire à l'innovation tout en négligeant les petits développeurs d'IA. Newsom's [...] L'article California Lawmakers Send AI Safety Bill Back to Newsom's Desk est apparu en premier sur CoinCentral.TLDRs; Les législateurs californiens ont adopté un projet de loi sur la sécurité des Agents d'IA exigeant la transparence des entreprises, laissant le gouverneur Gavin Newsom face à une décision difficile. Le projet de loi pourrait établir un précédent pour la réglementation de l'IA à l'échelle nationale, reflétant l'influence de la Californie sur les normes de gouvernance technologique. Les géants de la technologie et les groupes de pression s'opposent à cette législation, avertissant qu'elle pourrait nuire à l'innovation tout en négligeant les petits développeurs d'IA. Newsom's [...] L'article California Lawmakers Send AI Safety Bill Back to Newsom's Desk est apparu en premier sur CoinCentral.

Les législateurs californiens renvoient le projet de loi sur la sécurité de l'IA au bureau de Newsom

TLDRs;

  • Les législateurs californiens ont adopté un projet de loi sur la sécurité de l'IA exigeant la transparence des entreprises, laissant le gouverneur Gavin Newsom face à une décision difficile.
  • Le projet de loi pourrait créer un précédent pour la réglementation nationale de l'IA, reflétant l'influence de la Californie sur les normes de gouvernance technologique.
  • Les géants de la technologie et les groupes de pression s'opposent à cette législation, avertissant qu'elle pourrait nuire à l'innovation tout en négligeant les petits développeurs d'IA.
  • La décision de Newsom pourrait avoir un impact à la fois sur ses perspectives présidentielles et sur le rôle de la Californie dans l'élaboration d'un développement responsable de l'IA.

Les législateurs californiens ont approuvé une législation globale sur la sécurité de l'IA qui attend maintenant la signature du gouverneur Gavin Newsom, établissant un point de décision critique pour la deuxième année consécutive.

La proposition exigerait que les principaux développeurs d'intelligence artificielle divulguent leurs protocoles de test de sécurité et certifient leur conformité, une mesure qui pourrait remodeler à la fois la relation de l'État avec son puissant secteur technologique et la conversation nationale plus large autour de la réglementation de l'IA.

Équilibrer l'innovation et la surveillance

Le projet de loi, rédigé par le démocrate de San Francisco Scott Wiener, vise à intégrer la transparence dans le développement de modèles d'IA avancés.

Les entreprises générant plus de 500 millions de dollars de revenus annuels seraient tenues de fournir des rapports détaillés de leurs cadres de test, tandis que les développeurs plus petits travaillant sur des "modèles frontières" soumettraient des divulgations plus générales. Les législateurs soutiennent que cette approche à plusieurs niveaux établit un équilibre entre la sécurité publique et la nécessité de favoriser l'innovation.

Newsom, cependant, fait face à un dilemme familier. L'année dernière, il a opposé son veto à une version plus étendue de la législation de Wiener, avertissant qu'elle pourrait compromettre l'avantage concurrentiel de la Californie.

Ses préoccupations se concentraient sur le potentiel de règles trop strictes qui pourraient pousser les entreprises et leurs capitaux hors de l'État.

Implications nationales de l'initiative californienne

Parce que la Californie abrite certaines des entreprises d'IA les plus influentes du monde, le projet de loi pourrait servir de modèle à d'autres États s'il devient loi. Les défenseurs affirment que ce cadre pourrait établir une base pour des pratiques d'IA responsables, particulièrement dans une industrie où les craintes concernant les risques, les abus et le développement non contrôlé augmentent.

Parmi les partisans de la législation figure le laboratoire d'IA Anthropic, qui a salué le projet de loi pour avoir exigé que les entreprises "disent la vérité" sur les tests qu'elles effectuent. OpenAI, sans explicitement soutenir ou s'opposer à la mesure, a reconnu que les principes qui la sous-tendent sont constructifs.

Pourtant, tout le monde n'est pas d'accord. La Chambre de commerce de Californie, TechNet et d'autres groupes de pression de l'industrie ont exprimé de fortes objections. Dans une lettre à Wiener, ils ont averti que se concentrer uniquement sur les "grands développeurs" risque de négliger les acteurs plus petits dont les modèles pourraient également comporter des risques catastrophiques.

Des géants de la technologie comme Apple, Google et Amazon se sont indirectement opposés à la mesure, citant des chevauchements réglementaires potentiels et des incohérences avec les cadres internationaux.

Enjeux politiques pour Newsom et Wiener

La décision comporte également un poids politique important. Newsom, largement considéré comme un probable candidat démocrate à l'élection présidentielle de 2028, doit évaluer si se ranger du côté des électeurs préoccupés par les dangers de l'IA vaut la peine d'aliéner les donateurs technologiques de l'État. Signer le projet de loi le distinguerait du président Donald Trump, dont l'administration a poursuivi un agenda agressif de développement pro-IA, le présentant comme une course contre la Chine.

Pour Wiener, les enjeux sont tout aussi élevés. Venant tout juste de déposer sa candidature pour le siège au Congrès longtemps occupé par Nancy Pelosi, il a présenté le projet de loi comme le cadre de sécurité de l'IA au niveau de l'État le plus complet du pays. Sa proposition révisée et plus étroite reflète les leçons tirées de la défaite de l'année dernière, ainsi que les recommandations d'un panel de politique d'IA convoqué par Newsom lui-même.

Si Newsom signe le projet de loi, cela marquerait un tournant pour la gouvernance technologique américaine, façonnant potentiellement les normes nationales en l'absence d'une réglementation fédérale complète. S'il y oppose son veto à nouveau, cependant, cela pourrait signaler une priorisation de la compétitivité de l'industrie par rapport aux garanties publiques, et souligner l'influence profonde que Silicon Valley exerce sur la politique californienne.

L'article California Lawmakers Send AI Safety Bill Back to Newsom's Desk est apparu en premier sur CoinCentral.

Opportunité de marché
Logo de Suilend
Cours Suilend(SEND)
$0.1696
$0.1696$0.1696
+0.23%
USD
Graphique du prix de Suilend (SEND) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter service@support.mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.