Os legisladores da Califórnia aprovaram uma ampla legislação de segurança de IA que agora aguarda a assinatura do Governador Gavin Newsom, estabelecendo um ponto de decisão crítico pelo segundo ano consecutivo.
A proposta exigiria que os principais desenvolvedores de inteligência artificial divulgassem seus protocolos de teste de segurança e certificassem conformidade, uma medida que poderia remodelar tanto a relação do estado com seu poderoso setor tecnológico quanto a conversa nacional mais ampla sobre regulamentação de IA.
O projeto de lei, de autoria do democrata de São Francisco Scott Wiener, busca incorporar transparência no desenvolvimento de modelos avançados de IA.
Empresas que geram mais de $500 milhões em receita anual seriam obrigadas a fornecer relatórios detalhados de suas estruturas de teste, enquanto desenvolvedores menores trabalhando nos chamados "modelos de fronteira" submeteriam divulgações mais gerais. Os legisladores argumentam que essa abordagem em níveis estabelece um equilíbrio entre segurança pública e a necessidade de fomentar a inovação.
Newsom, no entanto, enfrenta um dilema familiar. No ano passado, ele vetou uma versão mais ampla da legislação de Wiener, alertando que poderia minar a vantagem competitiva da Califórnia.
Suas preocupações centraram-se no potencial de regras excessivamente rigorosas afastarem empresas e seu capital do estado.
Como a Califórnia é o lar de algumas das empresas de IA mais influentes do mundo, o projeto de lei poderia servir como modelo para outros estados caso se torne lei. Defensores dizem que a estrutura poderia estabelecer uma base para práticas responsáveis de IA, particularmente em uma indústria onde os temores sobre riscos, uso indevido e desenvolvimento sem controle estão aumentando.
Entre os apoiadores da legislação está o laboratório de IA Anthropic, que elogiou o projeto por exigir que as empresas "digam a verdade" sobre os testes que realizam. A OpenAI, embora não apoie ou se oponha explicitamente à medida, reconheceu que os princípios por trás dela são construtivos.
Ainda assim, nem todos estão a bordo. A Câmara de Comércio da Califórnia, TechNet e outros grupos de lobby da indústria expressaram fortes objeções. Em uma carta a Wiener, alertaram que focar apenas em "grandes desenvolvedores" corre o risco de negligenciar players menores cujos modelos também poderiam carregar riscos catastróficos.
Gigantes da tecnologia como Apple, Google e Amazon indiretamente pressionaram contra a medida, citando potencial sobreposição regulatória e inconsistências com estruturas internacionais.
A decisão também carrega um peso político pesado. Newsom, amplamente visto como um provável candidato democrata para a eleição presidencial de 2028, deve ponderar se alinhar-se com eleitores preocupados com os perigos da IA vale a pena alienar os doadores tecnológicos do estado. Assinar o projeto o distinguiria do Presidente Donald Trump, cuja administração tem perseguido uma agenda agressiva pró-desenvolvimento de IA, enquadrando-a como uma corrida contra a China.
Para Wiener, as apostas são igualmente altas. Recém-inscrito para concorrer à cadeira congressual ocupada por muito tempo por Nancy Pelosi, ele apresentou o projeto como a estrutura de segurança de IA mais abrangente em nível estadual no país. Sua proposta revisada e mais restrita reflete lições aprendidas com a derrota do ano passado, bem como recomendações de um painel de política de IA convocado pelo próprio Newsom.
Se Newsom assinar o projeto, isso marcaria um ponto de viragem para a governança tecnológica dos EUA, potencialmente moldando padrões nacionais na ausência de regulamentação federal abrangente. Se ele o vetar novamente, no entanto, poderia sinalizar uma priorização da competitividade da indústria sobre salvaguardas públicas, e destacar a profunda influência que o Silicon Valley exerce sobre a política da Califórnia.
O post California Lawmakers Send AI Safety Bill Back to Newsom's Desk apareceu primeiro no CoinCentral.


