A Austrália divulgou sua estratégia de inteligência artificial na terça-feira. A parte surpreendente? O governo está recuando das regras mais rígidas sobre as quais havia falado anteriormente para usos de IA de alto risco.
Não existem leis específicas de IA na Austrália no momento. No ano passado, o governo trabalhista disse que poderia introduzir diretrizes voluntárias, já que as pessoas haviam levantado preocupações sobre questões de privacidade, segurança e transparência.
O Plano Nacional de IA de terça-feira concentra-se em três coisas: obter investimento para centros de dados avançados, desenvolver habilidades de IA para proteger empregos e manter o público seguro à medida que a IA se torna parte da vida cotidiana.
O governo planeia usar leis existentes para gerir os riscos da IA em vez de criar novas. "A abordagem regulatória do governo para a IA continuará a basear-se nos robustos quadros legais e regulatórios existentes da Austrália, garantindo que as leis estabelecidas permaneçam a base para abordar e mitigar os riscos relacionados à IA", afirma o plano.
Agências governamentais individuais lidarão com os riscos de IA em suas próprias áreas
Reguladores em todo o mundo têm levantado bandeiras vermelhas sobre desinformação de ferramentas de IA que geram conteúdo. O ChatGPT da OpenAI, apoiado pela Microsoft, e o Gemini do Google estão se tornando amplamente utilizados, o que aumentou essas preocupações.
No mês passado, o governo anunciou que criaria um Instituto de Segurança de IA em 2026. O instituto ajudará a monitorar riscos emergentes e responder a ameaças.
O Ministro Federal da Indústria, Tim Ayres, disse que o roteiro visa ajudar os australianos a se beneficiarem da nova tecnologia. Está tentando equilibrar a inovação com a gestão de riscos.
"À medida que a tecnologia continua a evoluir, continuaremos a refinar e fortalecer este plano para aproveitar novas oportunidades e agir decisivamente para manter os australianos seguros", disse Ayres.
Nem todos estão comprando o que o governo está defendendo, no entanto. Niusha Shafiabady, Professora Associada da Universidade Católica Australiana, disse que o roteiro atualizado tem lacunas críticas.
"O plano é ambicioso em desbloquear dados e aumentar a produtividade, mas deixa lacunas críticas em responsabilidade, soberania, sustentabilidade e supervisão democrática", disse Shafiabady.
Ela acrescentou: "Sem abordar essas áreas inexploradas, a Austrália corre o risco de construir uma economia de IA que seja eficiente, mas não equitativa ou confiável".
Se você está lendo isto, já está à frente. Fique por aí com nossa newsletter.


