inteligência artificial, adoção de IA, IA Issarawat Tattong/Getty Images O presidente do Banco Central dos Estados Unidos, Jerome Powell, afirmou em uma en inteligência artificial, adoção de IA, IA Issarawat Tattong/Getty Images O presidente do Banco Central dos Estados Unidos, Jerome Powell, afirmou em uma en

Ética e inteligência artificial: cinco perguntas-chave para ajudar empresas a lidar com esse dilema

2026/02/03 01:21
Leu 3 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com
inteligência artificial, adoção de IA, IA — Foto: Issarawat Tattong/Getty Images inteligência artificial, adoção de IA, IA — Foto: Issarawat Tattong/Getty Images

O presidente do Banco Central dos Estados Unidos, Jerome Powell, afirmou em uma entrevista no final do ano passado que “a criação de empregos está praticamente em zero”. Uma das razões apontadas é a inteligência artificial, que permite produzir mais com menos pessoas. Poucas semanas depois, a Amazon anunciou a demissão de 16 mil funcionários, citando, entre outros fatores, os avanços em IA. Empresas brasileiras, como o Mercado Livre, também começaram a justificar demissões com ganhos de eficiência tecnológica. Porém, a culpa é realmente da tecnologia?

Em janeiro, a Meta firmou contratos para abastecer seus clusters de IA com energia nuclear. A capacidade envolvida deve chegar a 6,6 GW — mais do que toda a demanda de energia do estado americano de New Hampshire. Com investimentos semelhantes de Amazon e Google, a produção de energia nuclear voltada para data centers pode triplicar até 2050. No Brasil, a extensão das licenças de Angra 1 também passou a ser discutida à luz da crescente demanda de IA. Você concorda, de fato, com o uso de energia nuclear para alimentar sistemas de inteligência artificial?

Continuar lendo

Para aumentar o engajamento dos usuários, o Facebook utiliza algoritmos que identificam e amplificam conteúdos frequentemente extremos ou ligados a teorias da conspiração e à desinformação. O problema não está no algoritmo em si, mas no modelo de negócio que prioriza engajamento acima de tudo. A falha ética não é o código, é o incentivo atrelado ao modelo de negócio.

A maioria dos problemas éticos associados à IA não decorre de “algoritmos errados”, mas de decisões humanas. E quase sempre há um stakeholder que não estava à mesa quando essas decisões foram tomadas: o stakeholder invisível.

Para ajudar empresas a lidar com esses dilemas, proponho um radar ético de IA, com cinco perguntas-chave:

  1. O que estamos otimizando, automatizando ou influenciando com essa tecnologia? Quais incentivos moldaram essa decisão? Quem se beneficia diretamente da implementação?
  2. Quem perde? Quem é afetado, mas não está na sala? Quem é o stakeholder invisível?
  3. Responsabilidade: se a implementação causar danos, quem responde? Somos capazes de explicar a decisão às pessoas afetadas, sem transferir a culpa para a IA?
  4. Desvio de uso: o que acontece se a tecnologia for utilizada para fins para os quais não foi desenhada, inclusive de forma maliciosa?
  5. Teste da legitimidade: eu conseguiria defender essa decisão no Jornal Nacional?

Se uma empresa não consegue explicar publicamente uma decisão apoiada por IA, o problema não é tecnológico, é de governança. Se a responsabilidade não é clara, o risco é inevitável. Mesmo quando uma decisão está dentro da lei, a governança precisa avaliar seus riscos reputacionais e sociais.

Sempre que um sistema de IA afeta pessoas, essas pessoas precisam ajudar a moldar a decisão. As vozes que tipicamente ficam de fora são as de empregados, usuários, pessoas que fornecem dados e a sociedade em geral.

A Microsoft, por exemplo, implementou um padrão de IA responsável e criou um conselho ético com poder real de veto. Todos os lançamentos de novos produtos passam por esse conselho. Nesse modelo, a ética está integrada à governança e garante que stakeholders invisíveis sejam considerados.

A ética da IA não é, no fundo, uma questão tecnológica. É uma questão de desenho organizacional: estruturas que permitam detectar danos, aprender com eles e manter a legitimidade no longo prazo. A governança da sua organização está preparada para o uso da IA?

Mais recente Próxima O Vale do Silício do Brasil: como o Pacto Alegre está transformando Porto Alegre
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.

Role os dados e ganhe até 1 BTC

Role os dados e ganhe até 1 BTCRole os dados e ganhe até 1 BTC

Convide amigos e divida 500,000 USDT!