O post Will Artificial Intelligence Save Humanity—Or End It? apareceu em BitcoinEthereumNews.com. Em resumo, um painel online mostrou uma profunda divisão entre transumanistasO post Will Artificial Intelligence Save Humanity—Or End It? apareceu em BitcoinEthereumNews.com. Em resumo, um painel online mostrou uma profunda divisão entre transumanistas

A Inteligência Artificial Vai Salvar a Humanidade—Ou Acabar com Ela?

2026/02/02 04:40
Leu 5 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com

Em resumo

  • Um painel online revelou uma profunda divisão entre transumanistas e tecnólogos sobre a AGI.
  • O autor Eliezer Yudkowsky alertou que os atuais sistemas de IA de "caixa preta" tornam a extinção um resultado inevitável.
  • Max More argumentou que atrasar a AGI poderia custar à humanidade a sua melhor oportunidade de derrotar o envelhecimento e prevenir uma catástrofe a longo prazo.

Uma profunda divisão sobre o futuro da inteligência artificial desenrolou-se esta semana quando quatro proeminentes tecnólogos e transumanistas debateram se a construção de inteligência geral artificial, ou AGI, salvaria a humanidade ou a destruiria.

O painel organizado pela organização sem fins lucrativos Humanity+ reuniu um dos mais vocais "Doomers" da IA, Eliezer Yudkowsky, que pediu o encerramento do desenvolvimento avançado de IA, juntamente com o filósofo e futurista Max More, o neurocientista computacional Anders Sandberg e a Presidente Emérita da Humanity+, Natasha Vita‑More.

A sua discussão revelou desacordos fundamentais sobre se a AGI pode ser alinhada com a sobrevivência humana ou se a sua criação tornaria a extinção inevitável.

O problema da "caixa preta"

Yudkowsky alertou que os sistemas de IA modernos são fundamentalmente inseguros porque os seus processos internos de tomada de decisão não podem ser totalmente compreendidos ou controlados.

"Qualquer caixa preta provavelmente acabará com problemas muito semelhantes à tecnologia atual", alertou Yudkowsky. Argumentou que a humanidade precisaria de se afastar "muito, muito longe dos paradigmas atuais" antes que a IA avançada pudesse ser desenvolvida com segurança.

A inteligência geral artificial refere-se a uma forma de IA que pode raciocinar e aprender numa ampla variedade de tarefas, em vez de ser construída para um único trabalho como geração de texto, imagem ou vídeo. A AGI é frequentemente associada à ideia da singularidade tecnológica, porque atingir esse nível de inteligência poderia permitir que as máquinas se aperfeiçoem mais rapidamente do que os humanos conseguem acompanhar.

Yudkowsky apontou para a analogia do "maximizador de clipes de papel" popularizada pelo filósofo Nick Bostrom para ilustrar o risco. A experiência mental apresenta uma IA hipotética que converte toda a matéria disponível em clipes de papel, promovendo a sua fixação num único objetivo à custa da humanidade. Adicionar mais objetivos, disse Yudkowsky, não melhoraria significativamente a segurança.

Referindo-se ao título do seu recente livro sobre IA, "If Anyone Builds It, Everyone Dies" (Se Alguém a Construir, Todos Morrem), ele disse: "O nosso título não é como se pudesse possivelmente matá-lo", disse Yudkowsky. "O nosso título é: se alguém a construir, todos morrem."

Mas More desafiou a premissa de que a cautela extrema oferece o resultado mais seguro. Argumentou que a AGI poderia proporcionar à humanidade a melhor oportunidade de superar o envelhecimento e a doença.

"O mais importante para mim é que a AGI poderia ajudar-nos a prevenir a extinção de todas as pessoas que estão a viver devido ao envelhecimento", afirmou More. "Todos estamos a morrer. Estamos a caminhar para uma catástrofe, um por um." Alertou que uma contenção excessiva poderia empurrar os governos para controlos autoritários como a única forma de parar o desenvolvimento de IA em todo o mundo.

Sandberg posicionou-se entre os dois campos, descrevendo-se como "mais otimista" enquanto permanece mais cauteloso do que os otimistas transumanistas. Relatou uma experiência pessoal em que quase usou um grande modelo de linguagem para ajudar a conceber uma arma biológica, um episódio que descreveu como "horripilante".

"Estamos a chegar a um ponto em que amplificar atores maliciosos também vai causar uma enorme confusão", disse Sandberg. Ainda assim, argumentou que a segurança parcial ou "aproximada" poderia ser alcançável. Rejeitou a ideia de que a segurança deve ser perfeita para ser significativa, sugerindo que os humanos poderiam pelo menos convergir em valores partilhados mínimos, como a sobrevivência.

"Portanto, se exigir segurança perfeita, não a vai conseguir. E isso soa muito mal dessa perspetiva", disse. "Por outro lado, penso que podemos realmente ter segurança aproximada. Isso é suficientemente bom."

Ceticismo quanto ao alinhamento

Vita-More criticou o debate mais amplo sobre o alinhamento em si, argumentando que o conceito pressupõe um nível de consenso que não existe mesmo entre colaboradores de longa data.

"A noção de alinhamento é um esquema de Pollyanna", disse. "Nunca estará alinhado. Quero dizer, mesmo aqui, somos todos boas pessoas. Conhecemo-nos há décadas e não estamos alinhados."

Descreveu a afirmação de Yudkowsky de que a AGI inevitavelmente mataria todos como "pensamento absolutista" que não deixa espaço para outros resultados.

"Tenho um problema com a afirmação generalizada de que todos morrem", disse. "Abordando isto como futurista e pensadora pragmática, não deixa consequência, nenhuma alternativa, nenhum outro cenário. É apenas uma afirmação contundente, e questiono-me se reflete uma espécie de pensamento absolutista."

A discussão incluiu um debate sobre se uma integração mais próxima entre humanos e máquinas poderia mitigar o risco colocado pela AGI — algo que o CEO da Tesla, Elon Musk, propôs no passado. Yudkowsky rejeitou a ideia de se fundir com a IA, comparando-a a "tentar fundir-se com o seu forno torradeira".

Sandberg e Vita-More argumentaram que, à medida que os sistemas de IA se tornam mais capazes, os humanos precisarão de se integrar ou fundir mais estreitamente com eles para lidar melhor com um mundo pós-AGI.

"Toda esta discussão é uma verificação da realidade sobre quem somos como seres humanos", disse Vita-More.

Newsletter Daily Debrief

Comece todos os dias com as principais notícias agora, além de recursos originais, um podcast, vídeos e muito mais.

Fonte: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end

Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.

Role os dados e ganhe até 1 BTC

Role os dados e ganhe até 1 BTCRole os dados e ganhe até 1 BTC

Convide amigos e divida 500,000 USDT!