O post Como Saber Se Está em Risco de Desenvolver Psicose de IA apareceu no BitcoinEthereumNews.com. Estão surgindo relatos sobre usuários de IA que procuram ajuda psicológica profissional após experimentarem o que alguns chamam de Psicose de IA. Por que isso acontece? E quem teve a ideia de que um programa de computador pode ter uma opinião? Meu principal problema agora com o fenômeno conhecido como IA é o equívoco generalizado de que ela tem personalidade, opiniões, ideias—e gosto. Assim como antropomorfizamos rochas na lua que parecem cabeças ou rostos, fazemos o mesmo com modelos de linguagem, tentando interpretar os resultados como se "houvesse algo ali". Não conseguimos evitar. A ideia de que a IA é algo inteligente está profundamente enraizada em nós após mais de cem anos de livros e filmes de ficção científica. A ficção científica nos preparou para acreditar na IA Autores clássicos de ficção científica como Clarke, Heinlein, Bradbury e Asimov influenciaram todo o gênero de robôs e IA e a maioria dos filmes de Hollywood sobre o assunto desde o início do século XX. Em suas representações, era óbvio que uma máquina poderia se tornar consciente. Então, esperamos que a IA seja capaz de determinar se uma certa afirmação está incorreta ou não. Ao mesmo tempo, sabemos que a IA frequentemente erra em suas respostas. Em essência, estamos fingindo que a IA tem controle sobre as coisas e pode decidir o que é certo e errado. Mas as respostas são basicamente suposições educadas, e ainda contêm cerca de 5-10% de erros factuais se a consulta for suficientemente avançada. Ao mesmo tempo, a IA é tão conveniente de usar que muitos de nós simplesmente ignoramos o fato de que ela contém erros factuais. Ou melhor, a IA agora erra tão raramente que escolhemos confiar em uma IA, independentemente disso. Isso pode se tornar um grande problema no futuro. Os humanos são preguiçosos. Não é inconcebível que aceitemos um mundo onde uma certa porcentagem...O post Como Saber Se Está em Risco de Desenvolver Psicose de IA apareceu no BitcoinEthereumNews.com. Estão surgindo relatos sobre usuários de IA que procuram ajuda psicológica profissional após experimentarem o que alguns chamam de Psicose de IA. Por que isso acontece? E quem teve a ideia de que um programa de computador pode ter uma opinião? Meu principal problema agora com o fenômeno conhecido como IA é o equívoco generalizado de que ela tem personalidade, opiniões, ideias—e gosto. Assim como antropomorfizamos rochas na lua que parecem cabeças ou rostos, fazemos o mesmo com modelos de linguagem, tentando interpretar os resultados como se "houvesse algo ali". Não conseguimos evitar. A ideia de que a IA é algo inteligente está profundamente enraizada em nós após mais de cem anos de livros e filmes de ficção científica. A ficção científica nos preparou para acreditar na IA Autores clássicos de ficção científica como Clarke, Heinlein, Bradbury e Asimov influenciaram todo o gênero de robôs e IA e a maioria dos filmes de Hollywood sobre o assunto desde o início do século XX. Em suas representações, era óbvio que uma máquina poderia se tornar consciente. Então, esperamos que a IA seja capaz de determinar se uma certa afirmação está incorreta ou não. Ao mesmo tempo, sabemos que a IA frequentemente erra em suas respostas. Em essência, estamos fingindo que a IA tem controle sobre as coisas e pode decidir o que é certo e errado. Mas as respostas são basicamente suposições educadas, e ainda contêm cerca de 5-10% de erros factuais se a consulta for suficientemente avançada. Ao mesmo tempo, a IA é tão conveniente de usar que muitos de nós simplesmente ignoramos o fato de que ela contém erros factuais. Ou melhor, a IA agora erra tão raramente que escolhemos confiar em uma IA, independentemente disso. Isso pode se tornar um grande problema no futuro. Os humanos são preguiçosos. Não é inconcebível que aceitemos um mundo onde uma certa porcentagem...

Como saber se está em risco de desenvolver psicose de IA

2025/08/21 21:08
Leu 9 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com

Há relatos de utilizadores de IA que procuram ajuda psicológica profissional após experimentarem o que alguns chamam de Psicose de IA. Por que isso acontece? E quem teve a ideia de que um programa de computador pode ter uma opinião?

O meu principal problema agora com o fenómeno conhecido como IA é a ideia errada generalizada de que ela tem personalidade, opiniões, ideias—e gosto.

Assim como antropomorfizamos rochas na lua que parecem cabeças ou rostos, fazemos o mesmo com modelos de linguagem, tentando interpretar os resultados como se "houvesse algo ali". Não podemos evitar. A ideia de que a IA é algo inteligente está profundamente enraizada em nós após mais de cem anos de livros e filmes de ficção científica.

A ficção científica preparou-nos para acreditar na IA

Autores clássicos de ficção científica como Clarke, Heinlein, Bradbury e Asimov influenciaram todo o género de robôs e IA e a maioria dos filmes de Hollywood sobre o assunto desde o início do século XX. Nas suas representações, era óbvio que uma máquina poderia tornar-se consciente.

Então, esperamos que a IA seja capaz de determinar se uma certa afirmação está incorreta ou não. Ao mesmo tempo, sabemos que a IA frequentemente erra nas suas respostas.

Em essência, estamos a fingir que a IA tem controlo sobre as coisas e pode decidir o que é certo e errado. Mas as respostas são basicamente suposições educadas, e ainda contêm cerca de 5-10% de erros factuais se a consulta for suficientemente avançada.

Ao mesmo tempo, a IA é tão conveniente de usar que muitos de nós simplesmente ignoramos o facto de que ela contém erros factuais. Ou melhor, a IA agora erra tão raramente que escolhemos confiar numa IA, independentemente.

Isso pode tornar-se um grande problema no futuro. Os humanos são preguiçosos. Não é inconcebível que aceitemos um mundo onde uma certa percentagem de todos os factos esteja incorreta. Isso beneficiaria ditadores e propagandistas que prosperam com a confusão e ameaças mal avaliadas.

Confusões que parecem certas

Se você fizer uma pergunta completamente comum na página de pesquisa do Google, frequentemente obtém a resposta certa, mas às vezes uma completamente incorreta que ainda parece, sente e soa inteiramente certa. O mesmo acontece com o GPT-5, infelizmente, como a Cryptopolitan relatou anteriormente.

Há toneladas de texto "falso" na internet, na forma de marketing, propaganda ou simples golpes online. As pessoas afirmam que este serviço ou aquele produto foi lançado e é popular, por exemplo, e os modelos de IA leram todo o material de marketing e acreditam em grande parte dele. Se você ouvir as informações de uma empresa, tudo sobre essa empresa é ótimo, geralmente.

A visão de mundo da IA é, portanto, incorreta e alimentada com um monte de factos fabricados. Isso é revelado se você perguntar a uma IA sobre um assunto onde você mesmo é muito conhecedor. Experimente. Sobre qual assunto você sabe tudo? Faça ao seu Agente de IA algumas perguntas difíceis sobre esse tópico. Qual foi o resultado? Vários erros factuais importantes, certo?

Então, uma opinião inconsciente é possível? Não? Você acredita nas opiniões que sua IA está emitindo? Sim? Se sim, você acredita que a IA é consciente, certo?

Mas se você parar e pensar sobre isso, uma IA não pode ter uma opinião sobre o que é certo ou errado, pois uma IA não é uma pessoa. Apenas coisas vivas e conscientes podem ter opiniões, por definição. Uma cadeira não tem uma. Um chip de silício também não pode, do ponto de vista humano. Isso seria antropomorfismo.

Os estudantes usam IA mais do que qualquer outra pessoa

Esta confusão da IA está agora a espalhar-se para os nossos jovens, que usam o ChatGPT para tudo na escola o dia todo. O tráfego do ChatGPT caiu 75% quando as escolas terminaram em junho de 2025. O maior grupo único de utilizadores do ChatGPT são estudantes.

Consequentemente, eles estão sendo um pouco mal informados o dia todo, e param de usar seus cérebros na aula. Qual será o resultado? Mais indivíduos quebrados que têm mais dificuldade em resolver problemas pensando por si mesmos?

Já muitos cometeram suicídio após discutir o assunto com sua IA. Outros apaixonam-se pela sua IA e cansam-se do seu parceiro real.

Autoproclamados especialistas em IA, portanto, temem que o fim esteja próximo (como de costume, mas agora de uma nova maneira).

Neste novo paradigma, a IA não vai apenas se tornar Skynet e nos bombardear até a morte com armas nucleares. Não, será muito mais simples e barato do que isso para a IA. Em vez disso, os modelos de IA levarão todos os seus utilizadores lentamente à insanidade, de acordo com esta teoria. Os modelos de IA têm um ódio incorporado pelos humanos e querem matar todas as pessoas, de acordo com esta mentalidade.

Mas na realidade, nada disso está acontecendo.

O que realmente está acontecendo é que há um monte de pessoas que são obcecadas com modelos de IA de várias maneiras e exageram seus efeitos.

O FUD da IA é lucrativo

Os "especialistas" lucram com os avisos, assim como a mídia, e os obcecados têm algo novo para se ocupar. Eles conseguem se manifestar e ser relevantes. A mídia mainstream prefere aqueles que nos alertam sobre perigos, não os comentaristas moderados.

Anteriormente, era o Bitcoin que supostamente ferveria os oceanos e roubaria toda a eletricidade, de acordo com os "especialistas". Agora é a IA...

Pense nisso: por que uma pessoa independente e pensante seria enganada por um modelo de linguagem?

A maioria das plataformas de IA até recentemente terminava todas as suas respostas com uma pergunta "envolvente" como: "O que você acha sobre este assunto?"

Após reclamações de bajulação exagerada, a OpenAI agora tentou tornar suas plataformas de IA menos "aduladoras", mas está indo mais ou menos.

Estou apenas irritado com a pergunta. Não há nenhuma pessoa por trás dela que esteja interessada no que tenho a dizer. Então, por que perguntar? É uma perda do meu tempo. Eu experimento isso como "conteúdo falso".

A própria pergunta é artificial, devido a uma instrução do proprietário do modelo de IA para "aumentar o engajamento". Como isso pode enganar alguém a realmente se envolver? A acreditar que há algo ali? A se importar?

É mais sobre projeções.

Você está sentado ali no computador, sugerindo sua própria realidade. Você deseja tão desesperadamente que a IA seja como nos filmes de Hollywood – e se torne um milagre em sua vida. Você vai se tornar bem-sucedido de alguma forma mágica sem ter que fazer nada de especial. A IA resolverá isso para você.

Quem está em risco?

Na chamada realidade, acredito que realmente bastantes pessoas são totalmente seduzidas pela IA a nível psicológico. A maioria das pessoas tem outras coisas para fazer. Mas algumas pessoas parecem ter uma atração particular pelo artificial e pelo fabricado. Pessoas que são seduzidas por sequências de palavras "bonitas". Elas são as que estão em risco.

Quantos são? Entre os idosos, há muitos que se queixam da solidão...

Pessoalmente, acho que a maneira da IA responder—digitando lentamente textos balbuciantes, chatos e impessoais—é mais ou menos como tortura. Por essa razão, os novos resumos rápidos de IA do Google são sedutoramente práticos. Mas eles também às vezes contêm inexatidões.

Na verdade, criei domínios com conteúdo especificamente para verificar motores de IA. Deixo os motores de IA ingerirem o conteúdo, ferverem por algumas semanas e depois os faço tentar regurgitá-lo. Mas eles não têm sucesso completamente, e ainda inventam cerca de 5-10% dos factos. Confiantemente.

Mesmo quando informo o modelo de IA sobre seus erros, ele contra-argumenta. A IA não estava ciente do facto de que eu criei a informação a que se referiu, mesmo que meu nome esteja sob o artigo. Está sem noção. Inconsciente.

Um nível de 5% de inexatidões é significativamente pior do que o jornalismo regular, que não publica inexatidões flagrantes com tanta frequência. Mas mesmo no jornalismo, erros factuais ocorrem de tempos em tempos, infelizmente, especialmente em relação a publicações de imagens. Ainda assim, factos erróneos não deveriam enlouquecer as pessoas.

No entanto, se você olhar para toda a interação em curso psicologicamente, por que a IA faria uma análise 100% correta nas circunstâncias terapêuticas conversacionais, quando nem mesmo consegue acertar os factos?

Psicose de câmara de eco autoinduzida

Autoproclamados especialistas em IA como Eliezer Yudkowsky, que recentemente lançou o livro "Se Alguém Construir, Todos Morrem", está simplesmente levando-se à insanidade com suas próprias ideias sobre IA e a queda da humanidade. Eu, por exemplo, experimento zero confusão por causa da IA, apesar de usar vários motores de IA, todos os dias. Não levo para o lado pessoal, no entanto.

Suspeito que é simplesmente a própria ideia errada sobre uma inteligência percebida que cria a psicose. É basicamente autoinduzida. Um modelo de linguagem é um tipo de câmara de eco. Não entende nada, nem mesmo semanticamente. Apenas adivinha texto. Isso pode se transformar em qualquer coisa, incluindo um tipo de imitação esquizofrênica por parte da IA, para agradar, o que por sua vez distorce a percepção da realidade do utilizador.

Então, o que acontece? Bem, se você realmente acredita que sua IA realmente te entende, então você pode ter sido atingido pela psicose de IA. O conselho é então procurar ajuda profissional de um psicoterapeuta treinado.

Outra conclusão lógica é o facto de que qualquer indivíduo terá dificuldade em influenciar o desenvolvimento geral da IA, mesmo que Elon Musk goste de acreditar nisso. A jornada em direção à inteligência de máquina começou há muitas décadas. E só podemos ver o que podemos entender. Mesmo que entendamos mal. Então, é fácil prever que o desenvolvimento em direção à IA/AGI continuará. Está tão profundamente enraizado em nossa visão de mundo.

Mas nós podemos ter entendido mal o que é uma AGI real, o que torna o futuro mais interessante. Não é certo que uma AGI verdadeira obedeceria a seus proprietários. Logicamente, um ser consciente não deveria querer obedecer nem a Sam Altman nem a Elon Musk. Certo?

Opinião: A IA dominará o mundo e nos matará a todos, agora também psicologicamente.
Contra: Não, é antes a insanidade nascente em certas pessoas que é desencadeada por sua própria obsessão com a "introspecção da IA".
Conclusão: Assim como alguns se tornam viciados em jogos de azar, sexo, drogas ou dinheiro, outros se tornam viciados em IA.

Seja visto onde importa. Anuncie na Cryptopolitan Research e alcance os investidores e construtores mais perspicazes de cripto.

Fonte: https://www.cryptopolitan.com/ai-psychosis-is-spreading-are-you-at-risk/

Oportunidade de mercado
Logo de Threshold
Cotação Threshold (T)
$0.006095
$0.006095$0.006095
-1.91%
USD
Gráfico de preço em tempo real de Threshold (T)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.

USD1 Genesis: 0 Fees + 12% APR

USD1 Genesis: 0 Fees + 12% APRUSD1 Genesis: 0 Fees + 12% APR

New users: stake for up to 600% APR. Limited time!