O termo “Inteligência Artificial”, cunhado em 1956 no evento que inaugura o campo de conhecimento, tornou-se a designação universal da tecnologia. No entanto, ao estimular a comparação com a inteligência biológica, ele gera mais confusão do que clareza. Curiosamente, John McCarthy, professor de Dartmouth e organizador do evento, inicialmente preferiu a expressão "estudos de autômatos”. Como não atraiu atenção, optou por “inteligência artificial” - uma escolha que, ao permitir antropomorfizações, tornou o campo mais atraente. Hoje, pressionada pela intensa competição, a indústria da IA explora deliberadamente essa ambiguidade, em um cenário onde parece “vale qualquer coisa” para sustentar o hype. Proliferam testes que comparam o desempenho de sistemas de IA ao humano, com frequência argumentando que eles respondem cognitiva e atitudinalmente de forma semelhante. O “Relatório do Índice de IA de 2025”, da Universidade de Stanford (Stanford University 2025 AI Index Report), por exemplo, afirma que os modelos de linguagem (LLMs) - sistemas capazes de entender, gerar e processar linguagem natural - já superam o desempenho humano em tarefas como classificação de imagens, raciocínio visual, compreensão de leitura de nível intermediário, compreensão da língua inglesa, matemática de nível competitivo, questões científicas de nível de doutorado, embora ressalve que o raciocínio complexo permanece um desafio. Outro exemplo é o relatório técnico do GPT-4 (OpenAI, 2023, GPT-4 technical report), que se apresenta como um modelo “com desempenho de nível humana em certos benchmarks profissionais e acadêmicos difíceis”. A comparação entre LLMs e humanos tornou-se recorrente na academia, particularmente nas ciências sociais. Mas que humano é esse? Existe um padrão humano universal? Essa é justamente a questão central levantada por pesquisadores do Departamento de Biologia Evolutiva Humana da Universidade de Harvard. Eles argumentam que grande parte da literatura ignora que “os humanos são uma espécie cultural com uma diversidade psicológica substancial ao redor do mundo, a qual não é totalmente capturada pelos dados textuais usados para treinar os LLMs”. Processos cognitivos aparentemente básicos variam significativamente entre populações, e diferenças linguística podem influenciar até mesmo processos cognitivos não linguísticos. “É enganoso”, alertam os pesquisadores, “referir-se a uma categoria monolítica de ‘humanos’ quando existe tanta diversidade psicológica”. Há ainda um problema de representatividade nos dados: a maior parte extraída na internet é desproporcionalmente enviesada para o grupo WEIRD (Ocidental, Educado, Industrializado, Rico e Democrático). Populações não-WEIRD têm menos probabilidade de serem alfabetizadas, de terem acesso à internet (e internet de qualidade) e de terem sua produção textual incluída nas bases de dados de treinamento dos modelos de IA. Segundo a ONU, em 2023 cerca de 3,6 bilhões de pessoas não tinham acesso à internet, e o inglês permanece predominante online. Os pesquisadores de Harvard apontam ainda outro aspecto: os métodos desenvolvidos para reduzir vieses - particularmente aqueles destinados a evitar a reprodução de conteúdos prejudiciais - podem afastar ainda mais os modelos da diversidade humana. Ética e valores culturais não são universais: percepções de justiça, tolerância à corrupção, responsabilidade e risco, segurança, soberania, gênero, família, religião, confiança variam amplamente entre sociedades, comunidades e países. A maior parte das iniciativas de mitigação foca em grupos sociais protegidos (gênero, raça e orientação sexual), enquanto a “distorção WEIRD” dos LLMs permanece pouco explorada. “Para que sistemas de IA representem plenamente a diversidade humana, ciência e indústria precisam reconhecer o problema e avançar na diversificação dos dados de treinamento”, ponderam os pesquisadores de Harvard. E advertem: “Essa distorção sistemática pode ter consequências e riscos sociais de longo alcance, à medida que se tornam mais integrados aos nossos sistemas sociais, instituições e processos de tomada de decisão”. Em uma perspectiva mais ampla, o “humanismo digital” surge como uma crítica à forma como as tecnologias digitais estão transformando a sociedade. O conceito busca alinhar a tecnologia aos valores humanistas, alertando para práticas que podem “sacrificar seres humanos, a razão, as habilidades e a criatividade em prol do progresso tecnológico”. O filósofo Mark Coeckelbergh em sua análise do conceito (“What is digital Humanism? A conceptual analysis and an argument for a more critica and political digital (post) humanism”, março de 2024), questiona: o que acontece se continuarmos a transferir a agência dos humanos para os algoritmos? Ainda há espaço para os humanos? No processo, corremos o risco de nos tornarmos máquinas? Com uma visão menos binária e antropocêntrica, o filósofo critica seis pilares frequentemente associados ao humanismo digital: 1) Humano vs. Máquina: A ideia do humano como “não-máquina” é problemática. Tecnologias estão intrinsecamente conectadas a nós - por meio do design, do uso e do impacto no nosso pensamento. A solução não é separar humanos e máquinas conceitualmente, mas criar uma relação mais saudável entre eles, reconhecendo que coevoluímos, ou seja, humanos e tecnologia se moldam mutuamente; 2) Controle Humano: A visão de que estamos perdendo o controle é perigosa, pois pode levar ao determinismo tecnológico e à evasão de responsabilidade. É crucial analisar as relações de poder e buscar uma verdadeira democratização das tecnologias digitais e da sociedade. 3) Alinhamento com Valores Humanos: Embora seja vital, a implementação de valores no design (ética by design) é complexa. Quais valores e de quem devem ser implementados? Há um risco de (pós) colonialismo quando valores ocidentais dominam a inovação. Além disso, os valores não são estáticos e o próprio antropocentrismo da ética tradicional é questionável à luz do ambientalismo e do pós-humanismo (por que apenas os valores humanos deveriam importar?). 4) Interdisiciplinaridade: A colaboração entre STEM e humanidades é vital, mas exige uma reforma educacional radical - orientada por problemas, não por disciplinas - e a superação de uma estrutura burocrática e neoliberal que dificulta a pesquisa profunda e interdisciplinar. Vale observar que as próprias tecnologias digitais já moldam os processos de conhecimento e comunicação na educação; 5) Comunidade: As mídias sociais podem fragmentar a esfera pública tanto quanto podem construir comunidades. Construir um ambiente digital verdadeiramente comunitário exige uma mudança política profunda; 6) Reformas Políticas e Democracia: O humanismo digital é, inevitavelmente, um projeto político, no qual a visão de democracia transcende o voto. É preciso ir além de pequenas regulamentações e discutir que tipo de democracia se deseja, como enfrentar tendências autoritárias e como organizar um movimento que seja, ele mesmo, democrático. O debate em torno da IA e do “humano universal” revela uma encruzilhada. De um lado, a indústria e parte da academia perpetuam um benchmark humano homogêneo e WEIRD, obscurecendo a diversidade psicologia e cultural da humanidade. Do outro, a crítica do humanismo digital, como articulada por Coeckelbergh, nos leva a questionar as próprias bases de uma ética puramente antropocêntrica e a imaginar uma relação mais integrada e responsável com a tecnologia. A pergunta, portanto, não é se as máquinas podem se tornar humanas, mas que tipo de humanidade - plural, diversa e em constante coevolução com a técnica - queremos ver refletida e amplificada. Mais Lidas O termo “Inteligência Artificial”, cunhado em 1956 no evento que inaugura o campo de conhecimento, tornou-se a designação universal da tecnologia. No entanto, ao estimular a comparação com a inteligência biológica, ele gera mais confusão do que clareza. Curiosamente, John McCarthy, professor de Dartmouth e organizador do evento, inicialmente preferiu a expressão "estudos de autômatos”. Como não atraiu atenção, optou por “inteligência artificial” - uma escolha que, ao permitir antropomorfizações, tornou o campo mais atraente. Hoje, pressionada pela intensa competição, a indústria da IA explora deliberadamente essa ambiguidade, em um cenário onde parece “vale qualquer coisa” para sustentar o hype. Proliferam testes que comparam o desempenho de sistemas de IA ao humano, com frequência argumentando que eles respondem cognitiva e atitudinalmente de forma semelhante. O “Relatório do Índice de IA de 2025”, da Universidade de Stanford (Stanford University 2025 AI Index Report), por exemplo, afirma que os modelos de linguagem (LLMs) - sistemas capazes de entender, gerar e processar linguagem natural - já superam o desempenho humano em tarefas como classificação de imagens, raciocínio visual, compreensão de leitura de nível intermediário, compreensão da língua inglesa, matemática de nível competitivo, questões científicas de nível de doutorado, embora ressalve que o raciocínio complexo permanece um desafio. Outro exemplo é o relatório técnico do GPT-4 (OpenAI, 2023, GPT-4 technical report), que se apresenta como um modelo “com desempenho de nível humana em certos benchmarks profissionais e acadêmicos difíceis”. A comparação entre LLMs e humanos tornou-se recorrente na academia, particularmente nas ciências sociais. Mas que humano é esse? Existe um padrão humano universal? Essa é justamente a questão central levantada por pesquisadores do Departamento de Biologia Evolutiva Humana da Universidade de Harvard. Eles argumentam que grande parte da literatura ignora que “os humanos são uma espécie cultural com uma diversidade psicológica substancial ao redor do mundo, a qual não é totalmente capturada pelos dados textuais usados para treinar os LLMs”. Processos cognitivos aparentemente básicos variam significativamente entre populações, e diferenças linguística podem influenciar até mesmo processos cognitivos não linguísticos. “É enganoso”, alertam os pesquisadores, “referir-se a uma categoria monolítica de ‘humanos’ quando existe tanta diversidade psicológica”. Há ainda um problema de representatividade nos dados: a maior parte extraída na internet é desproporcionalmente enviesada para o grupo WEIRD (Ocidental, Educado, Industrializado, Rico e Democrático). Populações não-WEIRD têm menos probabilidade de serem alfabetizadas, de terem acesso à internet (e internet de qualidade) e de terem sua produção textual incluída nas bases de dados de treinamento dos modelos de IA. Segundo a ONU, em 2023 cerca de 3,6 bilhões de pessoas não tinham acesso à internet, e o inglês permanece predominante online. Os pesquisadores de Harvard apontam ainda outro aspecto: os métodos desenvolvidos para reduzir vieses - particularmente aqueles destinados a evitar a reprodução de conteúdos prejudiciais - podem afastar ainda mais os modelos da diversidade humana. Ética e valores culturais não são universais: percepções de justiça, tolerância à corrupção, responsabilidade e risco, segurança, soberania, gênero, família, religião, confiança variam amplamente entre sociedades, comunidades e países. A maior parte das iniciativas de mitigação foca em grupos sociais protegidos (gênero, raça e orientação sexual), enquanto a “distorção WEIRD” dos LLMs permanece pouco explorada. “Para que sistemas de IA representem plenamente a diversidade humana, ciência e indústria precisam reconhecer o problema e avançar na diversificação dos dados de treinamento”, ponderam os pesquisadores de Harvard. E advertem: “Essa distorção sistemática pode ter consequências e riscos sociais de longo alcance, à medida que se tornam mais integrados aos nossos sistemas sociais, instituições e processos de tomada de decisão”. Em uma perspectiva mais ampla, o “humanismo digital” surge como uma crítica à forma como as tecnologias digitais estão transformando a sociedade. O conceito busca alinhar a tecnologia aos valores humanistas, alertando para práticas que podem “sacrificar seres humanos, a razão, as habilidades e a criatividade em prol do progresso tecnológico”. O filósofo Mark Coeckelbergh em sua análise do conceito (“What is digital Humanism? A conceptual analysis and an argument for a more critica and political digital (post) humanism”, março de 2024), questiona: o que acontece se continuarmos a transferir a agência dos humanos para os algoritmos? Ainda há espaço para os humanos? No processo, corremos o risco de nos tornarmos máquinas? Com uma visão menos binária e antropocêntrica, o filósofo critica seis pilares frequentemente associados ao humanismo digital: 1) Humano vs. Máquina: A ideia do humano como “não-máquina” é problemática. Tecnologias estão intrinsecamente conectadas a nós - por meio do design, do uso e do impacto no nosso pensamento. A solução não é separar humanos e máquinas conceitualmente, mas criar uma relação mais saudável entre eles, reconhecendo que coevoluímos, ou seja, humanos e tecnologia se moldam mutuamente; 2) Controle Humano: A visão de que estamos perdendo o controle é perigosa, pois pode levar ao determinismo tecnológico e à evasão de responsabilidade. É crucial analisar as relações de poder e buscar uma verdadeira democratização das tecnologias digitais e da sociedade. 3) Alinhamento com Valores Humanos: Embora seja vital, a implementação de valores no design (ética by design) é complexa. Quais valores e de quem devem ser implementados? Há um risco de (pós) colonialismo quando valores ocidentais dominam a inovação. Além disso, os valores não são estáticos e o próprio antropocentrismo da ética tradicional é questionável à luz do ambientalismo e do pós-humanismo (por que apenas os valores humanos deveriam importar?). 4) Interdisiciplinaridade: A colaboração entre STEM e humanidades é vital, mas exige uma reforma educacional radical - orientada por problemas, não por disciplinas - e a superação de uma estrutura burocrática e neoliberal que dificulta a pesquisa profunda e interdisciplinar. Vale observar que as próprias tecnologias digitais já moldam os processos de conhecimento e comunicação na educação; 5) Comunidade: As mídias sociais podem fragmentar a esfera pública tanto quanto podem construir comunidades. Construir um ambiente digital verdadeiramente comunitário exige uma mudança política profunda; 6) Reformas Políticas e Democracia: O humanismo digital é, inevitavelmente, um projeto político, no qual a visão de democracia transcende o voto. É preciso ir além de pequenas regulamentações e discutir que tipo de democracia se deseja, como enfrentar tendências autoritárias e como organizar um movimento que seja, ele mesmo, democrático. O debate em torno da IA e do “humano universal” revela uma encruzilhada. De um lado, a indústria e parte da academia perpetuam um benchmark humano homogêneo e WEIRD, obscurecendo a diversidade psicologia e cultural da humanidade. Do outro, a crítica do humanismo digital, como articulada por Coeckelbergh, nos leva a questionar as próprias bases de uma ética puramente antropocêntrica e a imaginar uma relação mais integrada e responsável com a tecnologia. A pergunta, portanto, não é se as máquinas podem se tornar humanas, mas que tipo de humanidade - plural, diversa e em constante coevolução com a técnica - queremos ver refletida e amplificada. Mais Lidas

A Ilusão do “Humano Universal” na Inteligência Artificial

2025/11/28 17:01
Leu 1 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com
A comparação entre LLMs e humanos tornou-se recorrente na academia, particularmente nas ciências sociais. Mas que humano é esse? Existe um padrão humano universal?
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.

USD1 Genesis: 0 Fees + 12% APR

USD1 Genesis: 0 Fees + 12% APRUSD1 Genesis: 0 Fees + 12% APR

New users: stake for up to 600% APR. Limited time!