Google — Foto: Pexels
O Google removeu alguns de seus resumos de saúde gerados por inteligência artificial depois que uma investigação do jornal The Guardian constatou que pessoas estavam sendo colocadas em risco de danos devido a informações falsas e enganosas.
A empresa afirmou que os chamados AI Overviews, que utilizam IA generativa para fornecer visões gerais sobre um tema ou pergunta, são “úteis” e “confiáveis”. No entanto, alguns desses resumos, que aparecem no topo dos resultados de busca, apresentaram informações de saúde imprecisas.
Segundo o The Guardian, o Google forneceu informações falsas sobre exames essenciais de função hepática, o que poderia levar pessoas com doenças graves no fígado a acreditarem erroneamente que estavam saudáveis. Ao buscar “qual é o intervalo normal para exames de sangue do fígado”, apareciam diversos números, com pouco contexto e sem levar em conta nacionalidade, sexo, etnia ou idade dos pacientes, segundo apuração do jornal britânico.
Especialistas descreveram o caso como “perigoso” e “alarmante”. Eles afirmaram que o que os AI Overviews do Google indicavam como normal podia variar drasticamente do que é, de fato, considerado normal. Esses resumos poderiam levar pacientes gravemente doentes a acreditar, de forma equivocada, que seus resultados de exames estavam normais e, assim, deixar de comparecer a consultas ou acompanhamentos médicos.
Após a investigação, a empresa removeu os AI Overviews para os termos de busca “qual é o intervalo normal para exames de sangue do fígado” e “qual é o intervalo normal para exames de função hepática”.
Uma porta-voz do Google afirmou que eles não comentam remoções individuais dentro da busca. "Nos casos em que os AI Overviews deixam de apresentar algum contexto, trabalhamos para fazer melhorias amplas e também tomamos medidas de acordo com nossas políticas, quando apropriado.”
Vanessa Hebditch, diretora de comunicação e políticas da British Liver Trust, uma instituição de caridade voltada à saúde do fígado, afirmou ter ficado satisfeita com a remoção, mas apontou outra questão.
“Se a pergunta for feita de uma forma diferente, um AI Overview potencialmente enganoso ainda pode ser exibido, e continuamos preocupados com o fato de que outras informações de saúde produzidas por IA podem ser imprecisas e confusas”, disse ao The Guardian.
“Um exame de função hepática, ou LFT (liver function test), é um conjunto de diferentes exames de sangue. Compreender os resultados e saber quais são os próximos passos é algo complexo e envolve muito mais do que comparar um conjunto de números".
Para ela, os AI Overviews apresentam uma lista de exames em negrito, o que torna muito fácil para os leitores não perceberem os números talvez nem sejam os corretos para o exame que realizaram.
“Além disso, os AI Overviews não alertam que uma pessoa pode ter resultados normais nesses exames mesmo tendo uma doença grave no fígado e precisando de atendimento médico adicional. Essa falsa sensação de segurança pode ser muito prejudicial.”
O Google afirmou que estava analisando os novos exemplos apresentados pelo The Guardian.
Os AI Overviews ainda aparecem em outros exemplos que o Guardian havia destacado originalmente ao Google. Eles incluem resumos de informações sobre câncer e saúde mental que especialistas descreveram como “completamente errados” e “realmente perigosos”.
Questionado sobre por que esses AI Overviews também não foram removidos, o Google disse que eles continham links para fontes conhecidas e respeitáveis, além de informar as pessoas quando era importante buscar orientação especializada.
“Nossa equipe interna de médicos analisou o que nos foi compartilhado e constatou que, em muitos casos, as informações não eram imprecisas e também eram respaldadas por sites de alta qualidade”, disse um porta-voz.
O Google afirmou que os AI Overviews só aparecem em consultas nas quais a empresa tem alto grau de confiança na qualidade das respostas. A companhia acrescentou que mede e revisa constantemente a qualidade de seus resumos em diversas categorias de informação.


