Investigação do Guardian revela informações imprecisas em resumos

O jornal The Guardian revelou diversos casos de informações de saúde imprecisas nos Resumos de IA do Google. Fotografia: Caia Image/Alamy
Por Andrew Gregory para “The Guardian”
Uma investigação do jornal The Guardian revelou que as pessoas estão sendo expostas a riscos devido a informações de saúde falsas e enganosas nos resumos de inteligência artificial do Google.
A empresa afirmou que seus Resumos de IA, que usam IA generativa para fornecer instantâneos de informações essenciais sobre um tópico ou questão, são “úteis ” e “confiáveis ”.
No entanto, alguns dos resumos, que aparecem no topo dos resultados de pesquisa, forneciam informações de saúde imprecisas e colocavam as pessoas em risco de sofrer danos.
Em um caso que especialistas descreveram como “realmente perigoso”, o Google aconselhou erroneamente pessoas com câncer de pâncreas a evitarem alimentos ricos em gordura. Especialistas afirmaram que isso era exatamente o oposto do que deveria ser recomendado e pode aumentar o risco de morte dos pacientes pela doença.
Em outro exemplo “alarmante”, a empresa forneceu informações falsas sobre testes cruciais de função hepática, o que poderia levar pessoas com doenças hepáticas graves a acreditarem erroneamente que estão saudáveis.
As buscas no Google por respostas sobre exames de câncer em mulheres também forneceram informações “completamente erradas”, o que, segundo especialistas, pode levar as pessoas a ignorar sintomas reais.
Um porta-voz do Google afirmou que muitos dos exemplos de saúde compartilhados com eles eram “capturas de tela incompletas”, mas, pelo que puderam avaliar, continham links “para fontes conhecidas e confiáveis e recomendavam a busca por aconselhamento especializado”.
A investigação do The Guardian surge em meio à crescente preocupação de que os dados de IA possam confundir os consumidores, que podem presumir que sejam confiáveis. Em novembro do ano passado, um estudo descobriu que chatbots de IA em diversas plataformas forneciam conselhos financeiros imprecisos , enquanto preocupações semelhantes foram levantadas em relação a resumos de notícias .
Sophie Randall, diretora do Patient Information Forum, que promove informações de saúde baseadas em evidências para pacientes, público em geral e profissionais de saúde, afirmou que os exemplos mostram que “os Resumos de IA do Google podem colocar informações de saúde imprecisas no topo das buscas online, representando um risco para a saúde das pessoas”.
Stephanie Parker, diretora da área digital da Marie Curie, uma instituição de caridade que oferece cuidados paliativos, afirmou: “As pessoas recorrem à internet em momentos de preocupação e crise. Se as informações que recebem forem imprecisas ou estiverem fora de contexto, isso pode prejudicar seriamente a sua saúde.”
O jornal The Guardian revelou diversos casos de informações de saúde imprecisas nos Resumos de IA do Google, após várias organizações de saúde, instituições de caridade e profissionais expressarem preocupação.
Anna Jewell, diretora de apoio, pesquisa e influência da Pancreatic Cancer UK, afirmou que aconselhar pacientes a evitarem alimentos ricos em gordura é “completamente incorreto”. Fazer isso “pode ser muito perigoso e comprometer as chances de uma pessoa estar bem o suficiente para receber tratamento”, acrescentou.
Jewell afirmou: “A resposta da IA do Google sugere que pessoas com câncer de pâncreas evitem alimentos ricos em gordura e fornece uma lista de exemplos. No entanto, se alguém seguisse o que o resultado da pesquisa indica, poderia não ingerir calorias suficientes, ter dificuldade para ganhar peso e não tolerar a quimioterapia ou uma cirurgia que poderia salvar sua vida.”
Digitar “qual é a faixa normal para exames de sangue do fígado” também forneceu informações enganosas, com uma grande quantidade de números, pouco contexto e sem levar em consideração a nacionalidade, o sexo, a etnia ou a idade dos pacientes.
Pamela Healy, diretora executiva da British Liver Trust, afirmou que os resumos gerados por IA são alarmantes. “Muitas pessoas com doenças hepáticas não apresentam sintomas até os estágios avançados, por isso é tão importante que façam exames. Mas o que as análises de IA do Google consideram ‘normal’ pode variar drasticamente do que é realmente considerado normal.”
“É perigoso porque significa que algumas pessoas com doenças hepáticas graves podem achar que têm um resultado normal e, portanto, não se preocuparem em comparecer a uma consulta de acompanhamento com o profissional de saúde.”
Uma busca por “sintomas e exames para câncer vaginal” listou o exame de Papanicolau como um exame para detectar câncer vaginal, o que está incorreto.
Athena Lamnisos, diretora executiva da instituição de caridade para o câncer Eve Appeal, disse: “Não é um teste para detectar câncer e certamente não é um teste para detectar câncer vaginal – essa informação está completamente errada. Receber informações erradas como essa pode levar alguém a não procurar atendimento médico para sintomas de câncer vaginal por ter tido um resultado negativo em um exame preventivo recente de câncer do colo do útero.”
“Também nos preocupou o fato de o resumo da IA mudar quando realizávamos exatamente a mesma pesquisa, apresentando uma resposta diferente a cada vez, baseada em fontes distintas. Isso significa que as pessoas recebem uma resposta diferente dependendo de quando pesquisam, e isso não é aceitável.”
Lamnisos disse estar extremamente preocupada. “Alguns dos resultados que vimos são realmente preocupantes e podem potencialmente colocar as mulheres em perigo”, afirmou.
O jornal The Guardian também descobriu que o Google AI Overviews fornecia resultados enganosos para pesquisas sobre transtornos mentais. “Isso é extremamente preocupante para nós como instituição de caridade”, afirmou Stephen Buckley, chefe de informações da Mind.
Alguns dos resumos de IA para condições como psicose e distúrbios alimentares ofereciam “conselhos muito perigosos” e eram “incorretos, prejudiciais ou poderiam levar as pessoas a evitar procurar ajuda”, disse Buckley.
Alguns também deixaram de considerar contextos ou nuances importantes, acrescentou. “Eles podem sugerir o acesso a informações de sites inadequados e sabemos que, quando a IA resume informações, muitas vezes pode refletir preconceitos, estereótipos ou narrativas estigmatizantes preexistentes.”
O Google afirmou que a grande maioria de seus Resumos de IA eram factuais e úteis, e que realiza melhorias contínuas na qualidade. A taxa de precisão dos Resumos de IA estava em pé de igualdade com seus outros recursos de busca, como os snippets em destaque, que já existiam há mais de uma década, acrescentou a empresa.
A empresa também afirmou que, quando o AI Overviews interpretasse erroneamente o conteúdo da web ou ignorasse o contexto, tomaria as medidas cabíveis de acordo com suas políticas.
Um porta-voz do Google afirmou: “Investimos significativamente na qualidade das Visões Gerais de IA, principalmente em tópicos como saúde, e a grande maioria fornece informações precisas.”
Fonte: The Guardian