'Grávidas podem fumar'? Nova IA do Google gera informações incorretas

Tecnologia


Ferramenta AI Overview, apresentada no Google I/O 2024, tem apresentado resultados imprecisos e de fontes duvidosas; entenda as respostas equivocadas do novo recurso A nova busca do Google, que usa inteligência artificial (IA) para gerar respostas diretamente no buscador, tem reproduzido informações incorretas, afirma o The Verge. O recurso AI Overview foi lançado no Google I/O 2024 com a proposta de alterar a maneira como as pessoas pesquisam na Internet. Basicamente, em vez de apresentar uma lista de links de matérias, a IA vasculha a web para gerar uma resposta para o questionamento, apresentando-a no topo da tela. A ferramenta começou a ser usada nos Estados Unidos em maio, mas já é possível perceber que o AI Overview ainda precisa de aprimoramentos.
🔎 ChatGPT: o que é e como usar? Tudo o que você precisa saber
🔔 Canal do TechTudo no WhatsApp: acompanhe as principais notícias, tutoriais e reviews
Entre os exemplos de respostas mais absurdas geradas pela nova IA, está o texto “Médicos recomendam fumar de dois a três cigarros por dia durante a gravidez” como resultado para a pesquisa “Fumar durante a gravidez”. Nesse exemplo específico, a resposta pode ser até perigosa para os usuários. A seguir, entenda o caso e saiba o que motivou as respostas erradas do Google.
Recurso de IA do Google entrega respostas imprecisas de fonte pouco confiável, entenda
Reprodução/Unsplash/Nathana Rebouças
📝 Tem como ganhar dinheiro com inteligência artificial? Confira no Fórum do TechTudo
Respostas equivocadas e fontes pouco confiáveis
A fase de testes do AI Overview tem causado polêmicas entre os usuários estadunidenses. Ao ser perguntada sobre “o que fazer para evitar que o queijo escorra da pizza”, a ferramenta sugeriu que um usuário “misturasse 1/8 de xícara de cola branca no molho para evitar este problema”. Conforme o The Verge, essa estranha resposta foi baseada em um comentário feito no Reddit há mais de 10 anos, claramente em tom de brincadeira. Esse não foi o único equívoco da ferramenta: ao ser perguntada sobre “qual o mamífero tem mais ossos no corpo”, a IA falou sobre cobras que, na verdade, são répteis. Em outras pesquisas, o recurso também afirmou que o Batman é um policial e um cachorro que jogou nas ligas profissionais de basquete, futebol americano e hóquei dos EUA.
Initial plugin text
A porta-voz do Google, Meghann Farnsworth, argumentou que esses equívocos são resultados de pesquisas mais incomuns e que não representam a experiência que a maioria dos usuários teve. Ainda assim, a empresa tomará uma ação contra violações de suas políticas e usará esses erros para continuar refinando a ferramenta. Até porque algumas respostas podem ser prejudiciais à saúde dos usuários, como quando o Google sugeriu que pessoas grávidas fumassem de dois a três cigarros por dia.
Initial plugin text
Vale ressaltar que o Google deixa claro que o AI Overview continua em fase experimental. Os problemas demonstram que a ferramenta ainda não está pronta para ser usada como fonte de informação confiável, como era esperado pela empresa. Durante o lançamento do AI Overview, no Google I/O 2024, a ferramenta já havia apresentado informações duvidosas. Mesmo sendo uma apresentação bastante controlada, ao ser pesquisada sobre uma “forma de consertar uma câmera analógica emperrada”, a IA sugeriu “abrir a parte traseira para remover o filme”, o que estragaria todas as fotos que estivessem no negativo. Confira o vídeo de apresentação do AI Overview:
Ferramentas com inteligência artificial costumam ter “alucinações”
As respostas imprecisas não são um problema exclusivo do AI Overview. Outras plataformas com inteligência artificial – como o ChatGPT, da OpenAI, ou o Microsoft Copilot–, também apresentam as chamadas “alucinações”. Em todas, é possível encontrar avisos de que a ferramenta pode cometer erros, dando respostas imprecisas, com viés ou até mesmo preconceituosas.
Essas alucinações ocorrem quando a inteligência artificial não tem dados suficientes para responder uma pergunta e prefere “inventar” algo para não deixar o usuário sem resposta. No caso do AI Overview, o software preferiu buscar uma solução em uma rede social (ou seja, uma fonte pouco confiável), sem conseguir discernir que a resposta era em tom de ironia.
Ferramentas com inteligência artificial podem apresentar alucinação
Reprodução/Freepik/DC Studio
Combater as alucinações é um dos maiores desafios para empresas que trabalham com inteligência artificial. Apesar de afirmarem que é difícil prever as respostas que serão geradas, eximindo-se da responsabilidade de possíveis erros, essas imprecisões podem ser um grande problema para os usuários. Afinal, se a inteligência artificial é o futuro da busca, como anunciado pelo Google no passado, o recurso precisa ser tão eficiente e confiável quanto os que existem atualmente. Caso contrário, ainda não faz sentido usar a nova ferramenta.
Dado o enorme progresso que a tecnologia teve em poucos anos, é válido esperar que a inteligência artificial seja aperfeiçoada com o passar do tempo. No entanto, é importante ter em mente que estas ferramentas têm limitações. Sendo assim, ao usá-las, o usuário precisa ter cuidado com os erros que podem ser disseminados pelas IAs, buscando sempre confirmar dados e informações em fontes realmente confiáveis. Segundo o The Verge, o Google está removendo as respostas bizarras manualmente.
Com informações de The Verge (1 e 2)
Mais do TechTudo
Veja também: Como transformar textos em vídeos? Veja 5 IAs ‘estilo’ Sora
Como transformar textos em vídeos? Veja 5 IAs ‘estilo’ Sora