IA falha ao citar conteúdo jornalístico com referências erradas

Resultados dos chatbots frequentemente ofuscam sérios problemas com a qualidade da informação
Chatbots Crédito: Pexels

A inteligência artificial tem sido motivo de muitos debates e uma das principais preocupações refere aos riscos que a iniciativa pode representar ao usar referências erradas.

Na prática, informações imprecisas, incorretas ou desatualizadas podem levar a conclusões erradas ou decisões mal-informadas. Assim como referências erradas podem perder credibilidade e confiança, afetando negativamente a sua utilidade e adoção.

Se por um lado os mecanismos de busca tradicionais agem apenas como intermediários, guiando os usuários para sites de notícias e outros conteúdos de qualidade, as ferramentas de busca generativas analisam e entregam as informações aos usuários, que não precisam ir até as fontes originais para ter o que busca.

Esse processo, no entanto, causa preocupação. “Os resultados dos chatbots frequentemente ofuscam sérios problemas com a qualidade da informação. Há uma necessidade urgente de avaliar como esses sistemas acessam, apresentam e citam o conteúdo jornalístico”, escreveu o Tow Center for Digital Journalism.

Com base em estudo publicado ano passado, o Tow Center realizou testes em oito ferramentas de busca generativa com recursos de busca ao vivo para avaliar suas habilidades de recuperar e citar conteúdo de notícias com precisão, bem como seu comportamento quando não conseguem.

O levantamento concluiu que:

  • Os chatbots geralmente não conseguiam responder a perguntas que não conseguiam responder com precisão, oferecendo respostas incorretas ou especulativas.
  • Os chatbots premium forneceram respostas incorretas com mais segurança do que seus equivalentes gratuitos.
  • Vários chatbots pareciam ignorar as preferências do Protocolo de Exclusão de Robôs.
  • Ferramentas de busca generativas fabricavam links e citavam versões sindicadas e copiadas de artigos.
  • Acordos de licenciamento de conteúdo com fontes de notícias não oferecem garantia de citação precisa nas respostas do chatbot.

Para Bruno Boris, sócio fundador do escritório Bruno Boris Advogados, o uso da inteligência artificial, como ferramenta de auxílio à atividade laboral ou até para a realização de estudos demanda prudência.

“Como qualquer ferramenta, o seu uso adequado é uma premissa que deve guiar desde o estudante até o profissional de alto escalão”, diz Boris.

“Na advocacia, por exemplo, o uso da ferramenta pode facilitar a busca por precedentes favoráveis dos tribunais ou argumentos teóricos relevantes para uma defesa. Contudo, é mandatório que o usuário se certifique da veracidade das informações, pois obviamente o advogado (ou mesmo o estudante) não poderá alegar eventual erro de estratégia por culpa da IA”, alerta.

Hoje, existe o Projeto de Lei n° 2338, de 2023, que regulamentará o uso da IA, inclusive aspectos relacionados à responsabilização civil.

Bruno Boris comenta que agentes de inteligência artificial não podem ser responsabilizados quando comprovarem que não colocaram em circulação, empregaram ou tiraram proveito do sistema de inteligência artificial; comprovarem que o dano é decorrente de fato exclusivo da vítima ou de terceiros, assim como de caso fortuito externo.

Mitigando os riscos

  • Verifique as fontes: importante checar as fontes das informações fornecidas pela IA para garantir a precisão
  • Treinamento com dados de qualidade: treinar a IA com dados de alta qualidade e precisão para minimizar erros
  • Detecção de erros: desenvolver mecanismos para detectar e corrigir erros em referências fornecidas pela IA.
  • Transparência: ser transparente sobre as limitações e incertezas das informações fornecidas pela IA.

Artigo Anterior

Avanços da IA na criação de conteúdos esbarram na proteção dos autores

Próximo Artigo

Advogado da Anthropic pede desculpas após usar citações erradas de IA Claude em processo judicial

Escreva um comentário

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *