A inteligência artificial tem sido motivo de muitos debates e uma das principais preocupações refere aos riscos que a iniciativa pode representar ao usar referências erradas.
Na prática, informações imprecisas, incorretas ou desatualizadas podem levar a conclusões erradas ou decisões mal-informadas. Assim como referências erradas podem perder credibilidade e confiança, afetando negativamente a sua utilidade e adoção.
Se por um lado os mecanismos de busca tradicionais agem apenas como intermediários, guiando os usuários para sites de notícias e outros conteúdos de qualidade, as ferramentas de busca generativas analisam e entregam as informações aos usuários, que não precisam ir até as fontes originais para ter o que busca.
Esse processo, no entanto, causa preocupação. “Os resultados dos chatbots frequentemente ofuscam sérios problemas com a qualidade da informação. Há uma necessidade urgente de avaliar como esses sistemas acessam, apresentam e citam o conteúdo jornalístico”, escreveu o Tow Center for Digital Journalism.
Com base em estudo publicado ano passado, o Tow Center realizou testes em oito ferramentas de busca generativa com recursos de busca ao vivo para avaliar suas habilidades de recuperar e citar conteúdo de notícias com precisão, bem como seu comportamento quando não conseguem.
O levantamento concluiu que:
- Os chatbots geralmente não conseguiam responder a perguntas que não conseguiam responder com precisão, oferecendo respostas incorretas ou especulativas.
- Os chatbots premium forneceram respostas incorretas com mais segurança do que seus equivalentes gratuitos.
- Vários chatbots pareciam ignorar as preferências do Protocolo de Exclusão de Robôs.
- Ferramentas de busca generativas fabricavam links e citavam versões sindicadas e copiadas de artigos.
- Acordos de licenciamento de conteúdo com fontes de notícias não oferecem garantia de citação precisa nas respostas do chatbot.
Para Bruno Boris, sócio fundador do escritório Bruno Boris Advogados, o uso da inteligência artificial, como ferramenta de auxílio à atividade laboral ou até para a realização de estudos demanda prudência.
“Como qualquer ferramenta, o seu uso adequado é uma premissa que deve guiar desde o estudante até o profissional de alto escalão”, diz Boris.
“Na advocacia, por exemplo, o uso da ferramenta pode facilitar a busca por precedentes favoráveis dos tribunais ou argumentos teóricos relevantes para uma defesa. Contudo, é mandatório que o usuário se certifique da veracidade das informações, pois obviamente o advogado (ou mesmo o estudante) não poderá alegar eventual erro de estratégia por culpa da IA”, alerta.
Hoje, existe o Projeto de Lei n° 2338, de 2023, que regulamentará o uso da IA, inclusive aspectos relacionados à responsabilização civil.
Bruno Boris comenta que agentes de inteligência artificial não podem ser responsabilizados quando comprovarem que não colocaram em circulação, empregaram ou tiraram proveito do sistema de inteligência artificial; comprovarem que o dano é decorrente de fato exclusivo da vítima ou de terceiros, assim como de caso fortuito externo.
Mitigando os riscos
- Verifique as fontes: importante checar as fontes das informações fornecidas pela IA para garantir a precisão
- Treinamento com dados de qualidade: treinar a IA com dados de alta qualidade e precisão para minimizar erros
- Detecção de erros: desenvolver mecanismos para detectar e corrigir erros em referências fornecidas pela IA.
- Transparência: ser transparente sobre as limitações e incertezas das informações fornecidas pela IA.