O uso da inteligência artificial (IA) generativa e de ferramentas baseadas em aprendizado de máquina tem crescido exponencialmente em universidades e centros de pesquisa no Brasil e no mundo. Plataformas como ChatGPT, Elicit e Scite tornaram-se cada vez mais populares entre pesquisadores, que as utilizam para acelerar revisões bibliográficas, gerar hipóteses e até sugerir metodologias. Mas até que ponto essa eficiência compromete a formação e a pesquisa acadêmica?
O fenômeno levanta questões metodológicas e éticas profundas: onde termina o auxílio da IA e começa a substituição do pesquisador humano?
No meio acadêmico, uma das principais preocupações é o uso acrítico dessas ferramentas por parte de estudantes. Pressionados por prazos curtos ou em busca de praticidade, muitos estudantes simplesmente confiam nos resultados gerados por prompts de IA e os replicam sem checar fontes ou refletir sobre o conteúdo.
Isso pode levar à propagação de visões limitadas, meias-verdades e conteúdos moldados por algoritmos que não necessariamente refletem a complexidade do saber científico.
“Às vezes o texto não está errado, mas é superficial — e isso não condiz com a profundidade do rigor científico”, alerta Fabiana Nogueira, doutora em Administração pela Faculdade de Economia e Gestão (FEP) da Universidade do Porto e docente do Departamento de Administração na Faculdade de Economia, Administração, Atuariais e Contabilidade da Universidade Federal do Ceará (FEAAC – UFC).
Ela enfatiza a necessidade de transparência e rigor na filtragem dos resultados fornecidos pelas IAs. “É preciso, portanto, que haja transparência, filtro e que se delete o que é superficial ou errado. E isso, muitas vezes, depende da ética do pesquisador, que precisa saber até onde a IA ajuda e em que momento atrapalha. Eu diria que vivemos um grande desafio entre querer avançar com estas tecnologias que usam IA generativa e conseguir usá-las de uma forma que seja realmente útil para a ciência”, diz.
O uso de tecnologias na pesquisa acadêmica, especialmente na área da Administração, já ocorre há décadas. No âmbito da pesquisa, ferramentas com IA têm auxiliado na análise de dados, automação de processos, tradução de textos, transcrição de áudios e síntese de informações. O que muda agora é a amplitude de acesso. “Hoje, qualquer pessoa pode pedir soluções e gerar conteúdos em segundos com ferramentas gratuitas. Isso tem um potencial transformador e até tentador”, afirma Fabiana.
Contudo, esse avanço esconde armadilhas. “A IA pode oferecer respostas corretas, mas fora de contexto; ou então respostas padronizadas e superficiais. Há também erros reais — as chamadas ‘alucinações’ das IAs generativas”, explica a professora. Por isso, ela defende que o uso dessas ferramentas esteja sempre aliado a habilidades como senso crítico, visão analítica e capacidade de contextualização.
Entre a inovação e a regulamentação
A professora aponta para uma lacuna preocupante: a ausência de regulamentação. “Estamos diante de um avanço tecnológico acelerado, mas sem uma regulação normativa que assegure o uso ético e responsável dessas ferramentas.”
Segundo Fabiana, a discussão não deve se restringir ao presente. “Precisamos refletir sobre o futuro. A IA está se integrando à robótica, à internet das coisas, aos dispositivos móveis. O impacto será ainda maior, e a regulamentação precisa acompanhar esse ritmo.”
Desafio de gerações
Nas universidades, o desafio também é geracional. De um lado, professores experientes com dificuldade em dominar certas habilidades digitais; de outro, estudantes em maioria da geração Z, geralmente ágeis com a tecnologia, mas sem maturidade para julgar criticamente o conteúdo gerado por IA.
“Cabe aos docentes promover a integração entre esses perfis, ajudando a diminuir esse ‘gap’. É papel da universidade formar profissionais com competências digitais, mas também com senso ético e visão crítica”, pontua.
Nesse novo cenário, o papel do docente torna-se ainda mais crucial. Isso porque, na visão da professora, a educação vai muito além da simples transferência de conteúdos, técnicas ou teorias (as chamadas hard skills).
“Educar não é apenas ensinar a fazer, mas formar o olhar crítico e o senso de responsabilidade. A verdadeira educação se constrói a partir de experiências vividas, contextos analisados, decisões avaliadas — aspectos que as máquinas ainda não são capazes de fazer”.
A própria Universidade Federal do Ceará (UFC) tem se empenhado em apoiar docentes na adaptação às novas demandas impostas pela IA por meio de incentivos à diversos projetos de ensino, pesquisa e extensão. “Oferecemos cursos, rodas de conversa, projetos de pesquisa e editais de incentivo ao desenvolvimento de IA brasileiras.
Um dos exemplos é o Laboratório ADM2Digital da FEAAC, criado em meados de 2024 com o objetivo de manter um diálogo ativo entre a academia e o mercado diante da transformação digital. A professora Fabiana sintetiza que são ações formais e informais voltadas à compreensão crítica do tema e conclui com um apelo: “A medida da evolução tecnológica deve ser também a da regulação normativa em prol do bem-estar social e da humanidade”.