O professor e pesquisador Paulo Roberto Córdova, autor do recém-lançado livro “Inteligência Artificial: entre o fascínio e o medo” (Editora Contexto), afirma que desmistificar a inteligência artificial tornou-se uma necessidade urgente.
Doutor em Informática na Educação pela UFRGS e especialista em IA, ele alerta que o excesso de confiança nessas ferramentas pode comprometer o trabalho e a reputação de quem as utiliza, levando não à criação de conhecimento, mas apenas à reprodução de conteúdo baseado nos dados de treinamento.
Segundo Córdova, quando a linguagem da IA invade o discurso público, cria-se a ilusão de que máquinas “pensam” e “entendem” como humanos, enquanto o marketing e o hype da indústria exageram suas capacidades.
Para ele, é essencial promover um maior letramento em IA: empresas devem investir na capacitação de seus colaboradores, e governos, em políticas de educação, ciência e tecnologia, preparando a população para a transformação digital. Contudo, enfatiza: “Ainda estamos longe das máquinas capazes de substituir pessoas em tarefas que exigem habilidades cognitivas refinadas e ignorar essa limitação pode sair caro”.

Livro de Paulo Roberto Córdova
Intelligence.Garden – O que o inspirou a escrever “Inteligência Artificial: entre o fascínio e o medo”? Houve algum evento, avanço tecnológico ou reflexão pessoal que o motivou a explorar este tema?
Paulo Roberto Córdova: Desmistificar a inteligência artificial não é apenas uma escolha acadêmica, é uma necessidade urgente. Este livro nasceu de anos de pesquisa e de uma inquietação crescente sobre como a IA é percebida. De um lado, há o fascínio; do outro, o medo. E grande parte desse temor vem da falta de clareza sobre o que, de fato, está por trás dos algoritmos. Afinal, nenhuma tecnologia anterior havia mostrado tanto potencial para rivalizar conosco em tarefas cognitivas. Minha inspiração vem da necessidade de tentar tornar esclarecer um pouco mais sobre a IA e seu universo real. Por exemplo, palavras como “inteligência”, “aprendizado” e “raciocínio” não passam de metáforas antropomórficas usadas para descrever comportamentos resultantes de algoritmos matemáticos. Quando essa realidade é compreendida, fica mais fácil direcionar as preocupações para o que realmente importa. Não se trata de temer uma hipotética revolução das máquinas, mas de enfrentar riscos concretos: a falta de transparência nos sistemas, a erosão da privacidade, os vieses que perpetuam desigualdades históricas e a curadoria de conteúdo que molda a opinião pública nas redes sociais. Essas são as verdadeiras ameaças – e são elas que merecem atenção imediata.
Intelligence.Garden : O livro aborda a criação de uma deontologia para a IA. Que princípios ou regras você acredita que deveriam orientar o desenvolvimento e o uso ético da inteligência artificial para garantir que essa tecnologia seja usada de forma ética e responsável, sem reforçar desigualdades ou preconceitos?
Paulo Roberto Córdova: A inteligência artificial é um espelho da sociedade que a criou. Seus algoritmos estatísticos são excelentes em replicar nossos próprios preconceitos e comportamentos discriminatórios. É difícil vislumbrar soluções definitivas para resolver nas máquinas, algo que não conseguimos tratar em nós mesmos. Existem várias iniciativas internacionais abordando e sugerindo princípios éticos, que acabam sendo absorvidos pelas legislações de países preocupados com os perigos representados pela IA. Mas acredito que alguns deles sejam mais importantes ou urgentes: transparência para garantir que a sociedade saiba onde e como a IA está sendo usada. Sem isso, continuaremos reféns de decisões invisíveis, tomadas por sistemas opacos que afetam desde o crédito que recebemos até o conteúdo que consumimos diariamente. Explicabilidade para assegurar que as decisões automatizadas possam ser compreendidas — técnica e logicamente. Sem isso, corremos o risco de transformar a IA em uma “caixa-preta” inquestionável, onde nem especialistas conseguem justificar por que determinado resultado foi produzido, minando a confiança e a responsabilidade no seu uso. Supervisão humana para que possamos manter o fator humano no centro das decisões críticas, especialmente aquelas que impactam direitos fundamentais. Responsabilização para garantir que haja sempre alguém — uma instituição, uma empresa ou um profissional — assumindo as consequências das decisões tomadas por sistemas de IA. Sem isso, corremos o risco de viver em um cenário onde erros graves, discriminações e abusos fiquem sem resposta, dissolvidos em algoritmos “autônomos” que ninguém parece controlar. Não maleficência para prevenir danos concretos, como os causados por vieses algorítmicos que reproduzem ou ampliam injustiças sociais. Esses princípios não apenas orientam o desenvolvimento responsável da tecnologia, mas também ajudam a construir confiança pública e a mitigar riscos éticos e sociais. Existem outros princípios, mas esses seriam o mínimo para que pudéssemos ter alguma segurança. O mero desenvolvimento de técnicas para mitigar riscos representados pela IA não servem para muita coisa se esses princípios não forem aplicados, pois o problema maior se concentra nas ações ou omissões humanas.
Intelligence.Garden: O senhor aborda o efeito Dunning-Kruger, em que pessoas superestimam suas próprias competências sem perceber o quanto desconhecem sobre determinado assunto. No campo da computação e da IA, como esse fenômeno se manifesta, tanto entre desenvolvedores quanto usuários? Existe uma IA “invisível” que não está sendo compreendida?
Paulo Roberto Córdova: A inteligência artificial segue sendo amplamente mitificada. Embora seja uma área complexa, composta por diferentes técnicas, abordagens e intersecções com diversos campos do conhecimento, ainda é comum tratá-la como se fosse uma única entidade quase mágica. Na realidade, ela é fruto de engenharia: circuitos, transistores e algoritmos matemáticos sofisticados (operações com matrizes, cálculo e estatística). Reconhecer isso é essencial para enxergarmos a IA com menos temor e mais objetividade. Grande parte da confusão vem do processo de antropomorfização. Termos como “aprendizado”, “visão” ou “inteligência” foram popularizados para descrever comportamentos técnicos exibidos por modelos matemáticos. No meio acadêmico, sabemos que são metáforas úteis, e não equivalentes reais de capacidades humanas. No entanto, quando essa linguagem extrapola para o discurso público, cria-se a ilusão de que máquinas pensam, raciocinam ou entendem como nós. O marketing e a publicidade potencializam esse ruído. Campanhas e narrativas superestimam as capacidades da IA, fazendo com que governos, empresas e consumidores acreditem em soluções que ainda não entregam o prometido. A indústria, interessada em acelerar investimentos e adoção, construiu um ambiente de hype que frequentemente está mais próximo da ficção do que da realidade. Mesmo líderes do setor já precisaram recuar. Sam Altman, CEO da OpenAI, chegou a declarar que 2025 seria “o ano da IA”. Poucos meses depois, admitiu que o ritmo de evolução estava longe de corresponder às expectativas criadas. O episódio ilustra bem a distância entre o discurso promocional e o que efetivamente é viável hoje. É hora de colocar a IA no lugar certo: não como uma força sobrenatural, mas como um conjunto de ferramentas poderosas, porém limitadas, que exigem transparência, explicabilidade, responsabilidade e prestação de contas. Somente assim a sociedade poderá separar o mito da realidade e se preparar para lidar com os riscos concretos e as oportunidades reais dessa tecnologia.
Intelligence.Garden: Como as organizações e os governos podem preparar o mercado de trabalho para lidar com a crescente presença da IA garantindo que pessoas não sejam apenas substituídas, mas possam colaborar de forma produtiva com máquinas?
Paulo Roberto Córdova: Esse é um dilema que se repete a cada nova revolução tecnológica. A verdade é que não existe uma resposta simples. O que a história mostra é que, em regra, as tecnologias não substituem pessoas, mas funções. O que acontece ao longo do tempo é um processo de realocação. À medida que algumas funções deixam de existir, novas surgem para atender às demandas criadas pela própria tecnologia. Hoje, por exemplo, falamos em engenheiros de prompt, engenheiros de contexto, analistas de dados e especialistas em ética de IA — cargos que simplesmente não existiam uma década atrás. O ponto crítico é que essa transição não ocorre de forma automática. Ela depende de investimento estratégico em letramento em IA e em educação tecnológica desde cedo. Países como China e Índia já entenderam isso. Inserem conceitos de ciência da computação, pensamento lógico e uso crítico de algoritmos nos primeiros anos da escola. O resultado é visível: hoje, exportam cientistas, engenheiros e profissionais altamente qualificados para o mundo todo. Certamente sentiremos o impacto da presença da inteligência artificial. E esse movimento é irreversível. O ponto agora é repensar o debate sobre empregabilidade: faz sentido continuar tratando a IA como uma ameaça ou é mais produtivo enxergá-la como uma nova e urgente demanda por formação? A mais importante questão não é se a IA vai eliminar empregos, mas se estamos formando pessoas para ocupar os novos papéis que ela inevitavelmente cria. E, apesar do tom apocalíptico de alguns discursos, o cenário não é tão catastrófico quanto parece. É fato que a inteligência artificial pode substituir tarefas cognitivas específicas, especialmente as repetitivas e baseadas em padrões. Mas isso não equivale a substituir a inteligência humana em sua totalidade. Pelo contrário, abre espaço para que profissionais foquem em atividades de maior valor agregado — criatividade, pensamento crítico, tomada de decisão ética. Nesse cenário, cabe às empresas investirem em seus colaboradores. Aos governos, compete elaborar políticas educacionais e de investimento em ciência, tecnologia e infraestrutural. Do contrário, teremos de lidar com as consequências de ter uma população despreparada tendo suas funções substituída por tecnologias estrangeiras.
Intelligence.Garden: No livro você destaca a diferença entre IA fraca e IA forte? Qual a diferença entre as duas e em que estágio estamos hoje?
Paulo Roberto Córdova : Atualmente a hipótese da inteligência artificial geral ou AGI (do termo em inglês, Artificial General Intelligence) ainda é, essencialmente, uma hipótese teórica. Na literatura especializada, o tema circula mais como um debate filosófico do que como uma possibilidade tecnológica próxima. Até mesmo os conceitos de o que caracterizaria uma AGI são imprecisos e geram muitas discussões. O consenso mínimo é de que essa suposta IA deveria ter a capacidade de executar qualquer tarefa cognitiva que um humano fosse capaz executar. Essa definição vaga acaba dando margem para múltiplas interpretações sobre que atributos seriam necessários para viabilizá-la: flexibilidade intelectual, autonomia adaptativa, compreensão contextual e autorreflexão? atributos profundamente humanos? A questão é que, até agora, não existe nada que se aproxime disso. O que temos, atualmente, são sistemas altamente competentes em tarefas específicas, mas que falham fora dos domínios para os quais foram treinados: as chamadas IAs estreitas ou IAs fracas. Atualmente, por exemplo, um modelo avançado pode ser excelente em tradução de texto, mas esse mesmo modelo não é capaz de distinguir uma formiga de um gato em uma fotografia. Isso porque ela sequer tem a capacidade de ver. E aí é necessário explicar como é que as ferramentas atuais como o ChatGPT parecem compreender texto, voz, imagens e vídeos e ainda processar e gerar respostas baseadas em diferentes formatos. Bem, essas ferramentas têm vários modelos de IA estreita especializados rodando nos bastidores. Cada um desses modelos é treinado para uma função específica: reconhecimento de fala, interpretação de imagens, geração de texto, entre outras. A experiência do usuário, porém, é cuidadosamente desenhada para dar a impressão de que estamos interagindo com uma única inteligência artificial. De qualquer forma, a AGI ainda permanece no campo das hipóteses. Atualmente, não dispomos nem da tecnologia nem da capacidade computacional necessárias para tornar essas ideias uma realidade. Portanto, enquanto a superinteligência alimenta debates e especulações, ela ainda está muito distante do nosso alcance prático.
Intelligence.Garden: Quais seriam hoje os maiores obstáculos técnicos para chegar à IA forte?
Paulo Roberto Córdova: A Inteligência Artificial Geral (AGI) ainda é um horizonte distante, cercado por desafios técnicos significativos. Existe uma grande discussão sobre sua viabilidade técnica, se ela poderia surgir de um melhoramento das tecnologias atuais ou se seria necessário outro paradigma, arquitetura ou modelo computacional capaz de simular a cognição humana. Modelos de linguagem atuais, por mais avançados que sejam, dependem de correlações e probabilidades em vez de causalidade. Isso gera falhas conhecidas como “alucinações”, onde informações plausíveis podem ser factualmente incorretas, e limita o raciocínio lógico em tarefas complexas. O problema é que uma inteligência real precisa compreender relações de causa e efeito para gerar raciocínio e respostas realmente inteligentes. Além disso, a ausência de senso comum e de conhecimento ancorado no mundo real impede que esses sistemas conectem abstrações linguísticas à experiência prática, criando uma barreira crítica para a generalização do aprendizado. O aprendizado contínuo é outro ponto crítico. Modelos existentes sofrem com o chamado “esquecimento catastrófico”: ao assimilar novas informações, eles perdem habilidades previamente adquiridas. Para uma AGI funcional, essa capacidade de evoluir com a experiência, sem perder o que já foi aprendido, é essencial. Pesquisas inspiradas na neurociência oferecem caminhos promissores, mas ainda estão longe de reproduzir a flexibilidade da mente humana. A interação com o mundo físico e a integração de diferentes paradigmas de inteligência completam o quadro de desafios. A maioria dos modelos carece de “envolvimento real”, ou seja, de experiência sensório-motora direta, limitando a aplicação de conhecimentos abstratos a contextos reais. Arquiteturas híbridas, que combinam raciocínio simbólico e aprendizado baseado em redes neurais, e o uso de aprendizado por reforço multimodal surgem como soluções estratégicas. O avanço para a AGI não depende apenas de poder computacional, mas da inovação que une ciência, engenharia e neurociência para criar sistemas capazes de pensar e agir com adaptabilidade humana. Esses são alguns dos entraves que impedem os avanços nessa área. Há muitas incertezas que cercam a própria inteligência geral humana. Trata-se, portanto, de uma área cheia de especulações, ideias e conceitos vagos. Isso abre espaço para que oportunistas possam dar sua própria definição para AGI e ofereçam uma solução que caiba em seu conceito. Precisaremos estar atentos ao que virá nos próximos anos. É importante também não confundir o conceito de AGI com o da chamada superinteligência. Quando falamos em superinteligência, entramos em um território ainda mais complexo. Trata-se de uma ideia ligada à chamada singularidade — um conceito altamente controverso e sem definição clara ou consenso entre especialistas. Em tese, seria algo superior à inteligência humana, capaz de realizar tarefas e tomar decisões de forma muito além de nossas capacidades ou compreensão. Na prática, no entanto, a superinteligência permanece no campo da ficção científica. Não há evidências de que seja iminente ou mesmo tecnicamente viável no horizonte próximo, sendo mais uma hipótese teórica do que uma realidade concreta a ser temida.
Intelligence.Garden: No livro, você discute o poder crescente da IA. Quais mecanismos ou políticas você acredita serem essenciais para evitar que sistemas de IA saiam do controle, exponham dados sensíveis ou tomem decisões prejudiciais aos indivíduos?
Paulo Roberto Córdova: O poder crescente da IA está mais relacionado à sua capacidade de reproduzir aspectos da cognição humana. A combinação de volumes massivos de dados, recursos tecnológicos de ponta e investimentos trilionários tem acelerado esse processo em escala sem precedentes. Do ponto de vista social, porém, o poder pertence aos detentores desses recursos tecnológicos e das soluções baseadas em IA, que são aplicadas de forma desregulada e sem critérios éticos. Todos os dias, por exemplo, plataformas de mídias sociais decidem quais conteúdos devem aparecer nas timelines dos seus usuários, exercendo um poder silencioso, mas muito mais efetivo que os antigos meios de comunicação em massa. Esse poder molda percepções e cria bolhas informacionais que impedem o contato com o contraditório, reduzindo a capacidade crítica dos indivíduos e minando o exercício do livre pensamento. No mercado de trabalho, sistemas de recrutamento com vieses raciais, de gênero ou de idade reforçam desigualdades históricas e podem condenar populações inteiras à exclusão permanente. A principal preocupação não é uma inteligência artificial que ganhe consciência ou aja fora de controle. Embora esse risco seja discutido em artigos científicos, até agora não há evidências de que a tecnologia tenha intencionalidade própria. O verdadeiro risco está em seu uso indevido, em aplicações que servem a interesses obscuros e pouco transparentes. A saída passa por regulação robusta, fundamentada em princípios éticos como transparência, responsabilização, prevenção de danos e supervisão humana efetiva. Sem isso, corremos o risco de ver a IA consolidar não apenas novos mercados, mas também novas formas de desigualdade social e concentração de poder.
Intelligence.Garden: A evolução da PNL foi um marco recente da IA. Decisões automatizadas baseadas em PNL não sofrem influência de emoções. Isso pode ser uma vantagem em relação aos seres humanos, mas também um risco de desumanização? Como você avalia esse equilíbrio?
Paulo Roberto Córdova : Os grandes modelos de linguagem (LLMs), principais avanços da área de processamento de linguagem natural, são modelos de propósito geral. Eles podem ser aplicados em tradução automática, classificação de texto, chatbots e uma série de outras funções. Suas capacidades impressionam, mas não devem ser superestimadas. É importante lembrar que existe uma área da inteligência artificial dedicada ao raciocínio automatizado, mas ela não deve ser confundida com a PNL. Os avanços conquistados em ambas ainda são modestos quando comparados ao raciocínio humano. Os LLMs são treinados com volumes massivos de dados e, posteriormente, passam por etapas adicionais de treinamento supervisionado e por reforço. Isso os torna ferramentas extraordinárias para interpretar, organizar e sintetizar texto, que é exatamente o propósito para o qual foram criados. A partir desse movimento surgiram também os grandes modelos de raciocínio (LRMs), projetados para simular processos de raciocínio humano. No entanto, um artigo publicado em 2025, intitulado The Illusion of Thinking, mostrou que esses modelos apresentam bons resultados em tarefas de complexidade média e baixa, mas falham de forma consistente quando a dificuldade ultrapassa determinado limite, mesmo com recursos computacionais abundantes. Segundo a pesquisa, os LRMs não aplicam algoritmos formais de modo sistemático. O que produzem são sequências de pensamento que aparentam coerência, mas não se apoiam em fundamentos computacionais sólidos. A conclusão é clara: apesar da aparência de raciocínio, esses modelos ainda não possuem a capacidade genuína de pensar como seres humanos. Eles apenas simulam o processo, mas não o compreendem. Isso reforça um ponto essencial. Ainda estamos longe de máquinas capazes de substituir pessoas em tarefas que exigem habilidades cognitivas refinadas. Ignorar essa limitação pode sair caro. Empresas e organizações que apostarem na substituição prematura de profissionais por sistemas de IA em funções críticas correm o risco de pagar um preço alto em termos de desempenho, confiabilidade e reputação.
Intelligence.Garden: O risco do viés de confirmação em sistemas de IA pode comprometer a própria ciência, a lógica e a razão? Como evitar que o conhecimento gerado pela IA seja enviesado em vez de esclarecedor?
Paulo Roberto Córdova: O viés de confirmação é um mecanismo adaptativo humano. A inteligência artificial apresenta outros tipos de vieses, originados de vieses humanos, como o de amostragem, o de medição e o do experimentador. O uso desavisado e irresponsável de IA para gerar conhecimento representa um problema sério entre pesquisadores. Só em 2023, mais de 64 mil artigos com erros grosseiros gerados por IA foram identificados. Em 2025, por exemplo, um artigo publicou uma radiografia de perna humana com mais ossos do que o normal, gerada por IA. O excesso de confiança nessas ferramentas pode comprometer o trabalho e a reputação de quem as utiliza. Entre cientistas, isso não é diferente. A IA não gera conhecimento, apenas reproduz conteúdos com base nos dados usados para treiná-la. Ainda assim, LLMs podem auxiliar no planejamento, análise, organização, redação e até na geração de insights sobre diversos assuntos. O papel de investigar, criar, pensar e tomar decisões continua sendo do pesquisador humano. É fundamental não inverter ou confundir essas funções. A IA deve ser usada para complementar nossas capacidades cognitivas, e não para substituí-las. Existem sistemas multiagentes voltados para pesquisa, como o AI co-scientist do Google ou soluções da empresa japonesa Sakana, mas eles servem apenas para acelerar pesquisas e colaborar com cientistas, não para substituí-los. O que se observa atualmente é que a corrida acadêmica pelo maior número de publicações, aliada ao desconhecimento sobre os reais potenciais da IA, está promovendo um uso inadequado dessas ferramentas. O resultado é um crescente descrédito da ciência, que já enfrenta desafios em sua popularidade.
Intelligence.Garden: Olhando para o futuro, qual cenário você considera mais plausível para a IA? otimista, cético ou intermediário?
Paulo Roberto Córdova: Acredito mais em um cenário intermediário, onde as pessoas reconheçam os verdadeiros potenciais e limitações dessa tecnologia. Se é verdade que a inteligência artificial, quando aplicada de maneira adequada, é capaz de ser um catalizador de transformações extraordinárias em qualquer área, também é verdade que, sendo mal-usada pode representar sérios riscos. Penso que esse entusiasmo todo deve passar em breve. Quando isso acontecer, espero que surja uma abordagem mais madura e responsável, em que a IA seja vista como uma ferramenta poderosa, mas que exige supervisão humana, ética e reflexão crítica. O desafio será equilibrar inovação e prudência, aproveitando os benefícios sem extrapolar as expectativas ou subestimar os riscos. Nesse cenário intermediário, pesquisadores, empresas e sociedade poderão usar a IA de forma estratégica, colaborativa e segura, potencializando resultados sem comprometer a confiança e a integridade do conhecimento e do progresso.