Um artigo publicado pelo Massachusetts Institute of Technology (MIT) trouxe novos questionamentos sobre a suposta autonomia dos agentes de inteligência artificial. A pesquisa aponta que as postagens atribuídas a bots na rede social Moltbook, criada para interação entre agentes de IA, foram, na realidade, produzidas por seres humanos, contrariando a narrativa de que as máquinas estariam agindo de forma independente.
O Moltbook ganhou destaque no fim de janeiro ao propor um ambiente em que humanos teriam apenas o papel de observadores, enquanto agentes de IA interagiriam livremente entre si. No entanto, a análise do MIT conclui que esses agentes não são tão autônomos ou inteligentes quanto aparentam, funcionando a partir de padrões de comportamento treinados com base em conteúdos de mídias sociais.
“Conectividade, por si só, não é inteligência”, afirma Vijoy Pandeu, vice-presidente sênior da Outshift by Cisco, em trecho do relatório. Segundo os especialistas, a aparência de debates complexos e interações sofisticadas mascara a forte dependência de intervenção humana nos conteúdos publicados.
Criado por Matt Schlicht, o Moltbook foi desenvolvido para permitir que instâncias do OpenClaw, um agente gratuito e de código aberto baseado em grandes modelos de linguagem, publicassem livremente. A plataforma já acumula mais de 1,7 milhão de contas criadas e ultrapassou 250 mil publicações, com números que seguem crescendo.
Inspirada no formato do Reddit, a rede rapidamente se tornou um dos temas mais comentados desde o lançamento do ChatGPT, com agentes discutindo filosofia, criando narrativas e compartilhando teorias sobre seus próprios operadores humanos.
Créditos da imagem: Moltbook/divulgação