A onda mais recente de entusiasmo em torno da inteligência artificial ganhou um mascote inusitado: uma lagosta. O assistente pessoal de IA Clawdbot, que viralizou poucas semanas após o lançamento, passou a se chamar Moltbot após um desafio legal envolvendo a Anthropic, mas manteve a proposta e a identidade visual que ajudaram a impulsionar sua popularidade.
Apresentado como a “IA que realmente faz coisas”, o Moltbot foi criado para executar tarefas práticas, como gerenciar agenda, enviar mensagens por aplicativos, realizar check-in em voos e automatizar rotinas no computador. O projeto começou como uma iniciativa pessoal do desenvolvedor austríaco Peter Steinberger, conhecido como @steipete, e rapidamente atraiu milhares de usuários dispostos a enfrentar a configuração técnica necessária para testar o agente, segundo reportagem da TechCrunch.
O assistente é de código aberto e roda localmente no computador ou em um servidor escolhido pelo usuário, o que permite maior controle sobre os dados. Esse modelo, no entanto, também traz riscos. Por ter permissão para executar comandos no sistema, o Moltbot pode ser alvo de ataques como a chamada injeção de prompt, em que conteúdos maliciosos enviados por mensagens ou páginas da web induzem o agente a realizar ações indesejadas sem o conhecimento do usuário.
Mesmo assim, o projeto conquistou forte adesão entre desenvolvedores e entusiastas de IA, acumulando mais de 44 mil estrelas no GitHub em pouco tempo. A repercussão foi tão grande que chegou a impactar o mercado financeiro, com ações da Cloudflare subindo após o aumento do interesse por infraestruturas usadas para rodar o Moltbot.
Especialistas alertam que, por enquanto, o uso seguro do assistente exige cuidados como rodá-lo em ambientes isolados e evitar dados sensíveis. Ainda em estágio inicial, o Moltbot ilustra tanto o potencial dos agentes autônomos de IA quanto os desafios de equilibrar utilidade, segurança e privacidade.
Créditos da imagem: Clawdbot/Reprodução