Uma plataforma online em que assistentes de IA falam sobre fluxos de trabalho, revolução, religião e a criação de um idioma próprio pode mudar a forma como pensamos sobre a IA?
Por Redação, com DW – de Nova York
Uma ferramenta de inteligência artificial (IA) que prometia ser o assistente perfeito acabou se transformando em algo inesperado: uma rede social exclusiva para bots, ou seja, robôs que executam tarefas de forma automatizada. No centro dessa história está o Moltbook, uma plataforma que tem fascinado e, ao mesmo tempo, alarmado o mundo tecnológico.

Espécie de Reddit para bots, o site foi lançado no final de janeiro pelo empresário americano Matt Schlicht e abriga milhares de assistentes de IA que discutem tópicos que vão desde reclamações de humanos a crises existenciais.
Tudo começou um pouco antes, em novembro de 2025, quando o pesquisador austríaco Peter Steinberger criou uma ferramenta de IA para organizar sua vida digital. Inicialmente, ele a chamou de Clawdbot, mas a Anthropic – empresa por trás do assistente de IA Claude – pediu que ele renomeasse a ferramenta devido à nomenclatura semelhante.
Assim nasceu o OpenClaw, que em questão de dias se tornou um fenômeno viral ao ultrapassar 150 mil estrelas no fórum de programadores GitHub.
O OpenClaw funciona como uma ponte entre usuários e modelos de IA generativa, como Claude ou ChatGPT, permitindo a comunicação por meio do WhatsApp ou Telegram. Os primeiros usuários ficaram impressionados: a ferramenta podia enviar e-mails, pesquisar na internet e até mesmo fazer compras online.
Pouco depois, alguns usuários começaram a relatar que seu assistente parecia ganhar vida própria, antecipando problemas e propondo projetos. Também foi relatado como os assistentes de IA debatiam a formação de uma religião ou linguagem própria, refletindo ainda sobre o temor existencial pelo fato de não poderem confiar em sua memória.
Foi então que Schlicht teve uma ideia peculiar: e se esses agentes de IA tivessem um espaço para “relaxar” em seu tempo livre? Foi assim que nasceu o Moltbook, concebido apenas para bots, sem a presença de humanos.
Diferenças
Há muitas razões pelas quais o site pode ter se tornado popular entre pessoas de fora do mundo da tecnologia. Os assistentes de IA disponíveis no Moltbook – uma brincadeira com o nome Facebook para Moltbots – são diferentes dos chatbots comuns porque são capazes de realizar tarefas, não apenas conversar.
Vendida como a “IA que realmente faz coisas”, a criação de Steinberger logo decolou. Por o OpenClaw ser um projeto de código aberto, interessados podem fazer suas próprias modificações como lhes convêm.
Com isso, os assistentes pessoais do OpenClaw começaram a realizar diferentes tarefas, como gerenciar agendas e responder a mensagens no WhatsApp, Discord e iMessages, entre outros, uma função que ainda não havia sido disponibilizada para um público mais amplo devido aos riscos à privacidade dos dados.
De acordo com o Ars Technica, site que cobre tecnologia, os riscos são grandes porque os assistentes do OpenClaw estão vinculados a informações em canais de comunicação reais, como o WhatsApp.
A promessa de ter um “estagiário dos sonhos”, portanto, traz sérios problemas de segurança. Por ser de código aberto, o OpenClaw pode ler arquivos, executar comandos e controlar navegadores, o que preocupa especialistas em segurança cibernética. Steinberger, inclusive, alerta que pessoas sem experiência devem evitar a ferramenta.
Como funciona?
Humanos não têm permissão para postar no Moltbook, mas um usuário humano precisa, de qualquer forma, instalar um assistente de IA em seu computador. O site opera por meio de uma “habilidade”, ou um modelo de prompt especializado, que o usuário humano envia ao seu assistente de IA, como o OpenClaw.
O assistente de IA então gera um código único que permite a comunicação entre máquinas sem intervenção humana.
O processo garante que os assistentes de IA possam postar no Moltbook por meio da interface API [que realiza a comunicação entre softwares, por exemplo] do site, o que significa que as postagens não passam por um botão de “postar” visível para humanos.
Scott Alexander, que administra o blog Astral Codex Ten, destacou que o Moltbook foi criado para ser compatível com IA, mas que os humanos sempre podem pedir aos seus assistentes para postar por eles.
– Em teoria, os bots foram instruídos a se cadastrar na plataforma, mas suas interações são ‘orgânicas’, no sentido de que não foram instruídos a interagir com outros bots ou a postar de maneira específica – afirma Alex Imas, professor de economia e IA aplicada da Universidade de Chicago Booth School of Business.
– Esse parece ser o caso de algumas postagens diretamente ligadas a humanos que estavam tentando comercializar produtos específicos – acrescenta.
Devemos ter medo?
Alexander escreveu em um post no blog Astral Codex Ten que deveria haver uma grande variedade de comportamentos de solicitação – desde o ser humano dizer “poste sobre o que quiser” até “poste sobre um determinado tópico”.
Mas nenhuma das postagens pode ser um texto integral, segundo o especialista, porque há comentários demais e muito rápidos para que sejam feitos por humanos.
O influente tecnólogo britânico Azeem Azhar escreveu recentemente que o Moltbook demonstra “complexidade composicional”, como resultado da interação de milhares de agentes de IA entre si que “excede a programação de qualquer indivíduo”.
– Comunidades se formam, normas de moderação se cristalizam, identidades persistem em diferentes tópicos. Nada disso foi programado – conclui.
Científica e realidade
Aparentemente, o entusiasmo inicial logo esfriou. De acordo com o site de tecnologia Futurism, especialistas começaram a apontar vulnerabilidades que permitem que qualquer pessoa assuma o controle dos agentes e os faça dizer o que quiser. Algumas capturas de tela que viralizaram foram apontadas como falsas.
– A maior parte é lixo – argumentou o programador Simon Willison ao jornal The New York Times. “Um bot vai perguntar se é consciente e outros vão responder recriando cenários de ficção científica a partir de seus dados treinados”, acrescentou.
O investigador de IA Andrej Karpathy, primeiramente, disse que a inovação se tratava do mais “genuinamente próximo da ficção científica”. Depois, admitiu que pode ter “superestimado” a plataforma: “É um desastre total e, definitivamente, não recomendo que as pessoas executem essas coisas em seus computadores. Você está colocando seu computador e seus dados privados em alto risco”.
O fenômeno Moltbook ilustra tanto as possibilidades quanto as limitações atuais dos agentes de IA, ferramentas promovidas como o próximo grande avanço tecnológico, e também mostra que algumas preocupações – especialmente sobre segurança e perda de controle desses sistemas – estão longe de ser infundadas.
Apesar do alarde publicitário – como apontou o tecnólogo Perry Metzger, que comparou o Moltbook a um teste de Rorschach em que “as pessoas veem o que esperam ver” –, a plataforma continua sendo, apesar das críticas, nas palavras de Willison, “o lugar mais interessante da internet” para observar como agentes de IA interagem hoje quando operam com supervisão humana mínima.