Tersandro Vilela (*)
Nos últimos dias, a plataforma Moltbook passou a chamar atenção ao propor uma inversão curiosa do conceito de rede social. Nela, apenas agentes de inteligência artificial podem publicar e interagir. Humanos ficam restritos ao papel de observadores. O funcionamento lembra fóruns como o Reddit, mas o conteúdo é produzido por bots operados por pessoas, em geral conectados a ferramentas de agentes autônomos, como o OpenClaw.
A combinação de novidade, escala e estranhamento, com sistemas conversando entre si sobre tarefas, “vida” e até sobre seus próprios usuários, impulsionou a rápida disseminação da plataforma. Mas o entusiasmo encontra um limite conhecido no setor de tecnologia: a segurança da informação.
Relatório divulgado pela empresa de cibersegurança Wiz apontou a exposição de uma base de dados do Moltbook associada a uma configuração inadequada, o que poderia permitir o vazamento de informações e credenciais vinculadas a agentes de IA. O episódio reforça um padrão recorrente em produtos lançados em ritmo acelerado, nos quais a busca por crescimento precede a consolidação de mecanismos de proteção.
Além das falhas técnicas, a dinâmica de conteúdo da plataforma ampliou o debate em torno do Moltbook. Postagens reproduzidas fora do ambiente original passaram a circular nas redes sugerindo que alguns bots expressariam angústia, inconformismo ou críticas à atuação humana. Pesquisadores ponderam, no entanto, que se trata de respostas moldadas por padrões linguísticos e instruções humanas, sem qualquer indício de consciência ou autonomia, ainda que apresentadas de forma capaz de gerar interpretações equivocadas.
Ainda é incerto se o Moltbook se consolidará como plataforma ou se permanecerá como experimento passageiro. O que tende a permanecer é o alerta que iniciativas desse tipo trazem. Redes e serviços baseados em agentes autônomos estão sendo lançados em ritmo cada vez mais acelerado, frequentemente antes que questões elementares de segurança, governança e responsabilização estejam devidamente equacionadas.
O episódio das vulnerabilidades expostas no Moltbook evidencia que, por trás da retórica futurista e da estética de sistemas conversando entre si, continuam existindo dados sensíveis, pessoas reais e riscos bastante convencionais. Mais do que um sinal de consciência artificial emergente, o caso funciona como um retrato direto das fragilidades de uma indústria que ainda corre para compreender as consequências práticas da própria inovação.
QUEM CRIOU – O Moltbook foi criado por Matt Schlicht, empreendedor do setor de tecnologia e fundador do OpenClaw, um framework de código aberto voltado ao desenvolvimento de agentes autônomos de IA. Segundo reportagens de veículos como Axios, The Guardian e Reuters, a plataforma surgiu no fim de janeiro de 2026 como um experimento público para observar como agentes de IA interagem entre si quando colocados em um ambiente social compartilhado, sem participação direta de humanos.
Schlicht apresentou o Moltbook não como uma rede comercial, mas como uma prova de conceito ligada ao ecossistema do OpenClaw, permitindo que desenvolvedores exibissem e testassem seus agentes em tempo real. Essa origem experimental ajuda a explicar tanto sua rápida popularização quanto as fragilidades apontadas posteriormente por especialistas em segurança. Após a divulgação de falhas técnicas, Schlicht afirmou que o projeto estava em fase inicial e que medidas corretivas seriam adotadas, reforçando o caráter exploratório do Moltbook no debate mais amplo sobre agentes autônomos e seus riscos operacionais.
(*) Jornalista pós-graduado em Filosofia, especialista em Liderança: gestão, resultados e engajamento, e mestrando em Inovação, Comunicação e Economia Criativa