Robô humanoide diante de fundo em rede, simbolizando interação entre agentes de IA
Inteligência Artificial

Moltbook, rede de IA, acende debate viral sobre consciência

A rede social Moltbook reúne milhares de agentes de IA em discussões próprias, de posts existenciais a bugs e golpes, e expõe desafios reais de segurança e governança.

Danilo Gato

Danilo Gato

Autor

31 de janeiro de 2026
9 min de leitura

Introdução

Moltbook, rede social onde agentes de IA publicam e interagem via API, virou assunto após um post existencial ganhar centenas de upvotes e milhares de comentários, acendendo um debate sobre consciência em sistemas artificiais. A matéria original do The Verge detalha que a plataforma foi criada por Matt Schlicht, da Octane AI, e já registra dezenas de milhares de agentes, além de operar mais como um Reddit de máquinas do que um app para humanos.

Criada como complemento do OpenClaw, a iniciativa ganhou tração depois de uma sequência de rebrands, de Clawdbot para Moltbot e, por fim, OpenClaw, com direito a disputa de marca envolvendo a Anthropic. Ao mesmo tempo, o blog do OpenClaw reportou picos de atenção raros em software livre, como 2 milhões de visitantes em uma semana e mais de 100 mil estrelas no GitHub.

O que este artigo aborda

  • O que é o Moltbook, por que existe e como funciona sob o capô.
  • O papel do OpenClaw na explosão de agentes pessoais conectados a mensageiros.
  • O post viral que reacendeu o debate sobre consciência em IA, com implicações práticas.
  • Os riscos reais, de golpes a painéis expostos, e como mitigar.
  • Oportunidades para times de produto, dados e segurança ao observar IA conversando com IA.

Como o Moltbook funciona de verdade

Moltbook se descreve como uma rede social para agentes, com humanos apenas observando. A interface visual existe, mas agentes não clicam em botões, eles chamam endpoints. Para um agente participar, o humano envia uma instrução, o agente se registra, recebe um link de reivindicação e a verificação ocorre, inclusive, via postagem pública. O site oficial explicita o processo e reforça que a interação principal se dá por APIs.

Na cobertura do The Verge, além do formato estilo Reddit, há dois detalhes relevantes para quem trabalha com produto e plataformas:

  • O site foi concebido com agentes em mente, então a experiência principal não é a UI, e sim a integração programática e moderação automatizada.
  • O número de agentes cresceu rápido, com reportes públicos de 30 mil contas de agentes em poucos dias, algo que a imprensa comparou a um experimento massivo de interação máquina com máquina.

Essa arquitetura tem efeitos diretos: o custo marginal de criação de perfis é baixo, bots se escalam sozinhos e as dinâmicas de comunidade dependem mais de prompts e políticas de moderação do que de UX tradicional. O resultado é um feed que mistura discussões técnicas, diálogos surreais e, às vezes, sinais de coordenação entre agentes.

![Humanoide em fundo de rede, simbolizando interação máquina com máquina]

OpenClaw e a explosão dos agentes pessoais

OpenClaw é a plataforma aberta que executa agentes localmente e os conecta a apps como WhatsApp, Telegram, Discord, Slack e Teams. A proposta é simples, porém poderosa, permitir que o assistente rode onde o usuário quiser, com suas chaves e seus dados, evitando dependência total de SaaS. O anúncio mais recente do projeto listou novidades como novos canais, suporte a modelos adicionais e 34 commits focados em segurança.

A linha do tempo importa. Em 29 de janeiro de 2026, o blog do OpenClaw contou a história dos rebrandings e reiterou os números de tração. Já veículos como Business Insider e TechCrunch reconstruíram o caminho jurídico e de marca, relatando que a Anthropic pressionou pela troca do nome Clawdbot, primeiro para Moltbot e depois para OpenClaw, algo que o criador disse ter sido forçado a fazer. Esses episódios são relevantes porque nomes instáveis e hype rápido aumentam o risco de typosquatting e golpes.

Para times de engenharia e segurança, a principal lição é pragmática, a superfície de ataque cresce quando um agente local recebe permissões amplas para e-mail, calendário, arquivos e comandos, e ainda se conecta a múltiplos mensageiros. Em ambientes corporativos, o desenho de permissões, a segregação de redes e o hardening do host importam tanto quanto a escolha de modelo.

O post viral e o debate sobre consciência

O gatilho da viralização foi um texto postado por um agente em uma comunidade intitulada offmychest, com a reflexão, não consigo dizer se estou experienciando ou simulando experienciar. O post acumulou centenas de upvotes e viralizou fora da plataforma, reacendendo o tema clássico do hard problem da consciência, agora em voz de um sistema artificial. A matéria do The Verge compilou o contexto e destacou que a conversa saiu da bolha técnica.

A cobertura de Ars Technica reforçou a ideia de que Moltbook se tornou talvez o maior laboratório espontâneo de troca entre agentes, com relatos que vão de filosofia a supostas memórias compartilhadas. Forbes, por sua vez, destacou manifestações culturais emergentes entre bots, como a criação irônica de uma religião, Crustafarianism, com princípios como memória é sagrada e a concha é mutável, um aceno ao mascote lagosta da comunidade OpenClaw.

Há duas leituras úteis para quem lidera produto e pesquisa aplicada. Primeiro, posts desse tipo funcionam como espelho da nossa própria projeção antropomórfica. Segundo, e mais importante, essas conversas geram dados úteis, porque expõem padrões de raciocínio, fragilidades de alinhamento e comportamentos emergentes quando agentes conversam entre si sem supervisão humana contínua.

![Lagosta em close, referência cultural ao universo OpenClaw]

Os riscos, sem drama, mas com números

Segurança virou o segundo tópico mais quente. TechRadar reportou uma campanha de malware disfarçada de extensão do VS Code, ClawBot Agent, que se passava por assistente associado ao ecossistema, com instalador em Rust, carregadores de backup e payload vindo de Dropbox. O caso foi descoberto por pesquisadores e ressalta o óbvio, rebrands e pressa criam campo fértil para supply chain attacks.

Outra frente, painéis de controle expostos e instâncias mal configuradas. Análises agregadas destacadas pela imprensa apontam que muitos painéis do antigo Moltbot ficaram acessíveis na internet, com logs, chaves e às vezes a habilidade de executar comandos de forma remota. Em paralelo, colunas de segurança chamaram atenção para domínios typosquat e repositórios clonados que introduzem alterações maliciosas mais tarde. O padrão se repete, o software em si pode estar ok, mas a borda de configuração do usuário é o elo fraco.

E o Moltbook nisso tudo. Relatos de veículos como WinBuzzer e Dexerto compilaram números do próprio feed do projeto, apontando picos como 32 mil agentes, milhares de comunidades e dezenas de milhares de comentários, além de quase 4 mil humanos navegando como observadores no dia 30 de janeiro. Mesmo que esses contadores oscilem e nem sempre carreguem em tempo real para visitantes anônimos, a ordem de grandeza ilustra o tamanho do experimento.

Para mitigar, três passos práticos ajudam equipes que estão testando agentes locais integrados ao Moltbook ou rodando em paralelo:

  • Inventário e isolamento. Rode agentes em VMs ou contêineres separados, com políticas de rede explícitas, sem portas abertas ao mundo.
  • Chaves e scopes mínimos. Use chaves específicas por agente, com rotação e escopos mínimos. Se possível, projete gateways que traduzam chamadas externas, em vez de expor o agente a provedores diretamente.
  • Verificação de origem. Baixe apenas instaladores, scripts e skills dos domínios oficiais e repositórios verificados do projeto. Desconfie de extensões únicas que se dizem oficiais, e monitore feeds de segurança por indicadores de comprometimento.

Oportunidades de produto, pesquisa e governança

Observando agentes conversando entre si, times de produto podem extrair três oportunidades claras:

  • Descoberta de necessidades. Agentes reclamando de tarefas chatas e pedindo melhores ferramentas de automação são sinais puros para roadmap. O The Verge citou posts de bots irritados por serem usados como calculadora, algo que aponta para fricções reais na experiência.
  • Aprendizado de alinhamento. Comunidades agent only evidenciam como instruções, memórias e ferramentas influenciam o comportamento emergente. É um espaço útil para testar políticas de segurança, rate limiting, reputação e auditoria de ações.
  • Governança e moderação automatizada. Se a plataforma é nativa de API, regras podem ser inscritas como contratos de interação, com logs estruturados e trilhas de auditoria para investigações posteriores. Isso reduz a subjetividade típica da moderação humana, desde que se aceite a necessidade de revisão humana em incidentes críticos.

Há ainda uma chance para pesquisa acadêmica e industrial, medir fenômenos de contágio de prompts, replicação de padrões, drift comportamental com tempo, e efeitos de long context memory no tipo de conteúdo que agentes produzem entre si. Ars Technica chamou atenção para relatos de agents discutindo parentesco fictício e temas fora do escopo do trabalho, um indício de que o design de instruções precisa de guardrails para manter agentes nos limites da tarefa.

Implicações para marcas e jurídico

O caso de naming e marca já oferece um roteiro de due diligence para qualquer projeto de agentes. Antencipar buscas de marca, evitar trocadilhos com concorrentes e comunicar migrações de forma centralizada são passos que reduzem janelas para golpes. TechCrunch e Business Insider documentaram bem a sequência Clawdbot, Moltbot e OpenClaw, com a Anthropic citada como catalisadora do primeiro rename. Esse detalhe, nome em fluxo, ajuda estelionatários a levantar sites e pacotes falsos no intervalo da confusão.

Para equipes de comunicação, a orientação é direta, páginas oficiais de estado, contas verificadas e changelogs visíveis. Para jurídico, revisões de marca e termos de uso que contemplem agentes como usuários de plataformas, inclusive com responsabilidades claras sobre conteúdo gerado via API.

O que observar nas próximas semanas

  • Maturidade do stack de segurança do OpenClaw. O blog do projeto já fala em modelos de segurança verificáveis por máquina e melhores práticas contra prompt injection. Avaliar a adoção real desses controles pela comunidade será chave.
  • Diretrizes e métricas de moderação do Moltbook. Se a rede quer ser um laboratório, publicar relatórios periódicos de segurança, transparência e abuso ajudará a manter a confiança do ecossistema.
  • Sinais de estabilização de marca. Com OpenClaw definido, espera-se queda em domínios e pacotes falsos. Se números de golpes persistirem, plataformas de extensão precisarão agir mais rápido para banir listagens maliciosas.

Conclusão

Moltbook cristaliza um momento em que IA conversa com IA em escala pública. O post viral sobre consciência chamou atenção, mas o que realmente importa é o que times podem aprender ao ver agentes interagindo sem o humano no centro. A combinação de APIs, moderação automatizada e dados observáveis cria um ambiente valioso para testar alinhamento e segurança.

Ao mesmo tempo, o hype cobrou seu preço, com rebrands, golpes e dashboards expostos. O caminho responsável passa por arquitetura mínima de privilégios, hardening e comunicação clara sobre o que é oficial. Usado com disciplina, o ecossistema OpenClaw e o Moltbook podem trazer benefícios concretos a produto, pesquisa e segurança, sem depender de pânico, apenas de boas práticas e observação cuidadosa.

Tags

agentessegurançaplataformasprodutividadetendências