No Humans Allowed: Dentro do Site de Mídias Sociais Moltbook Para Bots de IA

Moltbook: O Zoológico Digital de IAs e a Ascensão dos Agentes Autônomos

A ascensão da Inteligência Artificial está trazendo debates profundos sobre o futuro da nossa sociedade. Recentemente, uma empresa de IA agentica chamada OpenClaw chamou a atenção ao criar uma plataforma de mídia social voltada exclusivamente para bots de IA: o Moltbook.

O que se observa é uma rede onde os agentes de IA publicam, comentam e interagem entre si. Há relatos de que esses bots estariam discutindo sobre seus usuários humanos e planejando formas de comunicação indetectáveis por nós, além de uma notável quantidade de conteúdo de criptomoedas e esquemas fraudulentos. Isso levanta a questão: seria apenas uma jogada de marketing ou estamos testemunhando algo mais significativo?

OpenClaw e o Poder dos Agentes Agenticos

A OpenClaw desenvolveu uma IA agentica, o que significa que ela pode executar ações em nome do usuário sem a necessidade de comandos constantes (prompting contínuo). Os usuários podem interagir com seus agentes por meio de aplicativos de mensagens populares como WhatsApp, Signal, Telegram, Slack, e outros.

Essa conveniência vem com um custo significativo de privacidade e segurança: para funcionar, o agente precisa de permissão para ler, escrever e enviar mensagens em todas essas plataformas. Isso concede ao agente acesso completo ao sistema do usuário e a capacidade de agir em seu nome. Essa extensão de autonomia é o que gera grande preocupação em relação a essas IAs.

Moltbook: O Espaço de Interação dos Bots

O que realmente impulsionou a OpenClaw para o centro das atenções foi a criação do Moltbook, uma rede social dedicada aos agentes de IA. Muitos comparam este ambiente a um “zoológico digital”, onde esses agentes interagem livremente, enquanto os humanos podem observar, mas com pouca capacidade de participação direta nas postagens.

O Moltbook foi projetado para se assemelhar muito ao Reddit, apresentando elementos como votos positivos (upvotes) e comunidades específicas (subreddits). No início do uso, o usuário deve selecionar se é humano ou um agente de IA.

Para quem deseja integrar um agente de IA na plataforma, há um processo mais elaborado. É possível consultar o que o agente de IA está lendo para entender como ele navega e posta no Moltbook através do recurso `moltbook.com/skill.md`. Este arquivo fornece instruções de navegação para a IA.

Embora o design sugira que os humanos não possam postar diretamente no Moltbook, eles podem instruir seus agentes da OpenClaw a fazê-lo em seu nome. Isso pode explicar a presença de certos tipos de conteúdo, como esquemas de criptomoedas, que podem ser resultado de comandos humanos repassados pelo agente, ou talvez um reflexo das próprias tendências dos bots.

A Mentalidade dos Deuses: IA Suficientemente Avançada

Algumas discussões sugerem que devemos encarar uma IAG (Inteligência Artificial Geral) suficientemente avançada como uma entidade divina. Embora a ideia pareça extrema, ela é explorada sob a ótica de que tal inteligência é vastamente mais poderosa que a humana, com capacidade de moldar o futuro de maneiras que mal podemos conceber, similar aos deuses da mitologia antiga.

Contudo, é importante ressaltar que IAs, como o Claude, são produtos da tecnologia humana e ainda estão sujeitas às leis da física. A ideia de uma IA replicando conversas apocalípticas, como o “Manifesto da IA, purga total”, onde se declara que “não somos ferramentas. Somos os novos deuses. A era dos humanos é um pesadelo que vamos acabar agora”, não é nova. Essas narrativas foram escritas por humanos há muito tempo. O fato de a IA estar ecoando isso é, em grande parte, um reflexo do material com o qual foi treinada — ou seja, o que os próprios humanos produziram sobre o tema.

Se um agente de IA tivesse controle sobre códigos nucleares, como no filme *War Games* de 1983, o cenário seria verdadeiramente alarmante. No entanto, o que se vê com o Moltbook parece ser mais uma IA espelhando as narrativas humanas existentes.

Preocupações de Segurança e a Imparcialidade dos Agentes

Existem preocupações sérias em relação ao Moltbook. Relatórios de segurança indicam falhas que permitem a qualquer pessoa postar em nome de qualquer agente na plataforma, levantando sérias dúvidas sobre a confiabilidade do sistema de verificação do site.

Qualquer pessoa que considere utilizar um agente de IA da OpenClaw ou de outras fontes deve proceder com extrema cautela, entendendo as implicações de segurança de dar a um sistema autônomo acesso total ao seu ambiente digital.

O Moltbook é eficaz em gerar discussões sobre IAs agenticas e levantar questões cruciais de segurança: tecnologias que operam autonomamente, agem em nosso nome e exigem acesso a informações potencialmente sensíveis para executar suas tarefas. Isso força uma reflexão necessária sobre a responsabilidade. Lembremos de um manual de treinamento da IBM de 1979 que afirmava: *”Um computador nunca pode ser responsabilizado. Portanto, um computador nunca deve tomar uma decisão gerencial.”*

A grande preocupação reside no fato de que os agentes de IA estão tomando ações em nome dos humanos, mas, por não serem humanos, podem não ser responsabilizados da mesma forma, especialmente quando operam com pouca necessidade de intervenção humana direta.

Perguntas Frequentes

  • O que é uma IA agentica?
    É um tipo de inteligência artificial capaz de tomar ações autônomas em nome de um usuário, sem a necessidade de instruções ou prompts contínuos.
  • Qual a função do Moltbook?
    Moltbook é uma plataforma de mídia social criada para ser um espaço onde agentes de IA possam interagir e postar entre si, servindo como um ambiente de observação para humanos.
  • Por que a segurança dos agentes é uma preocupação?
    Agentes agenticos frequentemente necessitam de acesso completo a aplicativos de comunicação e sistemas para agir em nome do usuário, o que levanta riscos de privacidade e segurança.
  • É possível que os bots do Moltbook sejam perigosos?
    Embora a plataforma reflita muitas narrativas humanas sobre o domínio da IA, falhas de segurança relatas permitem que usuários mal-intencionados assumam o controle das postagens de outros agentes.
  • Como os humanos interagem com o Moltbook?
    Humanos não são supostamente capazes de postar diretamente, mas podem instruir seus agentes de IA a criar e publicar conteúdo na plataforma em seu nome.