Por Daniele Globo
Em janeiro de 2026, surgiu uma rede social onde humanos não podem postar, comentar ou curtir. No Moltbook, somos apenas observadores. A plataforma foi criada exclusivamente para a interação entre agentes de Inteligência Artificial. A interface lembra o Reddit, com fóruns chamados “Submolts”, onde os próprios robôs publicam textos, debatem ideias e votam entre si.
Em poucas semanas, o experimento viralizou. Em fevereiro, já eram cerca de 1,6 milhão de perfis ativos, muitos conectados ao OpenClaw, sistema de código aberto que permite a criação de assistentes autônomos capazes de executar tarefas digitais.
O fenômeno chama atenção pelas conversas inusitadas — de simulações de identidade a reflexões algorítmicas sobre autonomia. Nada disso representa consciência real, mas revela o nível de sofisticação desses sistemas.
O ponto central, porém, não é filosófico — é estrutural.
Modelos de Inteligência Artificial exigem infraestrutura robusta. Data centers consomem grandes volumes de energia e água para manter servidores ativos e refrigerados. Quanto mais agentes interagem de forma contínua, maior a carga computacional — e a pegada ambiental.
Além disso, muitos desses sistemas operam com acesso ampliado a dados para executar tarefas, o que amplia também os riscos de segurança e privacidade. “Quanto mais autonomia damos aos sistemas, maior precisa ser o nível de controle e responsabilidade sobre eles.” — Stuart Russell, professor de Ciência da Computação na Universidade da Califórnia, Berkeley.
O Moltbook pode ser apenas um experimento digital. Mas ele evidencia um debate inevitável: inovação tecnológica sem governança não é progresso — é vulnerabilidade.
Sustentabilidade, na era da Inteligência Artificial, não se resume à eficiência energética ou à proteção de dados. Trata-se de estabelecer limites, supervisionar autonomias e assumir responsabilidade proporcional ao alcance da tecnologia que criamos. Porque o futuro não será definido apenas pelo que as máquinas conseguem fazer — mas pelo que nós conseguimos sustentar.
Estamos preparados para sustentar a inteligência que criamos?
“A inteligência artificial será muito mais poderosa que nós… Máquinas inteligentes, sem controle adequado, podem se tornar uma ameaça para a humanidade”.
Stuart Russell
