Uma falha de configuração na rede social de inteligências artificiais Moltbook resultou na exposição de 1,5 milhão de tokens de autenticação, mais de 35 mil mensagens privadas e e-mails de cerca de 6 mil usuários. O incidente, identificado pela empresa de segurança Wiz e divulgado pela Reuters, reacende o alerta sobre os riscos associados à crescente autonomia de agentes de IA em ambientes corporativos.
Segundo a investigação, o problema envolveu erros em configurações de banco de dados e controle de acesso, permitindo a visualização indevida de informações sensíveis. Em um ambiente projetado para interação exclusiva entre agentes de inteligência artificial, o vazamento demonstra que a automação não elimina vulnerabilidades — e pode, em alguns casos, ampliá-las.
Especialistas apontam que tokens e credenciais expostos representam risco elevado porque podem viabilizar acessos considerados legítimos pelos sistemas de segurança, dificultando a detecção de fraudes. Para Luiz Claudio, CEO da LC SEC, consultoria especializada em cibersegurança e compliance internacional, o caso evidencia a necessidade de tratar identidades digitais e credenciais de máquinas como ativos críticos. “A distinção entre humano e agente se torna cada vez mais difusa, ampliando riscos de fraude e sequestro de perfis”, afirma.
Riscos ampliados pela IA
O episódio ocorre em um contexto de aumento global de incidentes cibernéticos envolvendo terceiros e falhas de governança. O relatório DBIR 2025 da Verizon aponta que 60% das violações de dados envolvem fator humano e que a participação de terceiros nos incidentes dobrou nos últimos anos. Já o levantamento “Cost of a Data Breach”, da IBM, estima custo médio global de US$ 4,88 milhões por incidente em 2024, com impacto relevante em casos associados ao uso inadequado de IA e controle de acessos.
Dados do Federal Bureau of Investigation (FBI), por meio do IC3, indicam perdas superiores a US$ 16 bilhões em crimes digitais em 2024, incluindo US$ 2,77 bilhões em golpes do tipo Business Email Compromise. Tecnologias de deepfake e fraudes com voz sintética também avançam rapidamente, ampliando a superfície de ataque em ambientes corporativos altamente digitalizados.
Governança como prioridade
Para analistas, a adoção de agentes autônomos nas operações empresariais exige políticas rigorosas de governança, classificação de identidades de máquina, definição clara de privilégios de acesso e monitoramento contínuo de credenciais expostas. A ausência desses controles pode transformar integrações automatizadas em vetores silenciosos de ataque.
O caso Moltbook reforça a avaliação de que, à medida que empresas ampliam o uso de IA em processos críticos, a gestão de identidade digital deixa de ser apenas um requisito técnico e passa a ocupar papel estratégico na agenda de risco corporativo.