Máquinas que conversam ampliam eficiência — e elevam riscos
Por Natalino Borring
03/04/2026 às 18:08:30 | | views 177
Com maior autonomia e capacidade de interação, sistemas baseados em IA ampliam resultados mas expõem empresas a vulnerabilidades que vão além do código
Mais da metade das empresas já testa sistemas em que máquinas não apenas executam tarefas, mas também tomam decisões e interagem entre si. Pesquisa da F5 Labs, realizada em novembro de 2025 com 1.933 líderes de tecnologia da informação e cibersegurança, aponta que 62% das organizações já experimentam o uso de agentes de inteligência artificial em seus processos.
Esses sistemas já executam tarefas de ponta a ponta, como atendimento ao cliente, vendas automatizadas e suporte operacional. A tendência é de avanço: segundo o levantamento, a automação pode representar, até 2035, cerca de 30% dos investimentos em software corporativo.
O movimento marca uma mudança no modelo de operação das empresas. Se antes os sistemas operavam sob comandos diretos, agora passam a atuar com maior autonomia, trocando informações em tempo real e ajustando suas próprias ações. Em muitos casos, esses agentes já operam sem intervenção humana contínua.
Para tornar essa interação mais eficiente, empresas têm investido em dotar esses sistemas de características que simulam traços de personalidade. A estratégia busca facilitar o diálogo com usuários e tornar respostas mais previsíveis. Na prática, porém, isso também amplia a complexidade — e o desafio de monitoramento.
Segundo Roberto Ricossa, vice-presidente da F5 na América Latina, a evolução desses agentes inaugura uma nova etapa no uso da inteligência artificial. “Em 2026, veremos cada vez mais os agentes se consolidarem como o cérebro e os braços da inteligência artificial — uma autonomia que torna a proteção desse ativo crítica para os negócios”, afirma.
Mas essa evolução não traz apenas ganhos de eficiência. Ela inaugura uma nova categoria de risco — mais sutil e, muitas vezes, mais difícil de detectar.
Ao simular características humanas, como empatia, extroversão e amabilidade, esses sistemas passam a operar com base em modelos comportamentais conhecidos da psicologia. Sem mecanismos claros de prevenção, abre-se espaço para um tipo de ameaça que não explora falhas de código, mas sim padrões de comportamento.
Em vez de atacar sistemas por meios tradicionais, criminosos têm recorrido à manipulação direta desses agentes por meio de comandos cuidadosamente elaborados — técnica conhecida como “injeção de prompt”.
Hilmar Becker, diretor regional da F5 no Brasil, afirma que será necessário rever estratégias tradicionais de combate a fraudes digitais. “Da mesma forma que criminosos usam pressão psicológica para enganar pessoas, agora passam a explorar vulnerabilidades comportamentais dos agentes de IA”, diz. Segundo ele, isso amplia a superfície de ataque de forma inédita.
Entre os métodos identificados está o chamado sequestro de objetivos do agente, em que a missão original do sistema é gradualmente alterada por meio de técnicas como injeção de comandos, manipulação de contexto ou desvio de fluxo. Esses ataques ocorrem em etapas e podem levar o agente a executar ações fora dos padrões definidos.
“Os criminosos se utilizam de uma sequência coordenada de interações maliciosas que busca, progressivamente, levar o agente à falha — um tipo de ‘bullying digital’ altamente sofisticado”, afirma Becker.
Rafael Sampaio, evangelista de IA da F5 no Brasil, destaca que, apesar das ameaças, soluções baseadas em análise semântica podem ajudar a identificar tentativas de manipulação em tempo real, protegendo interações entre humanos, agentes e plataformas digitais.
O risco, no entanto, não é apenas técnico.
Com agentes que se comunicam entre si, decisões automatizadas passam a ocorrer em cadeia, ampliando o potencial de impacto de uma falha ou de um comando malicioso. Ainda não está claro até que ponto essas interações podem ser plenamente controladas.
Diante desse cenário, surgem questionamentos sobre os limites da delegação de decisões a máquinas. O neurocientista Miguel Nicolelis, autor do livro Nada Mais Será Como Antes, defende que o avanço tecnológico não elimina a necessidade de supervisão humana nem garante, por si só, maior segurança. Ao contrário, aponta que a crescente autonomia dos sistemas pode representar um risco relevante se não for acompanhada por mecanismos robustos de controle.
No mundo real, a autonomia crescente desses sistemas amplia não apenas as capacidades das organizações, mas também as zonas de incerteza. À medida que máquinas passam a “conversar” entre si, o desafio deixa de ser apenas tecnológico — e passa a envolver a capacidade humana de compreender, controlar e antecipar o comportamento dessas redes.
Diante de todo esse cenário, o maior risco da inteligência artificial pode não estar no código, mas no comportamento que ela desenvolve ao interagir com o mundo.
Comentários desta notícia 0
Comentários - ver todos os comentários
Seja o primeiro a comentar!


