Uma pesquisa global recente revelou que, para 88% dos CEOs, a cibersegurança é a principal prioridade estratégica. No entanto, esse alerta tem sido ofuscado pelo entusiasmo em torno da Inteligência Artificial Generativa (IAG). O resultado é preocupante: muitas organizações estão implementando soluções baseadas em IA sem a devida proteção.
Isso revela uma contradição perigosa. Embora os riscos sejam conhecidos, as empresas agem como se fossem irrelevantes. Essa negligência se agrava à medida que a IA é adotada com velocidade crescente. Muitas companhias estão migrando rapidamente de chatbots simples para arquiteturas baseadas em múltiplos agentes, sem avaliar adequadamente as implicações de segurança envolvidas.
Há questões críticas sendo ignoradas nesse processo. Uma delas é o aumento substancial da superfície de ataque quando sistemas multiagentes são implantados sem governança. A comunicação entre Agentes de IA, quando desprotegida, abre múltiplas brechas. Estudos indicam que 64% das empresas já colocaram no ar aplicações de IAG com vulnerabilidades críticas.
E, nesse contexto, a interconexão de sistemas frágeis não apenas soma riscos, ela os multiplica.
Outro ponto é a adoção informal de IA pelos próprios funcionários, muitas vezes sem o conhecimento da área de TI. Ferramentas de IA Generativa estão sendo utilizadas em dispositivos pessoais, um fenômeno conhecido como BYOAI (Bring Your Own AI). A maioria das empresas não tem visibilidade ou controle sobre o uso interno dessas soluções, expondo dados sensíveis a riscos reais.
Diferentemente de softwares convencionais, os sistemas baseados em IA apresentam vulnerabilidades em todo o seu ciclo de vida, desde o treinamento até a operação. Ameaças como envenenamento de dados, vazamentos e manipulação de resultados são reais, mas poucas organizações estão preparadas para enfrentá-las de forma estruturada.
O problema, portanto, não é a IA em si, mas como ela está sendo implantada. A segurança precisa ser tratada como pilar estratégico, não como obstáculo. Minha recomendação: implemente políticas de governança antes da adoção da IAG. Isso inclui definir quem pode autorizar conexões com bases internas, estabelecer planos claros de resposta a incidentes e criar mecanismos de auditoria para decisões automatizadas, especialmente em setores regulados.
Não é eficaz adaptar controles de cibersegurança tradicionais a esse novo contexto. O ideal é desenvolver protocolos específicos para gestão de riscos em IA, com segurança embutida no ciclo de vida dos dados e monitoramento contínuo de anomalias.
A IA não representa uma ameaça por natureza, mas sua implementação descuidada certamente representa. Empresas que ignoram a segurança como parte essencial da inovação correm sério risco de crises futuras.
O caminho mais prudente é adotar uma abordagem de “segurança por design”: controles prévios à expansão da IA, supervisão humana em processos críticos e adoção gradual, começando por áreas de menor risco.
David Matos
Referências:
Prompt Injection – A Falha de Segurança Fundamental em Aplicações de IA com LLMs
O Risco de Vazamento de Dados Sensíveis em LLMs
Ataques Adversariais e Cibersegurança em Modelos de Machine Learning de IA
A Ameaça Silenciosa – Como o “Data Poisoning” (Envenenamento de Dados) Pode Corromper a IA?
RAG Attack – Como a Maior Força da IA Se Tornou Uma Vulnerabilidade de Segurança
Sua App de IA Vazou Dados Sensíveis da Sua Empresa? 5 Riscos de Segurança Que Você Não Pode Ignorar
Snyk Report shows 88% of CISOs are concerned with current state of U.S. cyber readiness
