Pesquisadores alertam para o uso criminoso de modelos de IA de código aberto, com milhares de implementações vulneráveis.
Uma investigação conjunta entre as empresas de cibersegurança SentinelOne e Censys, ao longo de 293 dias, trouxe à tona preocupações significativas sobre a segurança dos modelos de inteligência artificial (IA) de código aberto. A pesquisa, compartilhada exclusivamente com a Reuters, detalha como milhares de implementações desses modelos, incluindo variantes populares como Llama da Meta e Gemma do Google DeepMind, estão sendo exploradas para fins ilícitos.
Os casos identificados abrangem desde invasão de sistemas e disseminação de discurso de ódio até fraudes, roubo de dados pessoais e, em situações mais graves, a geração de material de abuso sexual infantil. Essa descoberta lança uma nova perspectiva sobre a escala do problema e a necessidade urgente de mecanismos de controle mais robustos no ecossistema de IA.
Embora muitos modelos de código aberto incorporem proteções de segurança, os pesquisadores descobriram centenas de casos em que esses mecanismos foram deliberadamente removidos, facilitando a exploração indevida. A falta de rastreamento e controle sobre essas variantes