Pesquisadores descobrem vulnerabilidades em modelos de IA e ML
Pesquisas recentes revelaram um número significativo de vulnerabilidades de segurança em vários modelos de inteligência artificial (IA) e de aprendizado de máquina (ML) de código aberto, alertando sobre possíveis riscos, como execução remota de código e roubo de dados. Essas vulnerabilidades foram divulgadas pela Protect AI por meio de sua plataforma de recompensa de bugs Huntr, destacando falhas críticas em ferramentas como ChuanhuChatGPT, Lunary e LocalAI.