En este episodio de Threat Briefing, analizamos las tácticas reales que utilizan los adversarios para explotar los sistemas de IA generativa. El investigador de seguridad Alex Groyz se une a nosotros para desglosar cómo los atacantes están abusando activamente de la infraestructura de modelos de lenguaje a gran escala (LLM) cloud, desde puntos finales de inferencia expuestos y la «IA en la sombra» hasta prompt injection, los jailbreaks y la exfiltración de datos impulsada por la inferencia. Exploramos cómo el marco MITRE ATLAS se aplica a estos ataques y debatimos cómo los defensores pueden utilizarlo para simular el comportamiento de los adversarios, validar las detecciones y proteger la IA generativa a lo largo de todo su ciclo de vida.
