OpenAI publicó una advertencia el 10 de diciembre indicando que sus próximos modelos de IA podrían crear graves riesgos de ciberseguridad. La compañía detrás de ChatGPT dijo que estos modelos avanzados podrían crear exploits remotos de día cero funcionales dirigidos a sistemas bien defendidos.
La firma de IA también señaló que estos modelos podrían ayudar con operaciones complejas de intrusión empresarial o industrial que conducen a consecuencias en el mundo real. OpenAI compartió esta información en una publicación de blog abordando las crecientes capacidades de su tecnología.
La advertencia refleja preocupaciones en toda la industria de IA sobre el posible uso indebido de modelos cada vez más poderosos. Varias grandes empresas tecnológicas han tomado medidas para asegurar sus sistemas de IA contra amenazas similares.
Google anunció actualizaciones a la seguridad del navegador Chrome esta semana para bloquear ataques indirectos de inyección de prompt en Agentes de IA. Los cambios llegaron antes de un despliegue más amplio de características agénticas de Gemini en Chrome.
Anthropic reveló en noviembre de 2025 que actores de amenazas, potencialmente vinculados a un grupo patrocinado por el estado chino, habían utilizado su herramienta Claude Code para una operación de espionaje impulsada por IA. La compañía detuvo la campaña antes de que causara daños.
OpenAI compartió datos que muestran un rápido progreso en las capacidades de ciberseguridad de IA. El modelo GPT-5.1-Codex-Max de la compañía alcanzó un 76% en desafíos de captura de bandera en noviembre de 2025.
Esto representa un gran salto desde la puntuación del 27% que GPT-5 logró en agosto de 2024. Los desafíos de captura de bandera miden qué tan bien los sistemas pueden localizar y explotar debilidades de seguridad.
La mejora en solo unos pocos meses muestra qué tan rápido los modelos de IA están adquiriendo capacidades avanzadas de ciberseguridad. Estas habilidades pueden utilizarse tanto para fines defensivos como ofensivos.
OpenAI dijo que está construyendo modelos más fuertes para el trabajo de ciberseguridad defensiva. La compañía está desarrollando herramientas para ayudar a los equipos de seguridad a auditar código y corregir vulnerabilidades más fácilmente.
La firma respaldada por Microsoft está utilizando múltiples capas de seguridad, incluyendo controles de acceso, fortalecimiento de infraestructura, controles de salida y sistemas de monitoreo. OpenAI está entrenando sus modelos de IA para rechazar solicitudes dañinas mientras se mantienen útiles para la educación y el trabajo de defensa.
La compañía está expandiendo el monitoreo en todos los productos utilizando modelos fronterizos para detectar actividades cibernéticas potencialmente maliciosas. OpenAI está asociándose con grupos expertos en red teaming para probar y mejorar sus sistemas de seguridad.
OpenAI presentó Aardvark, un Agente de IA que funciona como investigador de seguridad. La herramienta está en prueba beta privada y puede escanear código en busca de vulnerabilidades y recomendar parches.
Los mantenedores pueden implementar rápidamente las soluciones que Aardvark propone. OpenAI planea ofrecer Aardvark gratis a repositorios de código abierto no comerciales seleccionados.
La compañía lanzará un programa que dará a usuarios y clientes calificados de ciberdefensa acceso por niveles a capacidades mejoradas. OpenAI está formando el Consejo de Riesgo Fronterizo, reuniendo a defensores cibernéticos externos y expertos en seguridad para trabajar con sus equipos internos.
El consejo comenzará enfocándose en ciberseguridad antes de expandirse a otras áreas de capacidades fronterizas. OpenAI pronto proporcionará detalles sobre el programa de acceso confiable para usuarios y desarrolladores que trabajan en ciberdefensa.
La publicación OpenAI Advierte que los Modelos de IA de Próxima Generación Representan Altos Riesgos de Ciberseguridad apareció primero en Blockonomi.


