Claude Security vs GPT-5.5-Cyber: dos filosofías para defender con IA en 2026
Isaac Ruiz Romero
5/11/20268 min read


Claude Security vs GPT-5.5-Cyber: dos filosofías para defender con IA en 2026
Cuando los modelos más capaces del mundo se convierten en armas de doble filo, la pregunta ya no es si usarlos para ciberseguridad, sino quién decide quién tiene acceso a ellos.
La semana del 7 de mayo de 2026 pasará a los libros de historia de la ciberseguridad. No por un ataque. No por una filtración. Sino por una pregunta que dos de las empresas de IA más poderosas del mundo respondieron de formas radicalmente distintas: ¿cómo usas el modelo más peligroso que jamás has construido para defender, en lugar de destruir?
Anthropic y OpenAI han lanzado, con apenas un mes de diferencia, sus respuestas a esa pregunta. Y las diferencias entre ambas revelan algo más profundo que una rivalidad comercial: revelan dos filosofías completamente distintas sobre quién merece acceso a las herramientas más poderosas de la historia digital.
El punto de partida: modelos que rompieron todos los benchmarks
Para entender el debate, hay que entender por qué existe. Estos no son simplemente modelos "mejores" que los anteriores. Son modelos que han cruzado un umbral.
Claude Mythos Preview, lanzado por Anthropic en abril de 2026, identificó de forma completamente autónoma miles de vulnerabilidades zero-day —fallos no conocidos previamente— en todos los principales sistemas operativos y navegadores del mundo. En algunos casos, estas vulnerabilidades llevaban décadas ocultas. En uno especialmente revelador, el modelo encontró y explotó un fallo de ejecución remota de código en FreeBSD de 17 años de antigüedad, permitiendo acceso root completo desde cualquier punto de internet. Sin ayuda humana. Sin pistas previas.
GPT-5.5-Cyber, lanzado por OpenAI el 7 de mayo, llegó con credenciales igualmente impresionantes. El UK AI Security Institute confirmó que GPT-5.5 era capaz de completar un ciberataque corporativo simulado de 32 pasos en 2 de cada 10 intentos. Mythos lo hacía en 3 de cada 10. Antes de estos modelos, ninguna IA había superado ese test.
Nos encontramos, por primera vez en la historia, ante modelos de inteligencia artificial que no ayudan a los analistas de seguridad a hacer su trabajo: los sustituyen en las partes más difíciles de ese trabajo. Eso cambia todo.
La filosofía Anthropic: acceso mínimo viable, máximo impacto defensivo
Anthropic tomó una decisión que muchos en la industria calificaron de radical: Claude Mythos Preview no estará disponible para el público general. Punto. Sin fecha. Sin lista de espera. Sin plan de monetización inmediata.
En su lugar, la compañía lanzó el Project Glasswing: una coalición de unas 40 organizaciones —Amazon Web Services, Apple, Cisco, CrowdStrike, Google, JPMorganChase, Microsoft, NVIDIA, Palo Alto Networks, la Linux Foundation, entre otros— con acceso controlado al modelo para trabajos defensivos sobre infraestructuras críticas. Además, comprometió 100 millones de dólares en créditos de uso y 4 millones en donaciones directas a organizaciones de seguridad de código abierto.
La lógica es la de un modelo de cuarentena ofensiva. Si Mythos puede encontrar miles de vulnerabilidades en semanas, la ventana de tiempo en que los defensores pueden actuar antes de que actores maliciosos desarrollen capacidades equivalentes es estrecha. Anthropic estima ese margen en entre seis y dieciocho meses. Project Glasswing es un intento de usar ese margen para adelantar las correcciones antes de que el fuego se extienda.
El resultado operativo es un perímetro de acceso deliberadamente pequeño. Los socios verificados trabajan bajo condiciones específicas. Los hallazgos se comparten responsablemente antes de su divulgación pública. El modelo no sale de ese entorno controlado.
Para los que quedan fuera —que somos todos los demás—, Anthropic ha anunciado que trabaja en nuevas salvaguardas que se desplegarán primero con Claude Opus, un modelo menos capaz pero suficiente para validar los controles antes de aplicarlos a Mythos. Es un enfoque iterativo: construir la infraestructura de seguridad antes de abrir la puerta.
La filosofía OpenAI: democratización controlada, confianza verificada
OpenAI llegó a una conclusión diferente. Su programa Trusted Access for Cyber (TAC), que ya venía construyendo desde inicios de 2026 con GPT-5.3-Codex, se escaló masivamente con el lanzamiento de GPT-5.5-Cyber: miles de defensores individuales verificados y cientos de equipos tienen ahora acceso a capacidades ciber-permisivas que el modelo estándar no ofrece.
El sistema funciona por niveles. GPT-5.5 con Trusted Access es el punto de entrada para la mayoría de flujos defensivos: revisión de parches, análisis de código desconocido, mapeo de superficies de ataque. GPT-5.5-Cyber es la capa más permisiva, diseñada para un grupo más reducido de socios aprobados con acceso a infraestructuras críticas, y habilita workflows más avanzados: generación de pruebas de concepto desde vulnerabilidades publicadas, simulaciones de red-teaming automatizado, análisis de malware.
La diferencia no es solo de escala. Es de filosofía. OpenAI apuesta por que la democratización controlada —dar herramientas potentes a muchos defensores verificados— genera más resiliencia sistémica que concentrar el acceso en un puñado de gigantes tecnológicos. El argumento tiene su lógica: el ecosistema de ciberdefensa es heterogéneo. Las amenazas no golpean solo a Apple o a JPMorganChase; golpean a hospitales regionales, a ayuntamientos, a proveedores de servicios medianos que no están en ninguna lista de socios estratégicos.
A partir del 1 de junio de 2026, los miembros individuales de TAC que accedan a los modelos más permisivos deberán activar seguridad de cuenta avanzada con autenticación resistente a phishing. Las organizaciones pueden atestiguar alternativamente que su SSO ya cumple esos estándares. Es un sistema de verificación gradual, no perfecto, pero más ágil que una coalición de 40 organizaciones.
Los cuatro criterios que importan
1. Superficie de exposición
Este es el argumento más poderoso a favor del enfoque de Anthropic. Cuantos más puntos de acceso existan a un modelo dual-use de esta capacidad, mayor es la probabilidad de que alguno de esos puntos sea comprometido, suplantado o simplemente mal utilizado. Un defensor verificado individualmente no tiene el mismo perfil de riesgo que un equipo de seguridad de AWS con protocolos de acceso físico, auditorías continuas y millones de euros invertidos en su propia seguridad operacional.
Dicho esto, OpenAI no está abriendo el grifo sin control. La verificación de identidad es real, los requisitos de autenticación son exigentes y existen restricciones explícitas incluso para los miembros con mayor acceso: robo de credenciales, escritura de malware y ciertas categorías de exploits siguen estando bloqueadas.
La pregunta no es si el sistema TAC tiene controles. Los tiene. La pregunta es si esos controles son suficientes cuando el modelo en cuestión puede completar de forma autónoma ataques corporativos complejos en condiciones de prueba.
2. Velocidad de adopción defensiva
Aquí la ventaja de OpenAI es clara, y no debería subestimarse. La ciberdefensa no la hacen solo los grandes. La mayor parte de la superficie de ataque del mundo digital está en organizaciones medianas, en proveedores de software especializados, en equipos de seguridad de tres personas que trabajan con presupuestos ajustados. Si Mythos solo está disponible para 40 organizaciones de talla mundial, el efecto defensivo —por potente que sea dentro de ese perímetro— no se distribuye.
Project Glasswing tiene un efecto de derrame: las vulnerabilidades que descubre en sistemas operativos y navegadores se publican como CVEs que benefician a todo el sector. Pero la velocidad de ese derrame depende de los ciclos de divulgación responsable, que pueden extenderse meses. GPT-5.5 con TAC, en cambio, está en manos de miles de equipos ahora mismo, mejorando la postura defensiva de miles de organizaciones en tiempo real.
3. Rendición de cuentas
Este es el terreno más incómodo para ambas compañías, aunque por razones distintas.
El modelo de Anthropic concentra la responsabilidad en un número reducido y trazable de actores. Si algo sale mal —si uno de los socios de Glasswing usa el modelo de forma inapropiada, si hay una filtración, si los hallazgos no se gestionan correctamente—, hay un número pequeño de organizaciones a las que señalar y un contrato de acceso que define las condiciones. La cadena de responsabilidad es corta.
El modelo de OpenAI escala esa cadena a miles de actores individuales. Cada uno de esos defensores verificados es un punto potencial de fallo en la cadena de custodia. La autenticación fuerte reduce ese riesgo, pero no lo elimina. Y en un ecosistema donde la ingeniería social avanzada —con las mismas IAs que ahora democratizamos— puede comprometer identidades verificadas, la robustez de cualquier sistema de verificación basado en credenciales tiene un límite conocido.
4. Riesgo de fuga de capacidades dual-use
Este es el criterio que debería ocupar el centro del debate y que, paradójicamente, recibe menos atención que el debate sobre acceso.
Los modelos de IA no son herramientas estáticas. Aprenden de su uso, y sus capacidades evolucionan en función de los prompts que reciben, de los contextos en que operan y de los patrones de interacción que se acumulan. Un modelo desplegado a escala —aunque con restricciones— genera una superficie de uso órdenes de magnitud mayor que uno restringido a 40 organizaciones. Y cuanto mayor es esa superficie, mayor es la probabilidad de que aparezcan prompts, técnicas o combinaciones de herramientas que desbloquen capacidades que el sistema de seguridad no anticipó.
Anthropic ha apostado por contener esa superficie hasta tener salvaguardas validadas. OpenAI ha apostado por aprender de esa superficie en tiempo real, con la verificación como barrera de entrada. Ninguna de las dos posiciones es inocente ante el riesgo de fuga; solo gestionan ese riesgo de forma diferente.
¿Quién acierta?
La respuesta honesta es que no lo sabemos todavía. Y esa incertidumbre es, en sí misma, una señal importante.
Ambas compañías están tomando decisiones de consecuencias históricas bajo información incompleta, en un ecosistema que cambia más rápido de lo que cualquier marco regulatorio puede seguir. La asimetría entre capacidad ofensiva y capacidad defensiva que estos modelos generan no tiene precedente histórico comparable, y las metáforas que usamos para pensarla —armas nucleares, bioseguridad, criptografía— son útiles pero imperfectas.
Lo que sí podemos decir es esto: el enfoque de Anthropic es más conservador, más trazable y más controlable a corto plazo. El de OpenAI es más escalable, más distribuido y potencialmente más efectivo a largo plazo si los controles se sostienen. Ninguno de los dos resuelve el problema fundamental: en el horizonte de seis a dieciocho meses que los propios actores de la industria estiman, habrá modelos con capacidades comparables en manos de actores que no tendrán ningún programa de acceso verificado.
El verdadero reto no es elegir entre las dos filosofías. Es construir, urgentemente, los marcos institucionales, regulatorios y técnicos que hagan que ambas sean suficientemente robustas cuando ese momento llegue.
Reflexión estratégica: lo que este debate nos enseña sobre el futuro de la seguridad
Hay algo que subyace a todo este análisis y que merece ser dicho directamente: estamos entrando en una era en que las herramientas más poderosas para atacar sistemas digitales y las más poderosas para defenderlos son la misma herramienta.
Eso no tiene solución técnica. Tiene solución de gobernanza, de cultura, de institución. Y el hecho de que dos de las compañías más avanzadas del mundo estén tomando decisiones radicalmente distintas sobre cómo gestionar ese poder —con argumentos sólidos en ambos lados— debería ser una señal de alarma para cualquiera que piense que esto ya está resuelto.
El debate entre Glasswing y TAC es importante. Pero el debate más importante es el que todavía no está teniendo lugar: qué hacemos cuando estos modelos —o sus sucesores más capaces— no estén en manos de Anthropic ni de OpenAI, sino de actores que no publican posts en sus blogs sobre filosofías de acceso y salvaguardas responsables.
Esa conversación no puede esperar al siguiente lanzamiento. Tiene que empezar ahora.
¿Este análisis te ha resultado útil? Compártelo con tu equipo de seguridad o con cualquier persona que tome decisiones sobre adopción de IA en su organización. En el blog encontrarás más recursos sobre seguridad digital aplicada, ingeniería social y el impacto real de la IA en el ecosistema de amenazas de 2026.
ETIQUETAS: Claude Mythos, GPT-5.5-Cyber, Project Glasswing, Trusted Access for Cyber, IA ciberseguridad 2026, dual-use AI, zero-day vulnerabilidades, OpenAI vs Anthropic, ciberdefensa IA, política de acceso modelos frontier
Accede a recursos y guías sobre IA y ciberseguridad gratis:
Contacto
Número de teléfono
+34 640 81 78 31
© 2026. All rights reserved.
