En muchas películas de ciencia-ficción e incluso de acción vemos hackers capaces de hackear cualquier dispositivo en cuestión de segundos, y desde su smartphone, al más puro estilo Watch Dogs. Y como siempre la realidad supera a la ficción, porque al parecer Anthropic ha creado una IA (llamada Claude Mythos) tan absurdamente potente y versátil que han considerado que es demasiado peligrosa y han decidido no lanzarla al mercado. Por ahora.
La Inteligencia Artificial sigue avanzando a un ritmo vertiginoso, y tanto es así que Anthropic ha decidido pisar el freno con uno de sus modelos más avanzados tras comprobar que sus capacidades son tales que podrían suponer un riesgo real, especialmente en el ámbito de la ciberseguridad. Y es que hablamos de un sistema que no solo mejora lo visto hasta ahora en generación de código o razonamiento, sino que directamente entraría en el ámbito de la seguridad ofensiva.
Una IA que encuentra y explota vulnerabilidades reales
El punto más preocupante (al menos para el ser humano) de este nuevo modelo es su capacidad para actuar como si fuera un investigador de ciberseguridad digno de una película de Hollywood. En los test realizados por Anthropic, su IA fue capaz de detectar fallos en sistemas operativos y aplicaciones ampliamente utilizadas, incluyendo vulnerabilidades que llevaban décadas sin ser identificadas.
Según reporta la propia compañía en su blog oficial, y por poner un par de ejemplos, la IA fue capaz de encontrar una vulnerabilidad de seguridad que llevaba 27 años sin ser descubierta en el sistema operativo OpenBSD, considerado uno de los más seguros. Por poner otro ejemplo, en FFmpeg el modelo descubrió una vulnerabilidad que llevaba 16 años sin ser descubierta en una sección de código que las herramientas de prueba automatizadas habían verificado y dado como buena cinco millones de veces.
Pero eso no es lo más grave: en el kernel de Linux, Claude Mythos descubrió varias vulnerabilidades, las combinó y desarrolló de forma autónoma una manera de explotarlas, permitiendo a la IA tomar el control total del sistema. Y en el propio blog de Anthropic, informan que hay miles de ejemplos más. Básicamente, este modelo de IA es capaz de hackear sistemas completos en cuestión de segundos, explotando vulnerabilidades que ni siquiera se conocían. Claro está que también podría usarse para parchear dichas vulnerabilidades y, precisamente, detectar las que los humanos no pudieron en décadas.
Anthropic no lanzará Claude Mythos para el público general
Y no es de extrañar. Es el típico avance que plantea un dilema moral porque si cae en malas manos podría tener resultados devastadores. Como en las películas (perdón por insistir, pero es que es de película todo esto). La compañía ha publicado la ficha completa de Claude Mythos, pero en principio no tiene previsto publicar ni siquiera su versión preliminar. Más al contrario, el objetivo a largo plazo de Anthropic sería poner a disposición del público modelos con este mismo nivel de rendimiento pero aplicado a otras áreas que no sean la ciberseguridad.
Lo que es cierto es que las capacidades de Claude Mythos ya han hecho saltar varias alarmas. Por ejemplo, el experto desarrollador Simon Willison ya explicó que «el nuevo modelo es demasiado peligroso» y que «restringir Claude Mythos solo a investigadores de seguridad es algo necesario».
En nuestra humilde opinión, poner a disposición del público general una herramienta con estas capacidades es como darle una AK-47 a un chimpancé: solo puede generar destrucción.
