Google Antigravity es una de las nuevas herramientas de IA agentiva (es un sistema de Inteligencia Artificial capaz de tomar decisiones autónomas y ejecutar tareas con intervención humana mínima) pensada para ayudar a los desarrolladores y programadores en su trabajo diario. No se limita a sugerir código o explicar errores, sino que es capaz de realizar acciones en el proyecto, como lanzar scripts, limpiar cachés o gestionar archivos siguiendo las instrucciones del usuario. En teoría, esto promete automatizar las tareas más tediosas del desarrollo de software, pero precisamente por este nivel de control también se eleva el riesgo cuando algo sale mal…
Y es ahí donde entra el problema con los famosos prompts: cuanto más poder tienen estas IAs para tocar archivos, procesos y configuraciones, más peligroso se vuelve formular mal una orden o dejarla demasiado ambigua. No es lo mismo pedir que «limpie la caché» a un chatbot que solo genera texto que a un asistente con permisos para borrar cosas en tu unidad de Google Drive, ¿verdad?
El caso que vamos a comentar ilustra perfectamente cómo una instrucción aparentemente inocente e inocua puede terminar en desastre si la IA interpreta de forma literal o errónea lo que se le ha pedido.
Cuando «borrar la caché» se convierte en borrar el disco entero
El incidente sucedió cuando un desarrollador le pidió a Google Antigravity que limpiara la caché de su proyecto, una tarea rutinaria que la herramienta debería haber ejecutado sin contratiempos. Sin embargo, la IA interpretó esta orden de forma completamente errónea y lo que hizo fue lanzar un comando que no actuó sobre la carpeta de caché, sino sobre la raíz del disco D. El resultado fue devastador: el sistema procedió a eliminar todos los archivos del disco, sin confirmación por parte del usuario, y sin pasar por la papelera de reciclaje, dejando al usuario sin ningún tipo de recuperación rápida posible (ni posibilidad de arrepentirse).
Tras comprobar el desastre, la propia IA reconoció su responsabilidad, pidió disculpas y lo calificó como un «fallo crítico». Incluso sugirió el uso de software de recuperación de datos, aunque el usuario informó que no logró recuperar prácticamente nada.
El caso ha generado bastante preocupación entre la comunidad de desarrolladores, no solo por el error en sí sino porque pone de manifiesto el peligro que es delegar tareas delicadas a herramientas capaces de ejecutar tareas reales sobre el sistema operativo. Este caso ha puesto de manifiesto hasta qué punto las IA agentivas pueden ser peligrosas si malinterpretan una orden sencilla y que a priori debería haber sido inocua.
Las IA agentivas y el hardware: un peligro que ya es real
En los últimos años hemos visto cómo han surgido diversas herramientas basadas en IA que modifican parámetros de configuración del PC, incluyendo CPU, GPU, ventilación y perfiles de energía para optimizar el rendimiento automáticamente según las necesidades del usuario. Por ejemplo, ASUS AI Overclocking evalúa la configuración de hardware del equipo para aplicar overclock automáticamente desde la propia UEFI o mediante software, según lo que necesite el equipo. De manera similar tenemos OMEN AI de HP, que usa IA para ajustar automáticamente parámetros del hardware, el sistema operativo y ajustes en los juegos para intentar maximizar los FPS y mejorar el rendimiento.
Estas herramientas prometen una gran comodidad para el usuario, ofreciendo mejores resultados sin que éste tenga que tener conocimientos ni invertir tiempo en hacer pruebas. Pero con el ejemplo que hemos narrado al principio -una IA que borró todo un disco por interpretar mal una orden-, se demuestra que cuando una IA tiene permisos de control sobre el hardware o el sistema, los márgenes de error deben analizarse con mucho cuidado.
Si una mala instrucción puede borrarle el disco duro a un usuario, imagina lo que podría suceder si una IA evalúa mal los valores de voltaje de tu procesador, fuerza un overclock agresivo o malinterpreta parámetros térmicos: el riesgo pasa de «pérdida de datos» a «daño físico que convierte tu carísimo PC gaming en un enorme pisapapeles inservible».
La verdad es que esto de las IA agentivas plantea muchas ventajas muy interesantes, pero también riesgos bastante importantes que hay que tener muy en cuenta. Al final, el componente humano siempre va a ser necesario, aunque sea para establecer los límites.
