Microsoft ha reconocido un grave bug de Microsoft 365 Copilot que permitía al asistente de IA resumir correos marcados como confidenciales… sin el permiso de los usuarios. Un acto que se salta las políticas de Data Loss Prevention que pretenden prevenir precisamente que este tipo de contenido sensible llegue a Copilot.
El problema, que ya tiene nombre a nivel interno como CW1226324, afectó específicamente a la pestaña «Work» de Copilot Chat, la cual accedió a mensajes en las carpetas Sent Items y Drafts desde finales de enero de este mismo año hasta ahora, que se ha detectado.
Aunque Microsoft ha asegurado que no se han filtrado datos a la nube, ni hubo ningún tipo de explotación maliciosa, el fallo ha expuesto un riesgo de cumplimiento normativo serio para las empresas que dependen de DLP para cumplir con las regulaciones como el Reglamento de Protección de Datos de la UE. Y es que la IA procesó información que debería haber quedado bloqueada desde primera hora.
La compañía comenzó a desplegar un parche a principios de febrero, pero el incidente ha puesto en evidencia otro fallo más en la cadena de IA de Microsoft.
El bug CW1226324 de Copilot
El problema se originó concretamente en un error de lógica de código dentro del motor de recuperación de Copilot Chat. Concretamente, en la integración de la pestaña «Work». Cuando los usuarios comenzaban a utilizar el chat, Copilot consultaba Microsoft Graph y los índices de búsqueda para generar resúmenes con un buen contexto. Pero el bug del que hablamos provocaba que ignorase las etiquetas de «Confidencial» y, por ende, las políticas DLP configuradas para bloquear el acceso automático a este tipo de datos.
Ashok Mor@_techibee#Microsoft confirms a Copilot Chat bug (CW1226324) let its AI read & summarise “Confidential” Outlook emails, even with DLP & sensitivity labels enabled – hitting Sent & Drafts since late Jan.Fix started rolling out in early Feb, but privacy trust just took a hit.
Enterprise https://t.co/oJIeDO26JE
19 de febrero, 2026 • 11:00
14
0
Esto afectaba a carpetas del correo de «Elementos enviados» y «Borradores», donde suelen ubicarse los borradores sin pulir o comunicaciones internas importantes. Por lo tanto, permite que Copilot lea y resuma su contenido en respuestas generadas por esta IA. Incluso cuando las políticas empresariales lo prohibían de manera explícita. Este fallo se detectó el pasado día 21 de enero y Microsoft lo notificó a los administradores de Office a través de un servicio de alertas, mediante el mensaje de que la IA estaba «procesando incorrectamente» correos protegidos».
Hasta el momento, no se ha conocido ninguna fuga hacia servidores externos. Pero el mero hecho de que Copilot generase resúmenes de datos protegidos ya constituye una violación de cumplimiento normativo. El modelo de lenguaje de Microsoft procesó información que jamás debería haber llegado a su contexto.
| Fecha/Hora | Acontecimiento | Fuente |
|---|---|---|
| 21 de enero, 2026 | Detección interna del bug por parte de Microsoft. | Advisory SEC-2026-001 |
| 28 de enero, 2026 | Inicio de la exposición de datos en carpetas 'Sent Items' y 'Drafts'. | Comunicado Microsoft MC1226324 |
| 4 de febrero, 2026 | Comienza el despliegue inicial del parche correctivo. | Actualización de estado NHSmail |
| 11 de febrero, 2026 | Implementación completa del parche en todos los sistemas afectados. | Blog de Seguridad de Microsoft |
Implicaciones de seguridad y legales
Para empresas con licencias Microsoft 365, este bug ha socavado la confianza en los controles de protección de datos. Y es una demostración más de que las capas de DLP no siempre se aplican bien por parte de la IA. De hecho, es contraria a leyes como el Reglamento General de Protección de Datos de la UE, la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA) o la Ley Sarbanes-Oxley (SOX) de EE.UU.
| Regulación | Artículo Potencialmente Infringido | Consecuencia Principal |
|---|---|---|
| GDPR (UE) | Art. 5.1.f (Integridad y confidencialidad) y Art. 32 (Seguridad del tratamiento) | Multas de hasta el 4% de la facturación anual global. |
| HIPAA (EE.UU.) | §164.312(e)(1) (Control de acceso a información de salud) | Penalizaciones de hasta 50.000 $ por violación. |
| LOPDGDD (España) | Art. 32 (Notificación de brechas de seguridad de datos personales) | Obligación de notificar a la AEPD en 72 horas. |
Por su parte, Microsoft desplegó un parche server-side a principios de este febrero y ya asegura estar «monitoreando el despliegue de las medidas de seguridad». Aun así, recomienda a los administradores revisar logs de Copilot y ajustar las políticas DLP para reforzar las exclusiones de la IA en estas situaciones. Pero lo que de verdad asusta a los usuarios es la inyección de prompts que los hackers pueden aprovechar ante este error, de manera que se expongan datos a través de este tipo de brechas de seguridad.
Además, también han impulsado la función «Restricted Sharepoint Search», una herramienta diseñada para limitar el radio de acción de Copilot, que permite a los administradores restringir el índice semántico de la IA a sitios específicos, evitando que acceda a documentos con permisos mal configurados por error.
Por lo tanto, aunque ya esté parcheado, el bug CW1226324 es una prueba más de que la IA en cuestiones de productividad todavía no es 100% segura para tratar con nuestros datos.
