Copilot accede por error a correos electrónicos confidenciales y enciende las alarmas de seguridad

Última actualización: febrero 21, 2026
  • Un fallo de código en Microsoft 365 Copilot permitió leer y resumir correos electrónicos marcados como confidenciales en Outlook.
  • El bug, identificado como CW1226324, afectó a la función Copilot Chat y eludió políticas de prevención de pérdida de datos (DLP).
  • Microsoft desplegó un parche escalonado desde principios de febrero y asegura que la vulnerabilidad ya está corregida, aunque sigue monitorizando.
  • El incidente reabre el debate en Europa sobre privacidad, RGPD y riesgos de integrar asistentes de IA en herramientas de trabajo.

Copilot acceso correos confidenciales

La inteligencia artificial de Microsoft 365 Copilot se ha visto envuelta en una polémica delicada tras confirmarse que, por un error de programación, llegó a leer y resumir correos electrónicos etiquetados como confidenciales en Outlook. El incidente ha levantado ampollas entre empresas europeas preocupadas por el cumplimiento del RGPD y la protección de datos en entornos corporativos donde se maneja información especialmente sensible.

El problema, que afectó a la función de chat integrada en herramientas como Outlook, Word, Excel y PowerPoint, permitió que Copilot accediera a mensajes privados almacenados en las carpetas de elementos enviados y borradores, incluso cuando estos estaban protegidos con etiquetas de confidencialidad o políticas DLP. Aunque Microsoft ya ha distribuido un parche, el incidente vuelve a poner sobre la mesa hasta qué punto es seguro delegar en la IA tareas relacionadas con información crítica en empresas de España y el resto de Europa.

Un bug en Copilot permitió resumir correos confidenciales sin permiso

Según ha reconocido la propia compañía, un error de código en Microsoft 365 Copilot Chat hizo que el asistente ignorara parte de las comprobaciones de permisos antes de procesar correos electrónicos. En la práctica, cuando un usuario consultaba a la IA sobre su trabajo reciente o pedía resúmenes, el sistema podía incorporar a las respuestas contenido procedente de mensajes privados que estaban marcados como confidenciales o restringidos.

La vulnerabilidad afectaba sobre todo al chat en la llamada «pestaña Trabajo» de Copilot, una función que se vende como un asistente consciente del contenido del entorno laboral y que permite hacer preguntas sobre documentos, correos, archivos de OneDrive o información de Microsoft 365. El fallo provocó que Copilot leyera y resumiera correos electrónicos sensibles almacenados en las carpetas de Elementos enviados y Borradores, obviando las etiquetas pensadas para bloquear este tipo de acceso automatizado.

El problema fue registrado internamente con el identificador CW1226324 y se detectó por primera vez el 21 de enero de 2026. Desde entonces, Copilot pudo procesar mensajes marcados como privados o confidenciales, lo que abrió la puerta a que fragmentos de esa información aparecieran en respuestas generadas para el propio usuario u otros empleados con acceso al mismo entorno de trabajo, siempre a través de Copilot Chat.

En escenarios corporativos típicos en España y la UE, este comportamiento podría haber afectado a correos que contienen salarios, datos financieros, planes de negocio, acuerdos legales o información sobre salud de empleados. Al integrarse en el contexto de la IA, esos datos pudieron filtrarse de forma indirecta en resúmenes u otras respuestas generadas, un riesgo que preocupa especialmente a departamentos jurídicos y de cumplimiento normativo.

La propia Microsoft ha explicado que el bug hacía que los mensajes con etiquetas de confidencialidad fueran «procesados incorrectamente» por el chat de Microsoft 365 Copilot, lo que se traduce en que el sistema trataba ese contenido como si no tuviera restricciones especiales. Para las empresas que dependen de esas etiquetas y de las políticas de prevención de pérdida de datos (DLP) para cumplir con el RGPD, no es precisamente una noticia menor.

Fallo de seguridad en Copilot y correos confidenciales

Qué partes de Microsoft 365 se han visto implicadas

Copilot está profundamente integrado en el ecosistema de Microsoft 365, tanto en aplicaciones de escritorio como en servicios en la nube. El fallo de seguridad se centró en Microsoft 365 Copilot Chat, la interfaz conversacional que permite pedir a la IA que redacte correos, resuma documentos o analice datos sin necesidad de abandonar Word, Excel, PowerPoint u Outlook.

La vulnerabilidad no afectaba a todas las funciones de Copilot por igual, sino principalmente a esa capa de chat que consulta de forma automática el contenido al que el usuario tiene acceso. En lugar de respetar las limitaciones impuestas por las políticas DLP y las etiquetas de sensibilidad, el sistema llegaba a incluir en sus respuestas información localizada en correos marcados como confidenciales pero almacenados en las ya citadas carpetas de enviados y borradores.

De acuerdo con la documentación y alertas compartidas con clientes empresariales, el comportamiento indeseado se producía cuando la función de ayuda de Copilot recopilaba automáticamente elementos desde el buzón del usuario para dar contexto a sus respuestas. Entre esos elementos se colaban correos que, en teoría, debían quedar fuera del alcance de cualquier asistente automatizado, precisamente por su carácter sensible.

En términos técnicos, el origen del problema se sitúa en la lógica de verificación de permisos y políticas DLP de la herramienta. El componente encargado de revisar si un contenido protegido podía ser procesado por Copilot no estaba funcionando como debía en ese escenario concreto, de modo que la IA trataba esos correos como parte del conjunto de información disponible para responder.

Aunque el bug se ha descrito como localizado, el impacto potencial resulta considerable en entornos en los que Copilot se está desplegando de forma masiva. Muchas organizaciones europeas han empezado a probar el asistente precisamente en departamentos que trabajan con datos delicados, como Recursos Humanos, Finanzas o áreas legales, lo que aumenta la preocupación por una posible exposición interna de información que debería estar estrictamente compartimentada.

Respuesta de Microsoft y despliegue del parche

Tras la detección del error, Microsoft aseguró haber comenzado a implementar una solución a principios de febrero de 2026. El parche se desplegó de forma escalonada en la infraestructura de Microsoft 365, de manera que no todas las organizaciones recibieron la corrección al mismo tiempo, algo habitual en servicios en la nube de gran escala.

La compañía ha subrayado que se trata de una corrección aplicada del lado del servidor, por lo que los usuarios finales de Office 365 y Microsoft 365 en España y otros países europeos no necesitan realizar ninguna actualización manual en sus equipos. No obstante, las organizaciones dependen de que el despliegue haya llegado efectivamente a sus entornos para dar por cerrada la brecha.

En comunicaciones remitidas a clientes afectados y a medios especializados, Microsoft ha insistido en que los controles de acceso y las políticas de protección de datos de la plataforma no se han visto comprometidos en su base, aunque reconoce que el comportamiento observado no se ajustaba a la «experiencia Copilot prevista», que debería haber excluido cualquier contenido protegido por etiquetas de confidencialidad.

Un portavoz de la compañía explicó que se ha puesto en marcha un proceso para eliminar de los índices de Copilot los datos que hayan podido ser procesados de forma incorrecta, con el objetivo de que no influyan en respuestas futuras. Además, Microsoft sigue monitorizando de cerca el despliegue del parche y está en contacto con algunas organizaciones para confirmar que la corrección funciona en todos sus inquilinos de Microsoft 365.

Pese a estas aclaraciones, la compañía no ha detallado cuántas empresas se han visto afectadas ni el volumen de mensajes que podrían haber sido procesados bajo estas condiciones. Esa falta de cifras concretas deja a muchas organizaciones europeas haciendo sus propias evaluaciones de riesgo y revisando internamente cómo se estaba utilizando Copilot durante el periodo afectado.

Riesgos para la privacidad y el cumplimiento en España y Europa

Más allá del fallo puntual, el caso de Copilot reabre un debate que en Europa ya estaba muy presente: cómo garantizar que los asistentes de IA integrados en herramientas de productividad cumplen con las exigentes normativas de protección de datos, como el RGPD y las legislaciones nacionales complementarias, incluida la española.

En muchas compañías con sede en la UE, las etiquetas de confidencialidad y las políticas DLP son una pieza central para demostrar diligencia en la gestión de información sensible. El hecho de que un asistente integrado en Microsoft 365 pueda, aunque sea por un error de código, saltarse en la práctica esas barreras plantea dudas sobre la robustez real de estas salvaguardas cuando entran en juego servicios basados en modelos de lenguaje.

Los expertos en ciberseguridad llevan tiempo advirtiendo del riesgo de la llamada «fuga de datos interna»: información que no sale de la organización, pero que termina siendo visible para empleados que no deberían acceder a ella, gracias a resúmenes, respuestas o sugerencias generadas por la IA. En este caso, Copilot podía llegar a incorporar en sus contestaciones detalles sobre estrategias comerciales, negociaciones o datos de empleados que estaban protegidos por etiquetas de confidencialidad.

Para empresas con presencia en España, esto puede chocar de lleno con los principios de minimización de datos y limitación de acceso que exige el RGPD, así como con las directrices de la Agencia Española de Protección de Datos (AEPD). Si un asistente de IA muestra a un usuario detalles que no debería ver, aunque los datos sigan en la misma infraestructura, es probable que haya que analizar el incidente como un posible incumplimiento de las obligaciones de protección de datos.

Aunque por ahora no se han hecho públicos casos concretos de sanciones vinculadas directamente a este bug de Copilot, más de una organización europea se verá obligada a valorar si lo ocurrido encaja en la definición de brecha de seguridad que debe notificarse a la autoridad de control y, en su caso, a los afectados. La situación también alimenta el debate político y regulatorio en torno al despliegue de IA generativa en el entorno laboral, en paralelo a la tramitación y aplicación del futuro Reglamento de IA de la UE.

Lecciones y medidas de mitigación para empresas que usan Copilot

El incidente con Microsoft 365 Copilot sirve como aviso a navegantes para cualquier organización, grande o pequeña, que esté incorporando asistentes de IA a su día a día. La promesa de mayor productividad y automatización viene acompañada de una responsabilidad añadida en materia de seguridad y privacidad, especialmente cuando se trabaja con correos y documentos sensibles.

Los responsables de TI y seguridad en empresas españolas pueden plantearse, entre otras, las siguientes medidas: revisar quién tiene acceso a Copilot, limitar su uso en departamentos que manejan información altamente confidencial, y reforzar las políticas internas de uso de IA, dejando claro qué tipo de datos no deben exponerse en prompts o conversaciones con el asistente.

También resulta recomendable realizar auditorías periódicas del funcionamiento de las políticas DLP, no dándolas por sentadas simplemente porque estén configuradas en el panel de administración. Probar de forma controlada cómo responde Copilot a determinadas consultas puede ayudar a detectar comportamientos inesperados antes de que se conviertan en un problema mayor.

Otra línea de trabajo pasa por incorporar capas adicionales de supervisión y monitorización sobre el acceso a información sensible, de manera que los responsables de seguridad puedan detectar patrones anómalos en el uso de herramientas como Copilot. Aunque el fallo analizado se debe a un problema de código, las organizaciones pueden atenuar su impacto definiendo alertas y revisiones específicas sobre la actividad generada por asistentes de IA.

Finalmente, más allá de la parte técnica, conviene reforzar la formación y concienciación de los empleados. Muchos usuarios asumen que, si una función está disponible en una herramienta corporativa, su uso es automáticamente seguro y conforme a la normativa, y no siempre es así. Explicar con ejemplos claros dónde están los límites ayuda a reducir la exposición de información delicada, incluso cuando aparece un bug como el de Copilot.

Lo ocurrido con Copilot demuestra que el despliegue acelerado de soluciones de inteligencia artificial en el trabajo tiene un reverso que no se puede ignorar. La IA puede ser una aliada potente para las empresas europeas, pero solo si viene acompañada de controles técnicos sólidos, transparencia por parte de los proveedores y una cultura interna que ponga la seguridad y la privacidad al mismo nivel que la innovación.

caída de Microsoft Copilot
Artículo relacionado:
La caída de Microsoft Copilot: expectativas, negocio y desconfianza empresarial