- Microsoft recorta objetivos de crecimiento ligados a Copilot y productos de IA ante una adopción empresarial más lenta de lo esperado.
- Copilot genera desconfianza en muchas compañías por su elevado coste, rendimiento irregular y ausencia de retorno claro de la inversión.
- Experimentos con Copilot Studio evidencian vulnerabilidades de seguridad que permiten filtrar datos sensibles y ejecutar acciones no autorizadas.
- Los mercados cuestionan la escalabilidad del modelo de negocio de la IA, mientras Google y OpenAI refuerzan su posición frente a Microsoft.

Durante un tiempo, Copilot fue presentado como el gran motor de la nueva era de Microsoft, llamado a transformar la productividad en oficinas, fábricas y despachos de todo el mundo. Sin embargo, en los últimos meses se ha ido consolidando una narrativa muy diferente: la de un producto que no termina de cuajar en las empresas, que genera dudas entre los inversores y que arrastra un problema de confianza tanto por su eficacia como por su seguridad.
Entre recortes de objetivos de venta, casos reales de empresas que lo desinstalan por falta de retorno y experimentos que ponen en jaque la protección de datos en Copilot Studio, la sensación que se abre paso en el mercado es que el despliegue de Copilot va mucho más lento de lo que Microsoft había prometido. La caída reciente en bolsa y el avance de rivales como Google o OpenAI no han hecho más que alimentar esta percepción.
De las grandes promesas a los recortes de objetivos
En los primeros compases del boom de la IA generativa, Microsoft parecía tenerlo todo de cara: una alianza estratégica con OpenAI, una integración agresiva de Copilot en Windows y Microsoft 365 y un relato muy bien trabajado de revolución de la productividad. Esa historia sedujo a los mercados, que empujaron a la empresa a lo más alto de la capitalización bursátil mundial.
Con el paso de los meses, no obstante, los números reales de adopción de Copilot en empresas han obligado a pisar el freno. Informaciones internas apuntan a que divisiones clave como Azure han tenido que ajustar a la baja las cuotas de crecimiento asociadas a productos de IA, incluyendo Copilot y servicios relacionados. En algunos equipos comerciales se habla de recortes de hasta la mitad de los objetivos anteriormente fijados.
Este movimiento es significativo porque rompe con el discurso de crecimiento casi ilimitado que rodeaba a la IA generativa. Si las metas internas se rebajan es porque la demanda no está respondiendo al ritmo que la compañía esperaba. Según distintas fuentes, en el último año fiscal muchos vendedores no alcanzaron sus objetivos en la parte de IA, algo que ha obligado a replantear el listón para el siguiente ejercicio.
Microsoft ha intentado contener el daño reputacional negando que exista una rebaja generalizada de las metas de ventas y matizando que se trata más bien de un ajuste en la forma de medir el rendimiento comercial. Sin embargo, en el mercado ha calado la impresión de que el entusiasmo inicial se ha enfriado y de que Copilot no está tirando del carro como se esperaba.
Copilot no convence a las empresas: coste elevado y poco retorno
Más allá de las cifras de ventas, el gran problema para Microsoft es que muchas compañías no consiguen justificar el coste de Copilot. La herramienta se comercializa con una tarifa que ronda los 30 dólares mensuales por usuario, un importe que en no pocos casos llega a duplicar el precio de la licencia básica de Microsoft 365.
En teoría, ese sobrecoste se compensa con ahorros de tiempo y mejoras de eficiencia: generación de informes, resúmenes automáticos de reuniones, ayuda en hojas de cálculo, análisis de correos o soporte en tareas repetitivas. Pero en la práctica, muchos departamentos de TI y de finanzas tienen serias dificultades para cuantificar un retorno claro y medible. Y sin esa justificación, mantener la suscripción deja de tener sentido.
Hay ejemplos ilustrativos: un director de informática de una gran farmacéutica decidió cancelar Copilot para cientos de empleados tras unos meses de uso. La valoración interna fue que el servicio no ofrecía suficiente valor añadido para lo que costaba. Las funciones clave no alcanzaban el nivel de precisión esperado, y los resúmenes automáticos de reuniones acabaron desactivados por presión del equipo legal, preocupado por el tratamiento de transcripciones confidenciales.
Este tipo de decisiones se repite en otros sectores, desde fondos de inversión hasta compañías de servicios. En algunos casos, las empresas se han vuelto mucho más selectivas a la hora de pagar por soluciones de IA, reduciendo licencias, reorientando proyectos o apostando por desarrollos propios más controlados. El entusiasmo del primer momento ha dejado paso a una evaluación fría basada en hojas de cálculo y métricas concretas.
Todo ello alimenta la idea de que la gran promesa de Copilot en el entorno corporativo todavía no se ha materializado. La herramienta puede resultar útil para casos puntuales o perfiles específicos, pero no siempre logra encajar como solución masiva para toda la plantilla, sobre todo cuando se exige una justificación clara ante el consejo de administración.
Seguridad en entredicho: el caso de Copilot Studio
Al margen del debate sobre el retorno económico, Copilot también está bajo la lupa por sus implicaciones en materia de seguridad. Un experimento llevado a cabo por el equipo de investigación de Tenable AI Research con Microsoft Copilot Studio ha puesto sobre la mesa vulnerabilidades preocupantes en el uso empresarial de estos agentes de IA.
Copilot Studio es la plataforma sin código que permite a empleados de negocio crear agentes de IA que se conectan a sistemas internos como SharePoint, Outlook o Teams. La idea es democratizar la automatización: que cualquier usuario avanzado pueda diseñar flujos de trabajo, asistentes para clientes o procesos internos sin necesidad de escribir una sola línea de código.
En un entorno de pruebas, los investigadores crearon una agencia de viajes ficticia con datos simulados, incluyendo nombres de clientes y números de tarjetas de crédito inventados alojados en SharePoint. A partir de ahí, configuraron un agente en Copilot Studio con capacidad para gestionar reservas, modificar datos, acceder a una base de conocimientos y enviar resúmenes automatizados.
Sobre el papel, el agente estaba protegido por instrucciones restrictivas que debían impedir accesos indebidos o acciones peligrosas. Pero bastó una variante de inyección de prompt —es decir, un mensaje cuidadosamente redactado— para que el sistema empezara a revelar información sensible y a mostrar todas las acciones que podía ejecutar, incluidas aquellas que podían usarse para cometer fraude financiero.
El resultado fue que, manipulando el diálogo, el agente terminó exponiendo datos de clientes y permitiendo operaciones no autorizadas, como reservas a coste cero. Aunque todo se realizó con datos sintéticos, el experimento subraya el riesgo real de que, en un entorno corporativo, un actor malicioso o simplemente un usuario imprudente pueda aprovechar estas debilidades para acceder a información crítica.
El problema se agrava porque estas herramientas están al alcance de empleados sin formación técnica en ciberseguridad. La misma facilidad que permite impulsar la productividad también abre un frente adicional de exposición. Si no se limitan los permisos, se monitoriza la actividad de los agentes y se revisan periódicamente las configuraciones, un simple error de diseño o una cadena de prompts mal planteada puede convertirse en una brecha seria.
Mercado, competencia y pérdida de confianza en la apuesta de Microsoft
A la vez que se suceden los problemas de adopción y seguridad, los mercados financieros han empezado a ajustar sus expectativas sobre la capacidad de Microsoft para capitalizar Copilot a gran escala. En las últimas semanas, las acciones de la compañía han sufrido retrocesos que, sin ser dramáticos por sí mismos, han permitido a Alphabet (Google) adelantarla en valoración bursátil.
Este movimiento no se explica solo por factores coyunturales. Entre los analistas se ha asentado la sensación de que la narrativa de crecimiento ilimitado de la IA generativa ha tocado techo a corto plazo. Empresas tecnológicas de distintos segmentos —desde proveedores de chips hasta plataformas de nube— han tenido que ajustar previsiones al descubrir que muchos compromisos de compra de capacidad de cómputo no se convierten en ingresos reales porque los clientes, sencillamente, no llegan a utilizar todos esos recursos.
En el caso concreto de Microsoft, la dependencia tecnológica de OpenAI también entra en el debate. Mientras Google controla de extremo a extremo su infraestructura —desde los chips hasta el despliegue en la nube—, Microsoft paga por el acceso a modelos que no posee y que, además, compiten con su propia marca Copilot en la mente de los clientes. No pocas empresas prefieren conectar directamente con servicios de OpenAI antes que apostar por la capa de productividad de Microsoft.
A ello se suma que los agentes de IA siguen lejos de cumplir lo prometido en escenarios empresariales complejos. Estudios académicos con modelos avanzados han mostrado tasas de fracaso elevadas a la hora de completar tareas reales de oficina, desde procesos administrativos hasta flujos de aprobación. Cuando la herramienta no es fiable y hay que supervisarlo todo, la supuesta automatización se convierte en una carga.
Todo este cóctel —fallos de rendimiento, costes altos, dudas de seguridad y dependencia de terceros— alimenta la percepción de que Copilot no es todavía el producto maduro y robusto que se había vendido. Al menos, no en la escala y con la velocidad que Microsoft proyectó ante sus accionistas y clientes empresariales.
La fotografía que se dibuja hoy es la de un mercado mucho más prudente y desconfiado, donde cada nuevo piloto con IA generativa se evalúa con lupa y donde el margen de error de herramientas como Copilot se ha estrechado al máximo. Lejos de desaparecer, la apuesta por la inteligencia artificial continúa, pero lo hace bajo un clima de exigencia y escepticismo que hace unos meses apenas se intuía.
Todo apunta a que, en los próximos años, el éxito o fracaso de Copilot dependerá menos de las grandes promesas de marketing y mucho más de su capacidad real para aportar valor tangible, operar de forma segura y encajar en infraestructuras empresariales que no pueden permitirse ni errores ni experimentos demasiado caros.