
Para los líderes empresariales y de TI, la pregunta no es qué modelo de implementación de IA es mejor, sino cómo usar cada uno de manera efectiva dentro de una arquitectura segura. Eso comienza con comprender dónde fluyen los datos, cómo se protegen y qué es lo más importante en el punto final.
La IA está evolucionando, al igual que la forma en que las empresas la ejecutan. Tradicionalmente, la mayoría de las cargas de trabajo de IA se han procesado en la nube. Cuando un usuario le da un aviso a una herramienta de IA, esa entrada se envía a través de Internet a servidores remotos, donde el modelo la procesa y envía un resultado. Este modelo admite servicios a gran escala como Microsoft 365 Copilot, que integra IA en aplicaciones como Word, Excel y Teams.
Ahora, está surgiendo una nueva capacidad junto con la IA basada en la nube. La IA también puede ejecutarse directamente en una PC, sin necesidad de conexión a Internet ni servidor remoto. Esto se conoce como procesamiento en el dispositivo. Significa que los datos y el modelo permanecen en el propio dispositivo y el trabajo se realiza localmente.
Las CPU y GPU modernas están comenzando a admitir este tipo de procesamiento. Pero las unidades de procesamiento neuronal (NPU), ahora incluidas en PC de nivel empresarial como las PC Microsoft Surface Copilot+, están diseñadas específicamente para ejecutar cargas de trabajo de IA de manera eficiente. Las NPU están diseñadas para realizar los tipos de operaciones que la IA necesita a alta velocidad y usar menos energía. Eso los hace ideales para funciones que necesitan funcionar al instante, de manera sostenida en segundo plano o sin conexión a Internet.
Un enfoque flexible para la implementación de IA
Las NPU pueden permitir un procesamiento en el dispositivo con eficiencia energética, tiempos de respuesta rápidos con modelos pequeños, funcionalidad consistente en escenarios fuera de línea y más control sobre cómo se procesan y almacenan los datos. Para las organizaciones, agrega flexibilidad para elegir cómo y dónde ejecutar la IA, ya sea para admitir interacciones en tiempo real en el borde o cumplir con requisitos específicos de gobernanza de datos.
Al mismo tiempo, la IA basada en la nube sigue siendo esencial para la forma en que las organizaciones brindan servicios inteligentes en todos los equipos y flujos de trabajo. Microsoft 365 Copilot, por ejemplo, funciona con la infraestructura en la nube y se integra profundamente en las aplicaciones de productividad mediante protecciones de identidad, acceso y contenido de nivel empresarial.
Ambos modelos atienden necesidades diferentes pero complementarias. La IA en el dispositivo agrega nuevas opciones de capacidad de respuesta y control. La IA basada en la nube permite una amplia integración y una escala centralizada. Juntos, brindan a las empresas flexibilidad para alinear el procesamiento de IA con las demandas del caso de uso, ya sea para una inferencia local rápida o una colaboración conectada.
Para los líderes empresariales y de TI, la pregunta no es qué modelo es mejor, sino cómo usar cada uno de manera efectiva dentro de una arquitectura segura. Eso comienza con comprender dónde fluyen los datos, cómo se protegen y qué es lo más importante en el punto final.
Comprender el flujo de datos de IA y su impacto en la seguridad
Los sistemas de IA se basan en varios tipos de entrada, como indicaciones de usuario, contexto del sistema y contenido empresarial. Cuando la IA se ejecuta en la nube, los datos se transmiten a servidores remotos para su procesamiento. Cuando se ejecuta en el dispositivo, el procesamiento se realiza localmente. Ambos enfoques tienen implicaciones para la seguridad.
Con la IA en la nube, la protección depende de la solidez de la infraestructura del proveedor, los estándares de cifrado y los controles de acceso. La seguridad sigue un modelo de responsabilidad compartida en el que el proveedor de la nube protege la plataforma mientras la empresa define sus políticas para el acceso, la clasificación y el cumplimiento de los datos.
El enfoque de Microsoft sobre la seguridad y privacidad de los datos en los servicios de IA en la nube
Aunque el propósito de esta publicación de blog es hablar sobre la inteligencia artificial y la seguridad en el dispositivo, vale la pena desviarse para tocar brevemente cómo Microsoft aborda la gobernanza de datos en sus servicios de inteligencia artificial basados en la nube. En última instancia, el objetivo es que los empleados puedan usar las herramientas que funcionen mejor para lo que quieren hacer, y es posible que no diferencien entre servicios de IA locales y en la nube. Eso significa que tener un proveedor de confianza para ambos es importante para el valor y la seguridad de la IA a largo plazo en la organización.
Las soluciones de IA generativa de Microsoft, incluidos los servicios y funcionalidades de Azure OpenAI Service y Copilot, no usan los datos de su organización para entrenar modelos básicos sin su permiso. El servicio Azure OpenAI es operado por Microsoft como un servicio de Azure; Microsoft aloja los modelos de OpenAI en el entorno Azure de Microsoft y el Servicio no interactúa con ningún servicio operado por OpenAI (por ejemplo, ChatGPT o la API de OpenAI). Microsoft 365 Copilot y otras herramientas de inteligencia artificial operan dentro de un límite seguro, extrayendo de fuentes de contenido específicas de la organización como OneDrive y Microsoft Graph, respetando los permisos de acceso existentes. Para obtener más recursos sobre la privacidad y la seguridad de los datos en los servicios de inteligencia artificial en la nube de Microsoft, consulte Microsoft Learn.
La seguridad de la IA local depende de un punto final de confianza
Cuando la IA se ejecuta en el dispositivo, los datos permanecen más cerca de su fuente. Esto reduce la dependencia de la conectividad de red y puede ayudar a limitar la exposición en escenarios en los que la residencia o la confidencialidad de los datos son una preocupación. Pero también significa que el dispositivo debe estar asegurado en todos los niveles.
Ejecutar IA en el dispositivo no lo hace intrínsecamente más o menos seguro. Cambia el perímetro de seguridad. Ahora la integridad del endpoint es aún más importante. Los equipos Surface Copilot+ están diseñados con esto en mente. Como PC de núcleo seguro, integran protecciones basadas en hardware que ayudan a protegerse contra amenazas basadas en firmware, sistema operativo e identidad.
- Los procesadores de seguridad TPM 2.0 y Microsoft Pluton proporcionan protección basada en hardware para datos confidenciales
- La raíz de confianza basada en hardware verifica la integridad del sistema desde el arranque
- El firmware desarrollado por Microsoft puede reducir la exposición a los riesgos de la cadena de suministro de terceros y ayuda a abordar las amenazas emergentes rápidamente a través de Windows Update
- Windows Hello y la seguridad de inicio de sesión mejorada (ESS) ofrecen una autenticación sólida a nivel de hardware
Estas protecciones y otras trabajan juntas para crear una base confiable para las cargas de trabajo de IA locales. Cuando la IA se ejecuta en un dispositivo como este, la misma pila de seguridad de nivel empresarial que protege el sistema operativo y las aplicaciones también se aplica al procesamiento de IA.
Por qué el diseño de aplicaciones es parte de la ecuación de seguridad
Proteger el dispositivo es fundamental, pero no es toda la historia. A medida que las organizaciones comienzan a adoptar herramientas de IA generativa que se ejecutan localmente, la conversación sobre seguridad también debe expandirse para incluir cómo se diseñan, gobiernan y administran esas herramientas.
El valor de la IA aumenta drásticamente cuando puede trabajar con datos ricos y contextuales. Pero ese mismo acceso introduce nuevos riesgos si no se maneja adecuadamente. Las herramientas locales de IA deben construirse con límites claros sobre a qué datos pueden acceder, cómo se otorga ese acceso y cómo los usuarios y los equipos de TI pueden controlarlo. Esto incluye mecanismos de suscripción, modelos de permisos y visibilidad de lo que se almacena y por qué.
Microsoft Recall (versión preliminar) en PC Copilot+ es un caso práctico sobre cómo el diseño de aplicaciones reflexivo puede hacer que la IA local sea potente y consciente de la privacidad. Captura instantáneas del escritorio incrustadas con información contextual, lo que permite a los empleados encontrar casi cualquier cosa que haya aparecido en su pantalla describiéndola con sus propias palabras. Esta funcionalidad solo es posible porque Recall tiene acceso a una amplia gama de datos en el dispositivo, pero ese acceso se administra cuidadosamente.
La recuperación se ejecuta completamente en el dispositivo. Está desactivado de forma predeterminada, incluso cuando está habilitado por TI, y requiere inicio de sesión biométrico con Seguridad de inicio de sesión mejorada de Windows Hello para activarse. Las instantáneas se cifran y almacenan localmente, protegidas por las funciones de PC de núcleo seguro y el procesador de seguridad Microsoft Pluton. Estas medidas de seguridad garantizan que los datos confidenciales permanezcan protegidos, incluso cuando la IA se integra más profundamente en los flujos de trabajo diarios.
Los administradores de TI pueden administrar Recuperación a través de Microsoft Intune, con directivas para habilitar o deshabilitar la característica, controlar la retención de instantáneas y aplicar filtros de contenido. Incluso cuando Recall está habilitado, sigue siendo opcional para los empleados, que pueden pausar el guardado de instantáneas, filtrar aplicaciones o sitios web específicos y eliminar instantáneas en cualquier momento.
Este enfoque por capas (hardware seguro, sistema operativo seguro y diseño de aplicaciones seguras) refleja la estrategia más amplia de Microsoft para la IA local responsable y se alinea con el enfoque general de seguridad de Surface. Ayuda a las organizaciones a mantener la gobernanza y el cumplimiento al tiempo que brinda a los usuarios la confianza de que tienen el control de sus datos y que las herramientas están diseñadas para respaldarlos, no para vigilarlos. Este equilibrio es esencial para generar confianza en los flujos de trabajo impulsados por IA y garantizar que la innovación no se produzca a expensas de la privacidad o la transparencia. Para obtener más información, consulte la publicación de blog relacionada.
Elegir el modelo de IA adecuado para el caso de uso
El procesamiento de IA local complementa la IA en la nube, ofreciendo opciones adicionales sobre cómo y dónde se ejecutan las cargas de trabajo. Cada enfoque admite diferentes necesidades y casos de uso. Lo que importa es seleccionar el modelo adecuado para la tarea mientras se mantiene una seguridad y una gobernanza coherentes en todo el entorno.
La IA en el dispositivo es especialmente útil en escenarios en los que las organizaciones necesitan reducir el movimiento de datos o garantizar que la IA funcione de manera confiable en entornos desconectados
- En industrias reguladas como las financieras, legales o gubernamentales, el procesamiento local puede ayudar a respaldar el cumplimiento de estrictos requisitos de manejo de datos
- En el campo, los trabajadores móviles pueden usar funciones de IA como el análisis de documentos o el reconocimiento de imágenes sin depender de una conexión estable
- Para modelos empresariales personalizados, la ejecución en el dispositivo a través de Windows AI Foundry Local permite a los desarrolladores integrar IA en aplicaciones mientras mantienen el control sobre cómo se usan y almacenan los datos
Estos casos de uso reflejan una tendencia más amplia. Las empresas quieren más flexibilidad en la forma en que implementan y administran la IA. El procesamiento en el dispositivo lo hace posible sin necesidad de una compensación en seguridad o integración.
Los fundamentos de seguridad son lo más importante
Microsoft adopta una visión holística de la seguridad de la IA en los servicios en la nube, las plataformas en el dispositivo y todo lo demás. Tanto si la IA se ejecuta en Azure como en un dispositivo Surface, se aplican los mismos principios. Proteja la identidad, cifre los datos, aplique controles de acceso y garantice la transparencia.
Este enfoque se basa en las protecciones de nivel empresarial ya establecidas en toda la pila de tecnología de Microsoft. Desde el ciclo de vida de desarrollo seguro hasta las directivas de acceso de Confianza cero, Microsoft aplica estándares rigurosos a cada capa de implementación de IA.
Para los líderes empresariales, la seguridad de la IA extiende los principios familiares (identidad, acceso, protección de datos) a los nuevos flujos de trabajo impulsados por IA, con una visibilidad y un control claros sobre cómo se manejan los datos en entornos de nube y dispositivos.
La protección de la IA comienza con los cimientos adecuados
La IA se está expandiendo de los servicios solo en la nube para incluir nuevos puntos finales capaces. Este cambio brinda a las empresas más formas de hacer coincidir el modelo de procesamiento con el caso de uso sin comprometer la seguridad.
Los equipos Surface Copilot+ admiten esta flexibilidad al ofrecer un rendimiento de inteligencia artificial local en una plataforma preparada para la empresa con seguridad avanzada. Cuando se combinan con los servicios de Microsoft 365 y Azure, ofrecen un ecosistema cohesivo que respeta los límites de los datos y se alinea con las políticas de la organización.
La seguridad de la IA no se trata de elegir entre la nube o el dispositivo. Se trata de habilitar un ecosistema flexible y seguro donde la IA pueda ejecutarse donde ofrezca el mayor valor: en el endpoint, en la nube o en ambos. Esta adaptabilidad desbloquea nuevas formas de trabajar, automatizar e innovar, sin aumentar el riesgo. Los equipos Surface Copilot+ forman parte de esa estrategia más amplia, ya que ayudan a las organizaciones a implementar la IA con confianza y control, a escala, a velocidad y al límite de lo que sigue.
