Publicado el Deja un comentario

IA Confiable de Microsoft: Liberar el potencial humano comienza con la confianza

septiembre 24, 2024

IA Confiable de Microsoft: Liberar el potencial humano comienza con la confianza

Por: Takeshi Numoto, vicepresidente ejecutivo y director de marketing.

A medida que la IA avanza, todos tenemos un papel que desempeñar para desbloquear el impacto positivo de la IA en las organizaciones y comunidades de todo el mundo. Es por eso que nos enfocamos en ayudar a los clientes a usar y crear una IA que sea confiable, es decir, una IA que sea segura, segura y privada.

En Microsoft, tenemos el compromiso de garantizar una IA confiable y creamos tecnología de soporte líder en la industria. Nuestros compromisos y capacidades van de la mano para garantizar que nuestros clientes y desarrolladores estén protegidos en todas las capas.

Sobre la base de nuestros compromisos, hoy anunciamos nuevas capacidades de productos para fortalecer la seguridad, la protección y la privacidad de los sistemas de IA.

Seguridad. La seguridad es nuestra principal prioridad en Microsoft, y nuestra Iniciativa de Futuro Seguro (SFI, por sus siglas en inglés) ampliada subraya los compromisos de toda la empresa y la responsabilidad que sentimos para hacer que nuestros clientes estén más seguros. Esta semana anunciamos nuestro primer Informe de Progreso de SFI, que destaca actualizaciones que abarcan la cultura, la gobernanza, la tecnología y las operaciones. Esto cumple con nuestra promesa de priorizar la seguridad por encima de todo lo demás y se guía por tres principios: seguro por diseño, seguro por defecto y operaciones seguras. Además de nuestras ofertas propias, Microsoft Defender y Purview, nuestros servicios de IA incluyen controles de seguridad fundamentales, como funciones integradas para ayudar a evitar inyecciones rápidas e infracciones de derechos de autor. Sobre la base de ellas, hoy anunciamos dos nuevas capacidades:

Evaluaciones en Azure AI Studio para respaldar evaluaciones de riesgos proactivas.

Microsoft 365 Copilot proporcionará transparencia en las consultas web para ayudar a los administradores y usuarios a comprender mejor cómo la búsqueda web mejora la respuesta de Copilot. Disponible más adelante.

Nuestras capacidades de seguridad ya son utilizadas por los clientes. Cummins, una empresa de 105 años de antigüedad conocida por su fabricación de motores y el desarrollo de tecnologías de energía limpia, recurrió a Microsoft Purview para fortalecer la seguridad y la gobernanza de sus datos mediante la automatización de la clasificación, el etiquetado y el etiquetado de datos. EPAM Systems, una empresa de ingeniería de software y consultoría empresarial, implementó Microsoft 365 Copilot para 300 usuarios debido a la protección de datos que obtienen de Microsoft. J.T. Sodano, director senior de TI, compartió que «teníamos mucha más confianza con Copilot para Microsoft 365, en comparación con otros modelos de lenguaje grandes (LLM, por sus siglas en inglés), porque sabemos que las mismas políticas de información y protección de datos que hemos configurado en Microsoft Purview aplicar a Copilot».

Protección. Incluidas tanto la seguridad como la privacidad, los principios más amplios de IA Responsable de Microsoft, establecidos en 2018, continúan como guías para la forma en que construimos e implementamos la IA de manera segura en toda la empresa. En la práctica, esto significa construir, probar y monitorear de manera adecuada los sistemas para evitar comportamientos indeseables, como contenido dañino, sesgo, uso indebido y otros riesgos no deseados. A lo largo de los años, hemos realizado inversiones significativas en la creación de la estructura de gobernanza, las políticas, las herramientas y los procesos necesarios para defender estos principios y construir e implementar la IA de forma segura. En Microsoft, nos comprometemos a compartir con nuestros clientes nuestros aprendizajes en este viaje de defensa de nuestros principios de IA Responsable. Utilizamos nuestras mejores prácticas y aprendizajes para proporcionar a las personas y organizaciones capacidades y herramientas para crear aplicaciones de IA que compartan los mismos altos estándares por los que nos esforzamos.

Hoy, compartimos nuevas capacidades para ayudar a los clientes a aprovechar los beneficios de la IA y mitigar los riesgos:

Una capacidad de corrección en la característica de detección de conexión a tierra de Microsoft Azure AI Content Safety que ayuda a solucionar problemas de alucinación en tiempo real antes de que los usuarios los vean.

Seguridad de contenido incrustado, que permite a los clientes insertar Azure AI Content Safety en los dispositivos. Esto es importante para escenarios en el dispositivo en los que la conectividad en la nube puede ser intermitente o no estar disponible.

Nuevas evaluaciones en Azure AI Studio para ayudar a los clientes a evaluar la calidad y la relevancia de los resultados y la frecuencia con la que su aplicación de IA genera material protegido.

La detección de material protegido para código ya está en versión preliminar en Seguridad de contenido de Azure AI para ayudar a detectar contenido y código preexistentes. Esta característica ayuda a los desarrolladores a explorar el código fuente público en los repositorios de GitHub, lo que fomenta la colaboración y la transparencia, al tiempo que permite tomar decisiones de codificación más informadas.

Es sorprendente ver cómo los clientes de todos los sectores ya utilizan las soluciones de Microsoft para crear aplicaciones de IA más seguras y fiables. Por ejemplo, Unity, una plataforma para juegos en 3D, utilizó Microsoft Azure OpenAI Service para crear Muse Chat, un asistente de IA que facilita el desarrollo de juegos. Muse Chat usa modelos de filtrado de contenido en Azure AI Content Safety para garantizar el uso responsable del software. Además, ASOS, un minorista de moda con sede en el Reino Unido con casi 900 socios de marca, utilizó los mismos filtros de contenido integrados en Azure AI Content Safety para respaldar interacciones de alta calidad a través de una aplicación de IA que ayuda a los clientes a encontrar nuevos looks.

También hemos visto el impacto en el ámbito educativo. Las Escuelas Públicas de la Ciudad de Nueva York se asociaron con Microsoft para desarrollar un sistema de chat que sea seguro y apropiado para el contexto educativo, que ahora han puesto a prueba en las escuelas. De manera similar, el Departamento de Educación de Australia Meridional llevó la IA generativa al aula con EdChat, al depositar su confianza en la misma infraestructura para garantizar un uso seguro para estudiantes y profesores.

Privacidad. Los datos son la base de la IA, y la prioridad de Microsoft es ayudar a garantizar que los datos de los clientes estén protegidos y cumplan con los requisitos a través de nuestros principios de privacidad de larga data, que incluyen el control del usuario, la transparencia y las protecciones legales y regulatorias. Para construir sobre esto, hoy anunciamos:

Inferencia confidencial en versión preliminar en nuestro modelo Azure OpenAI Service Whisper, para que los clientes puedan desarrollar aplicaciones de IA generativa que admitan la privacidad verificable de un extremo a otro. La inferencia confidencial garantiza que los datos confidenciales de los clientes permanezcan seguros y privados durante el proceso de inferencia, que es cuando un modelo de IA entrenado realiza predicciones o decisiones basadas en nuevos datos. Esto es en especial importante para las industrias con una alta regulación, como la atención médica, los servicios financieros, el comercio minorista, la manufactura y la energía.

La disponibilidad general de las máquinas virtuales confidenciales de Azure con GPU NVIDIA H100 Tensor Core, que permiten a los clientes proteger los datos directo en la GPU. Esto se basa en nuestras soluciones informáticas confidenciales, que garantizan que los datos de los clientes permanezcan cifrados y protegidos en un entorno seguro para que nadie tenga acceso a la información o al sistema sin permiso.

Las zonas de datos de Azure OpenAI para la UE y EE. UU. llegarán pronto y se basan en la residencia de datos existente proporcionada por Azure OpenAI Service, lo que facilita la administración del procesamiento y el almacenamiento de datos de las aplicaciones de IA generativa. Esta nueva funcionalidad ofrece a los clientes la flexibilidad de escalar aplicaciones de IA generativa en todas las regiones de Azure dentro de una geografía, al tiempo que les proporciona el control del procesamiento y el almacenamiento de datos dentro de la UE o los EE. UU.

Hemos visto un creciente interés de los clientes en la informática confidencial y el entusiasmo por las GPU confidenciales, incluido el proveedor de seguridad de aplicaciones F5, que utiliza máquinas virtuales confidenciales de Azure con GPU NVIDIA H100 Tensor Core para crear soluciones de seguridad avanzadas impulsadas por IA, al tiempo que garantiza la confidencialidad de los datos que analizan sus modelos. Y la corporación bancaria multinacional Royal Bank of Canada (RBC) ha integrado la computación confidencial de Azure en su propia plataforma para analizar datos cifrados y preservar la privacidad del cliente. Con la disponibilidad general de las máquinas virtuales confidenciales de Azure con GPU NVIDIA H100 Tensor Core, RBC ahora puede usar estas herramientas de IA avanzadas para trabajar de manera más eficiente y desarrollar modelos de IA más potentes.

Logren más con IA Confiable

Todos necesitamos y esperamos una IA en la que podamos confiar. Hemos visto lo que es posible cuando las personas están capacitadas para usar la IA de una manera confiable, desde enriquecer las experiencias de los empleados y remodelar los procesos comerciales hasta reinventar la participación del cliente y reimaginar nuestra vida cotidiana. Con nuevas capacidades que mejoran la seguridad, la protección y la privacidad, permitimos a los clientes utilizar y crear soluciones de IA fiables que ayuden a todas las personas y organizaciones del planeta a conseguir más. En última instancia, la IA Confiable abarca todo lo que hacemos en Microsoft y es esencial para nuestra misión a medida que trabajamos para expandir las oportunidades, ganar confianza, proteger los derechos fundamentales y promover la sostenibilidad en todo lo que hacemos.

Relacionado:

Compromisos

Seguridad: Iniciativa Futuro Seguro

Privacidad: Centro de confianza

Protección: Principios de IA responsable

Capacidades

Seguridad: Seguridad para la IA

Privacidad: Computación confidencial de Azure

Protección: Seguridad del contenido de Azure AI

The post IA Confiable de Microsoft: Liberar el potencial humano comienza con la confianza appeared first on Source LATAM.

 

​The post IA Confiable de Microsoft: Liberar el potencial humano comienza con la confianza appeared first on Source LATAM.  

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *