Microsoft presenta nuevas herramientas en Azure AI Studio para desarrolladores de aplicaciones de Inteligencia Artificial generativa, abordando los desafíos de calidad y seguridad. Con estas adiciones, el conjunto de soluciones de Microsoft en Azure AI continúa ofreciendo tecnologías innovadoras para proteger aplicaciones en todo el ciclo de vida de la IA generativa.
- Protección contra ataques de inyección de prompts con Prompt Shields: Para combatir ataques directos e indirectos de inyección de prompts, Microsoft introduce Prompt Shields. Detecta entradas sospechosas en tiempo real y las bloquea antes de que afecten al modelo base, salvaguardando así la integridad de los sistemas de modelos de lenguaje (LLM) y las interacciones de los usuarios.
- Identificación de alucinaciones de LLM con Groundedness detection: Próximamente estará disponible Groundedness detection, una función para identificar alucinaciones basadas en texto. Detecta contenido no fundamentado para mejorar la calidad de los resultados de LLM, crucial para garantizar la calidad y fiabilidad de los sistemas de IA generativa.
- Mensajes de sistema de seguridad eficaces con Azure AI Content Safety: Se añaden sistemas de seguridad como Azure AI Content Safety para crear mensajes de sistema eficaces. Pronto estarán disponibles plantillas de mensajes de sistema de seguridad en Azure AI Studio y Azure OpenAI Service, agilizando el proceso de desarrollo de aplicaciones de alta calidad.
- Evaluaciones automatizadas para métricas de riesgo y seguridad: Microsoft ofrece evaluaciones automatizadas en versión previa para nuevas métricas de riesgo y seguridad. Estas evaluaciones miden la susceptibilidad de una aplicación a varios riesgos, como contenido dañino y comportamientos indeseados, proporcionando explicaciones en lenguaje natural para mitigar los riesgos.
Con estas herramientas, los desarrolladores pueden crear aplicaciones de IA generativa más seguras, confiables y de alta calidad en menos tiempo y con mayor confianza.