Lanzamiento de AI Agent Studio v.37
- Última actualización2025/08/22
Novedades
Nueva página de habilidades para la gestión de AI Skills
Presentamos la nueva página de habilidades, que se encuentra en la sección IA en la navegación izquierda. Esta vista centralizada le permite acceder y gestionar fácilmente todas sus AI Skills. La página está dividida en dos secciones: la pestaña Habilidades para gestionar sus habilidades existentes, y la pestaña Plantillas para explorar y crear habilidades a partir de plantillas disponibles, lo que ofrece una alternativa al método de creación anterior mediante la automatización. |
AI Guardrails mejorado con supervisión y bloqueo de toxicidad
El asistente de creación de AI Guardrails ahora incluye una sección dedicada a Toxicidad. Esta sección permite a los administradores controlar el lenguaje en las interacciones de IA. Esta mejora analiza tanto los indicadores de entrada como las respuestas generadas por el modelo de lenguaje extenso (LLM) y clasifica los niveles de toxicidad como bajos, moderados o altos. Más allá de la simple supervisión, los administradores ahora pueden configurar barreras de seguridad para bloquear de manera activa los indicadores que contengan niveles específicos de lenguaje tóxico antes de que lleguen al LLM. De manera similar, las barreras de seguridad pueden bloquear las respuestas de los LLM que superen los umbrales de toxicidad definidos antes de presentarlas al usuario. Los indicadores bloqueados activan mensajes de error y evitan el procesamiento de LLM. Las respuestas bloqueadas generan resultados vacíos y notificaciones de error. El sistema registra meticulosamente todas las acciones de bloqueo para lograr una AI Governance completa. De forma predeterminada, las verificaciones de toxicidad están configuradas en la opción Permitir todo para fines de auditoría, y el sistema registra la puntuación de toxicidad en AI Governance en modo de solo observación. |
Pruebas de AI Guardrails
El asistente de creación de AI Guardrails ahora cuenta con una sección dedicada a las Pruebas, lo que le permite probar las barreras de seguridad con la configuración establecida. Ahora puede ingresar ejemplos de indicadores y hacer clic en Probar barrera de seguridad para ver cómo responde la barrera de seguridad según la configuración de toxicidad y el enmascaramiento de datos. |
La fuente de los indicadores se muestra en AI Governance
La fuente de cada indicador se muestra en los registros de indicadores y eventos en AI Governance. Esto ofrece a los administradores más información sobre cómo se están utilizando las capacidades de IA y el rendimiento de varios productos. |
Correcciones
Problema de registro en API Task de AI Skill solucionado:
Las ejecuciones de AI Skill activadas mediante API Tasks a pedido ahora registran de manera correcta las respuestas en el Event log de AI Governance. Anteriormente, una limitación impedía que estas respuestas se registraran; la solución temporal anterior, que requiere agregar una acción de demora de al menos 1 segundo después del AI Skill: Ejecutar la acción para todas las ejecuciones a pedido de API Task ya no es necesario. |
Se solucionó la limitación de caracteres especiales en el panel de AI Governance:
Al hacer clic en los nombres de modelos que contienen caracteres especiales dentro de la pestaña AI Governance del panel en la pantalla de inicio, ahora se activa una búsqueda exacta para ese nombre de modelo específico. Anteriormente, la funcionalidad de búsqueda subyacente no admitía completamente caracteres especiales como "*", "?", "+", "=", "&&", "||", ">", "<", "!", "(", ")", "{", "}", "[", "]", "^", "~", ":", o palabras encerradas entre comillas dobles. Como resultado, hacer clic en un nombre de modelo que contenga cualquiera de estos caracteres resultaría en un error. |
Página de inicio de Guardrails Archivo no encontrado error corregido Ahora puede ver correctamente la página de inicio de Guardrails, aunque no tenga permisos para ver el contenido de todas las carpetas en las que se hayan creado barreras de seguridad o estas hayan sido asignadas por otros usuarios. Anteriormente, es posible que haya encontrado un error de Archivo no encontrado en esta página si carecía de acceso para ver el contenido de cualquier carpeta que tuviera una barrera de seguridad asignada, lo que impedía de forma incorrecta la navegación general y la gestión de las barreras de seguridad. Esta solución garantiza que pueda acceder a las barreras de seguridad relevantes para sus permisos. La columna Carpetas asignadas a en esta página ahora solo mostrará las carpetas para las que tiene permisos para ver el contenido. También necesita un permiso de Ver barrera de seguridad de IA para acceder a esta página. Los usuarios con el rol AAE_Admin seguirán teniendo permisos implícitos para ver todas las carpetas y barreras de seguridad asignadas, lo que proporciona una supervisión integral. |
Limitaciones
Visibilidad limitada de fallas de toxicidad de System prompt
El AI Guardrails puede bloquear contenido altamente tóxico, pero hay algunas limitaciones específicas para el System prompt, las cuales se abordarán en futuras versiones. Estas limitaciones conocidas incluyen las siguientes:
|
Uso de Model connections basadas en RAG
Los System prompt no se consideran cuando se usan Model connections basadas en RAG. Además, el enmascaramiento de datos no se aplica cuando un modelo de RAG interactúa con datos de una base de conocimientos. |
La página de inicio de AI Skills muestra un mensaje de error cuando no hay habilidades disponibles
Los administradores con permisos para Model connections y AI Skills verán un error de Archivo no encontrado al acceder a la página de AI Skills si no se han configurado habilidades. |
Actualizaciones de la interfaz
Habilidades |
---|
Se introduce un nuevo menú de navegación para acceder a las AI Skills:![]() |