Regla de análisis de códigos de Gobernanza de la IA
- Última actualización2024/10/31
Regla de análisis de códigos de Gobernanza de la IA
Con la nueva regla de análisis de código de Gobernanza de la IA, puede garantizar un uso responsable y compatible de la IA. Las mejoras en el análisis de código le permiten supervisar y aplicar su política de uso de IA mediante notificaciones para una solución inmediata.
Resumen
El uso de modelos fundamentales que no han sido probados podría suponer riesgos de seguridad importantes para los usuarios y las aplicaciones que los utilizan. Sin los controles de seguridad para gobernar el acceso a los modelos de IA generativa, los usuarios y las aplicaciones estarían expuestos a riesgos asociados con el uso del modelo. Implemente políticas de gobernanza que estén alineadas con las políticas de IA responsable y uso seguro de su organización para mitigar estos riesgos. Restrinja el acceso a modelos aprobados y probados para gestionar el riesgo al utilizar modelos que no hayan sido examinados a fin de garantizar una buena calidad de respuesta, además de aplicar reglas según la restricción regional.
La nueva regla impone el uso de modelos durante el diseño y desarrollo de automatizaciones a través del análisis de código. Esta política fácil de aplicar ayuda a garantizar el cumplimiento antes de que las automatizaciones se registren en la carpeta de Producción para su ejecución. La política verifica e informa sobre las automatizaciones en Producción que infringen la política y proporciona visibilidad sobre el riesgo cuando se utilizan estos modelos comprometidos y no aprobados. Esto le da la oportunidad de remediar estos incidentes..
Consulte Reglas de análisis de códigos y Configurar y asignar la política de análisis de código.
Ventajas
- Restringir el uso del modelo únicamente a modelos probados y validados.
- Monitorear las violaciones a la política.
- Prevenir el registro de código con violaciones de políticas.
Usuarios y permisos
El administrador de automatización, el desarrollador profesional o el líder de automatización serían los usuarios principales de la política de análisis de código de Gobernanza de la IA. Definirían la regla para que los Bot Creators y los desarrolladores profesionales supervisen y apliquen restricciones de políticas sobre el uso del modelo y el consumo de tokens. Las personas pueden definir la política a través del administrador de políticas de la Control Room y asignarlas a carpetas que contienen automatizaciones.
Después de desarrollar las automatizaciones, cuando el desarrollador profesional las guarda y las registra, se activan las verificaciones de políticas y se les notifica sobre cualquier violación de políticas en el código de automatización. Los desarrolladores profesionales deben abordar y resolver las violaciones de políticas para completar con éxito el proceso de registro de código.
- Lista de editores de hiperescaladores compatibles.
- Lista de modelos de los editores de hiperescaladores.
- Regiones compatibles de implementación.
Para obtener detalles de los permisos, consulte Análisis de código.
Disponibilidad
Esta función requiere la licencia Enterprise Platform. Para obtener información sobre las versiones compatibles con esta función, consulte Enterprise Platform.
Acceder a la política de análisis de código de Gobernanza de la IA
- En la pantalla de Políticas, haga clic en Crear política o en el ícono + para mostrar la página Crear política con la opción de agregar los Detalles de la política.
- Desplácese hasta la política Gobernanza de IA y habilite el interruptor.
- Haga clic en Agregar modelo y comience a agregar el Editor, que es el proveedor del hiperescalador, el Modelo, que es el modelo compatible del proveedor, y la Región de implementación.Nota: El nombre del modelo se puede ingresar manualmente. Recomendamos utilizar el siguiente formato al ingresar el nombre del modelo:
- Amazon Bedrock : Jurassic-2 Mid, Jurassic-2 Ulta, Claude Instant v1.2, Claude v1.3, Claude v2.1 (otras versiones compatibles), Titan Text G1-Lite y Titan Text G1-Express (otras versiones compatibles).
- Google Vertex AI : chat-bison (más reciente), chat-bison-32k (más reciente), chat-bison-32k@002, chat-bison@001, chat-bison@002, codechat-bison, codechat-bison-32k, codechat-bison-32k@002, codechat-bison@001, codechat-bison@002 (otras versiones compatibles), text-bison (más reciente), text-bison-32k (más reciente), text-bison-32k@002, text-bison@001, text-bison@002, text-unicorn@001, code-bison (más reciente), code-bison-32k@002, code-bison@001, code-bison@002, code-gecko@001, code-gecko@002, code-gecko (otras versiones compatibles) y Gemini Pro.
- OpenAI : gpt-3.5-turbo (predeterminado), gpt-3.5-turbo-16k, gpt-4, gpt-4-32k (otras versiones compatibles), text-davinci-003, text-davinci-002, davinci, text-curie-001, curie, text-babbage-001, babbage, text-ada-001 y modelos personalizados.
- Al hacer clic en el botón Agregar modelo podrá agregar una nueva fila en la tabla Modelos permitidos.
- A continuación, agregue el nivel de gravedad como Crítico según la política de análisis de código.Nota: Recomendamos agregar el nivel de severidad como Crítico para evitar que el desarrollador profesional realice un registro de una automatización, en caso de violaciones de reglas.
- A continuación, guarde los cambios.