La funcionalidad de Políticas IA permite configurar reglas para moderar las respuestas del LLM y proteger información sensible. Actúa como un segundo filtro para garantizar que las respuestas generadas no infrinjan políticas internas o afecten el modelo de negocio.

Los usuarios podrán definir reglas personalizadas para reforzar la seguridad y privacidad, evitando que el LLM solicite o divulgue datos sensibles, como información bancaria o personal, o que mencione marcas y empresas específicas.

Acciones disponibles 🤖

🚫 Bloquear: evita que la respuesta llegue al usuario y registra la actividad sobre la política aplicada y el incumplimiento detectado.

✍️ Modificar: ajusta la respuesta del LLM en automático para que cumpla con la política.

⚠️ Alerta: permite que la respuesta llegue al usuario, pero registra el posible incumplimiento y la política que fue aplicada para una revisión posterior.

¿Cómo agregar una política IA?

  1. Nombrar la política con un título que describa su característica principal o identifiqué su propósito.
  2. Seleccionar una de las tres acciones disponibles, lo que definirá cómo actuará el LLM (bloquear, modificar o alertar).
  3. Es importante completar el campo de Condición con el criterio exacto a filtrar, especificando lo que se busca prevenir o modificar en las respuestas del modelo.

Ejemplos de políticas

Se pueden definir condiciones como “Prohibir solicitud de información bancaria” o “Prohibir solicitud de información personal”

Beneficios

El uso de las Políticas IA ayuda a tener un mayor control sobre las interacciones del LLM y contribuye a mantener un ambiente seguro. ✨ 🤖