Un Modelo de Lenguaje de Gran Escala (LLM, por sus siglas en inglés) es una forma avanzada de inteligencia artificial que se especializa en comprender, generar y manipular el lenguaje humano. Los LLM son ejemplos de sistemas de aprendizaje profundo, específicamente redes neuronales, que han sido entrenadas con enormes conjuntos de datos textuales. Estos modelos utilizan arquitecturas como las Redes Neuronales Transformadoras, que les permiten capturar y analizar patrones complejos en el lenguaje.
Una característica distintiva de los LLM es su capacidad para realizar tareas de procesamiento del lenguaje natural (NLP), como comprensión del texto, generación de lenguaje, traducción, resumen y respuesta a preguntas, entre otras. Estos modelos se destacan por su habilidad para generar texto que es coherente, contextualmente relevante y a menudo indistinguible del escrito por humanos.
<aside> 💡 Imagina que un LLM es como un bibliotecario muy avanzado que ha leído todos los libros del mundo. Este bibliotecario (el LLM) no solo recuerda toda la información, sino que también entiende cómo se relacionan las palabras, las frases y las ideas. Cuando le haces una pregunta, el bibliotecario puede darte una respuesta que tiene sentido, es relevante y a veces incluso creativa.
Es como si tuvieras un amigo que sabe muchísimo y puede hablar de cualquier tema. Si le pides que te escriba una historia, que te explique algo complicado o que traduzca algo de un idioma a otro, lo hará basándose en todo lo que ha aprendido.
</aside>
En este manual, destacaremos cómo utilizar el LLM para potenciar el razonamiento lógico y la generación de respuestas creativas e intuitivas.
La integración de RAG en los chatbots permite una búsqueda semántica avanzada, utilizando el conocimiento acumulado en vastas bases de datos para enriquecer y complementar las capacidades del LLM. Esta sinergia entre la recuperación de información relevante y el razonamiento avanzado del LLM permite a los chatbots ofrecer respuestas más precisas, detalladas y contextuales.
Dentro de la sección de Configuración en la plataforma encontrarás las sub-sección Ajustes IA
<aside> 💡 Se recomienda utilizar un valor entre 0.7 y 0.85 pero puede ajustarse según las necesidades
</aside>
<aside> 💡 Para que sea útil esta configuración el valor debe ser menor que la precisión configurada en la Búsqueda Semántica ya que primero se intenta responder únicamente con las coincidencias de la búsqueda semántica y si no se encuentra una respuesta pasará a buscar contexto para el LLM
</aside>
Prompt con contexto: Será la instrucción principal para el LLM cuando se encuentre contexto con la búsqueda semántica
<aside> 💡 Un prompt es una cadena de texto que se le proporciona al modelo para que genere una respuesta. El prompt puede ser una pregunta, una instrucción o simplemente una descripción de un escenario.
</aside>
Ejemplo de prompt que puedes utilizar
Responde al INPUT considerando lo siguiente: Responde en español de la forma más breve posible. Si existe CONTEXTO, utilízalo para responder. Si algún INPUT no tiene sentido o no es coherente, explica por qué en lugar de decir que no es correcto. Si algo no esta en el contexto, no des información falsa.
En todas tus respuestas agrega emojis positivos.