new
IA
🤖💡 Módulos IA
Configura y personaliza la forma en que la inteligencia artificial procesa y genera las respuestas acorde a las necesidades de tu negocio. 🔧 ⚙️ 🤖
¿Qué puedes hacer con estas opciones?
✅ Definir el tipo de búsqueda para encontrar información más relevante para el modelo.
✅ Activar o desactivar los modelos de Procesamiento de Lenguaje Natural (NLP).
✅ Configurar el modelo de lenguaje (LLM) para adaptar las respuestas.
✅ Establecer un mensaje personalizado cuando no haya una respuesta disponible.

Configuraciones disponibles:
🔍
Búsqueda de similitud de caracteres:
Realiza la búsqueda en FAQs mediante coincidencias textuales directas.
🔍
Búsqueda semántica:
Realiza la búsqueda en FAQs mediante coincidencias con el significado del texto en lugar de solo comparar palabras.
🤖
Modelos de Procesamiento de Lenguaje Natural (NLP):
Modelos pequeños pero que mejoran la interpretación y comprensión del lenguaje en las consultas.
⚙️
Configuración del Modelo de Lenguaje (LLM):
Parámetros de personalización para la generación de respuestas, incluyendo temperatura, contexto y filtros de seguridad.
Prompt Personalizado:
Es el prompt principal que utilizará el LLM para generar las respuestas. Se pueden configurar mensajes iniciales que orienten la generación de respuestas para que se alineen con los objetivos del bot.Parámetros de Generación:
- Temperatura:Controla la aleatoriedad de las respuestas y creatividad del modelo. Valores más altos (por ejemplo, 0.8) hacen que las respuestas sean más creativas pero posiblemente menos coherentes. Valores más bajos (por ejemplo, 0.2) tienden a generar respuestas más precisas pero menos creativas. Rango:0.0a1.0
- TopP:Regula la diversidad de las respuestas. Valores más altos (por ejemplo, 0.9) pueden hacer que el texto sea más diverso, mientras que valores más bajos (por ejemplo, 0.3) tienden a generar texto más selectivo. Rango:0.0a1.0
- TopK:Limita la cantidad de palabras candidatas consideradas en cada paso de generación de texto. Un valor más alto (por ejemplo, 0) incluirá más opciones, mientras que un valor más bajo (por ejemplo, 10) limitará las opciones a las más probables. Rango de1 a 40
Uso sin Contexto:
Si está activado, el LLM utiliza el prompt indicado cuando no se ha encontrado información suficiente en el contexto (FAQs, documentos y sitios web) para generar una respuesta apropiada para el usuario.
💬
Mensajes sin respuesta:
Crear y configuración del mensaje que se mostrará cuando el sistema no pueda generar una respuesta adecuada.
✨ ¡Te invitamos a explora estas nuevas opciones! 🚀
Con estas mejoras, tendrás mayor control sobre cómo la IA interactúa con tus usuarios, optimizando la precisión y la calidad del servicio.