Chatbot con RAG – Reglamento de Admisión
Producto desplegado en la nube que utiliza RAG con LangChain y Ollama para responder consultas sobre admisión. Enfocado en recuperación semántica con interfaz gráfica.
Funcionalidades Clave
- Respuestas rápidas y precisas basadas en documentos oficiales.
- Interfaz gráfica intuitiva para usuarios finales.
- Despliegue en la nube para acceso global.
Stack Tecnológico y Decisiones
LangChain y Ollama
Elegí LangChain para orquestar el flujo RAG por su flexibilidad y sus robustas integraciones. Ollama me permitió ejecutar modelos de lenguaje de gran tamaño (LLMs) de forma local, facilitando la experimentación sin depender de APIs de pago.
Arquitectura RAG (Retrieval-Augmented Generation)
A diferencia de un modelo de fine-tuning tradicional, la arquitectura RAG permite que el chatbot base sus respuestas en un corpus de conocimiento externo y actualizado, lo que reduce las "alucinaciones" y garantiza respuestas basadas en los documentos oficiales.
Diagrama de Arquitectura

Diagrama inicial del flujo de datos y componentes del sistema RAG.
Fragmento de Código Destacado
Este fragmento en Python muestra la inicialización de la cadena de QA (Question-Answering) con LangChain, el núcleo del sistema RAG.
from langchain.chains import RetrievalQA
from langchain.llms import Ollama
from langchain.vectorstores import FAISS
# Cargar el vectorstore previamente creado
vectorstore = FAISS.load_local("faiss_index_admision")
# Inicializar el modelo de lenguaje local con Ollama
llm = Ollama(model="llama2")
# Crear la cadena de Retrieval QA
qa_chain = RetrievalQA.from_chain_type(
llm=llm,
chain_type="stuff",
retriever=vectorstore.as_retriever()
)
Prueba el Chatbot (Simulación)
Asistente de Admisión
¡Hola! Soy tu asistente para el proceso de admisión 2025-1. ¿Qué necesitas saber?