Automatizamos la Atención de WhatsApp del Mall del Centro Concepción con IA Local

🤖 IngeniaUp
| marzo 31, 2026 | Lectura técnica

 El Mall del Centro Concepción, ubicado en el corazón neurálgico de la región del Biobío en Chile, enfrenta un desafío operativo masivo: recibe miles de consultas diarias a través de WhatsApp y redes sociales. Los clientes no preguntan cosas genéricas; quieren saber si la tienda de tecnología tiene stock de una tarjeta gráfica específica, cuáles son los horarios del patio de comidas en feriados, o dónde estacionar.

Los chatbots tradicionales de opciones ("Presione 1 para horarios") fracasaron rotundamente, generando fricción y abandono. En IngeniaUp, desplegamos nuestro modelo ollama-retail-aqp (adaptado específicamente para el mercado chileno), un Agente de Inteligencia Artificial 100% privado, hiper-localizado y conectado en vivo a los sistemas del mall.

A continuación, desglosamos la arquitectura de esta solución que eliminó los costos de facturación en la nube y automatizó el 85% de las interacciones.


1. Privacidad Total y "Costo Cero" Operativo (Edge AI con Ollama)

El mayor temor de los corporativos de retail al implementar IA (como ChatGPT o Claude) es subir la data de sus clientes a servidores extranjeros y enfrentar facturas impredecibles por consumo de tokens (cobro por palabra generada).

Nuestra solución utiliza Ollama, un motor que permite correr Modelos Fundacionales de Lenguaje (LLMs) como Llama 3 o Mistral de forma completamente local.

La ventaja de hardware: Instalamos el modelo directamente en los servidores físicos del Mall. Al optimizar el modelo mediante cuantización, logramos que la IA corra de forma fluida incluso en servidores equipados con tarjetas gráficas de entrada (como las líneas AMD Radeon RX 6600 o NVIDIA RTX de gamas accesibles).

El resultado: El Mall del Centro Concepción procesa más de 15,000 mensajes mensuales con un costo de API de $0.00. Los datos de los clientes jamás salen del edificio.


2. Retrieval-Augmented Generation (RAG) en Vivo

Un modelo de IA por sí solo no sabe qué tiendas hay en el mall hoy. Para solucionar esto, construimos un pipeline RAG que conecta el cerebro de la IA con la base de datos SQL del centro comercial en tiempo real.

Cuando un cliente escribe, el sistema no adivina. Primero, busca en la base de datos (inventario, promociones, horarios) y luego le entrega esa información exacta al modelo para que redacte una respuesta humana.

Fragmento de Arquitectura (Integración Python + Ollama API)

Python
import requests
import json
import sqlite3

def obtener_contexto_mall(intencion_usuario):
    # Simulación de consulta a la base de datos del Mall del Centro
    conn = sqlite3.connect('mall_database.db')
    cursor = conn.cursor()
    cursor.execute("SELECT tienda, ubicacion, promocion FROM directorio WHERE categoria LIKE ?", ('%tecnologia%',))
    resultados = cursor.fetchall()
    return f"Contexto en vivo del Mall: {resultados}"

def generar_respuesta_agente(mensaje_cliente):
    # 1. Recuperar datos reales (RAG)
    contexto_fresco = obtener_contexto_mall(mensaje_cliente)
    
    # 2. Armar el Prompt estructurado
    prompt = f"""Eres el asistente virtual oficial del Mall del Centro Concepción (Chile).
    Usa el siguiente contexto real para responder al cliente. Sé amable y persuasivo.
    Contexto: {contexto_fresco}
    Cliente: {mensaje_cliente}
    Respuesta:"""

    # 3. Consultar a nuestro modelo Ollama Local (Costo $0)
    url_ollama = "http://localhost:11434/api/generate"
    payload = {
        "model": "ingeniaup/ollama-retail-aqp", # Nuestro modelo fine-tuneado
        "prompt": prompt,
        "stream": False
    }
    
    respuesta = requests.post(url_ollama, json=payload)
    return respuesta.json()['response']

# Ejemplo de uso:
# Cliente: "Oye, ¿dónde pillo una tienda que venda audífonos bluetooth y hasta qué hora abren?"
# El script inyecta los datos de la BD local y el LLM redacta la respuesta en jerga local.

3. NLP Hiper-Localizado: Entendiendo al Cliente Real

Un modelo entrenado en inglés o en español neutro falla al enfrentarse al lenguaje coloquial del día a día. El núcleo de nuestro modelo ollama-retail-aqp fue sometido a un proceso de Fine-Tuning ligero para adaptarse a las expresiones de los consumidores.

Si un cliente en Concepción escribe: "Hola, ando buscando unas zapatillas y una polera, ¿qué tiendas me recomiendas en el segundo piso? Voy en auto, ¿a luca la hora de estacionamiento?"

Un bot tradicional colapsaría. Nuestro Agente IA local entiende el modismo chileno ("polera" por camiseta, "a luca" por mil pesos) y la intención espacial ("segundo piso"). El modelo procesa la intención, consulta la base de datos de tiendas de ropa deportiva del nivel 2, revisa la tarifa actual del parking operado por el mall, y responde en segundos con un tono conversacional y de servicio al cliente impecable.


El Futuro del Retail es Inteligente y Soberano

La automatización de canales digitales ya no se trata de crear flujos de botones interminables que frustran al usuario. Se trata de implementar Inteligencia Artificial real, que lea el inventario, comprenda la cultura local y, sobre todo, que mantenga los costos operativos controlados.

La exitosa implementación en el Mall del Centro Concepción demuestra que la arquitectura híbrida (LLMs Locales + RAG) desarrollada por IngeniaUp es escalable a nivel internacional y capaz de manejar flujos de nivel enterprise.