07 de Abril, 2026
Glosario de IA para empresas: los términos que necesitás entender
Qué son LLM, RAG, agente de IA, prompt engineering y más. Definiciones simples orientadas a empresas, sin tecnicismos innecesarios.
Cuando alguien te ofrece implementar un "agente de IA con arquitectura RAG sobre un LLM con fine-tuning", hay dos formas de reaccionar: asentir y esperar que todo salga bien, o entender exactamente qué te están proponiendo y evaluar si tiene sentido para tu negocio.
Este glosario existe para la segunda opción.
No está pensado para desarrolladores ni para técnicos. Está pensado para el gerente, el CTO o el dueño de empresa que necesita tomar decisiones sobre tecnología sin necesidad de haberse graduado en ciencias de la computación. Cada definición incluye una explicación en lenguaje claro y un ejemplo concreto de cómo ese concepto aparece en la práctica empresarial.
Agente de IA
En una línea: un sistema de software que percibe su entorno, razona qué hacer y ejecuta acciones de forma autónoma para alcanzar un objetivo.
Un agente de IA no es un programa que sigue instrucciones paso a paso. Es un sistema que recibe un objetivo —"procesá todas las órdenes de compra que lleguen hoy"— y se encarga de planificar y ejecutar las acciones necesarias para lograrlo, tomando decisiones en el camino sin que alguien tenga que decirle qué hacer en cada momento.
Lo que distingue a un agente de otros sistemas de IA es la combinación de tres capacidades: puede razonar sobre situaciones nuevas que no fueron programadas explícitamente, puede actuar sobre sistemas externos (consultar una base de datos, enviar un email, actualizar un registro), y puede aprender del resultado de sus acciones para mejorar en las próximas interacciones.
Ejemplo empresarial: una empresa de logística implementa un agente de IA conectado a su sistema de proveedores. Cuando un proveedor escribe por WhatsApp preguntando el estado de su orden de pago, el agente consulta el sistema en tiempo real, verifica el estado, y responde con la información exacta. Sin que nadie del equipo interno tenga que interrumpir lo que está haciendo.
→ Leé la guía completa: ¿Qué son los agentes de IA? Definición, tipos y casos de uso reales
LLM (Modelo de Lenguaje Grande)
En una línea: el motor de razonamiento que le permite a la IA entender y generar lenguaje natural.
LLM son las siglas de Large Language Model, en español Modelo de Lenguaje Grande. Es el tipo de sistema de inteligencia artificial que está detrás de ChatGPT, Claude, Gemini y Llama. Se llaman "grandes" porque fueron entrenados con cantidades enormes de texto — miles de millones de páginas web, libros, artículos, código— y tienen cientos de miles de millones de parámetros internos que les permiten procesar y generar lenguaje con un nivel de comprensión contextual muy alto.
La analogía más útil: si un agente de IA fuera una persona, el LLM sería su cerebro. Es lo que le permite entender instrucciones complejas, razonar sobre situaciones ambiguas y generar respuestas coherentes. El resto del agente (las integraciones, la memoria, las herramientas) son los brazos y los ojos.
Hay distintos LLMs en el mercado con distintas fortalezas: GPT-4o de OpenAI es muy sólido en razonamiento general; Claude de Anthropic destaca en seguimiento de instrucciones largas y precisión; Llama de Meta es open source y puede ejecutarse en servidores privados. La elección del modelo afecta el costo, la privacidad y la capacidad del agente.
Ejemplo empresarial: cuando un agente de atención al cliente en WhatsApp recibe el mensaje "necesito cambiar la fecha de entrega de mi pedido del viernes al lunes que viene porque me viajo", el LLM es el componente que entiende la intención detrás de ese mensaje —incluyendo la informalidad, la abreviatura y el contexto implícito— y decide qué acción ejecutar.
RAG (Retrieval-Augmented Generation)
En una línea: la técnica que permite al agente de IA responder basándose en los datos de tu empresa, sin exponer esa información al modelo.
RAG son las siglas de Retrieval-Augmented Generation, que en español significa Generación Aumentada por Recuperación. Es la solución a uno de los problemas más frecuentes cuando una empresa quiere implementar IA: los modelos de lenguaje saben mucho sobre el mundo en general, pero no saben nada sobre tu empresa, tus productos, tus políticas internas ni tus datos actualizados.
La arquitectura RAG resuelve eso de forma elegante: en lugar de "entrenar" el modelo con los datos de tu empresa (lo que sería costoso y lento), el sistema busca en tiempo real la información relevante en tus bases de datos internas y se la provee al modelo como contexto justo antes de que genere la respuesta. El modelo razona con esa información pero no la almacena ni la incorpora a su entrenamiento.
Por qué importa para la privacidad: con RAG, tus datos nunca salen de tu infraestructura hacia los servidores del proveedor del modelo. El modelo solo ve el fragmento de información relevante para la consulta específica, no toda tu base de conocimiento.
Ejemplo empresarial: una farmacia implementa un agente de IA en WhatsApp. Cuando un cliente pregunta si tienen disponible un medicamento específico, el agente no responde desde el "conocimiento general" del modelo: hace una búsqueda en tiempo real en el sistema de inventario de la farmacia y responde con el stock actual de esa sucursal específica.
→ Leé más sobre privacidad y datos: Privacidad y seguridad en la era de los agentes de IA
Prompt / Prompt engineering
En una línea: la instrucción que le das a la IA, y la disciplina de escribirla bien para obtener el resultado que necesitás.
Un prompt es, en su forma más simple, el texto que le enviás a un modelo de IA para obtener una respuesta. "Resumí este contrato en tres puntos" es un prompt. "Respondé como si fueras el soporte técnico de una empresa de software, con un tono profesional pero cercano, y cuando no sepas algo, decile al cliente que vas a derivarlo a un especialista" también es un prompt, mucho más elaborado.
La prompt engineering es la disciplina de diseñar esas instrucciones de forma sistemática para obtener resultados consistentes y de alta calidad. En el contexto de los agentes de IA empresariales, el prompt del sistema (el que define cómo se comporta el agente) es crítico: determina el tono, los límites de lo que puede hacer, cómo escala situaciones al equipo humano y cómo maneja excepciones.
Una buena prompt engineering puede marcar la diferencia entre un agente que resuelve el 70% de las consultas correctamente y uno que resuelve el 95%. No es un problema técnico de programación: es un problema de comunicación y diseño de procesos.
Ejemplo empresarial: una empresa de alquiler de vehículos quiere un agente que responda consultas de clientes. La prompt del sistema define que el agente debe responder siempre en español rioplatense, que puede informar precios pero no puede hacer reservas directamente (eso lo deriva a un formulario), y que si el cliente menciona un accidente o una emergencia, debe dar el número de asistencia en ruta antes que cualquier otra cosa.
→ Leé más: Ingeniería de Prompts 2026: ¿por qué tu equipo pierde semanas ajustando IA?
Fine-tuning
En una línea: el proceso de ajustar un modelo de IA con datos propios para especializarlo en el dominio de tu empresa.
Los modelos de lenguaje grandes son generalistas: saben de todo un poco. El fine-tuning es el proceso de tomar ese modelo general y entrenarlo adicionalmente con un conjunto de datos más específico — los tickets de soporte de tu empresa, tus contratos, tus descripciones de productos — para que se especialice en ese dominio concreto.
El resultado es un modelo que entiende mejor el vocabulario, el tono y los casos particulares de tu negocio. La desventaja es el costo: el fine-tuning requiere preparar datasets de entrenamiento de buena calidad, procesarlos y mantener una versión del modelo que sea tuya. Para la mayoría de las pymes, RAG es una alternativa más práctica y económica que logra resultados similares sin la complejidad del fine-tuning.
Cuándo tiene sentido: cuando tu empresa maneja una terminología muy específica que los modelos generales no conocen bien (jerga legal muy particular, nomenclaturas técnicas propietarias, procesos internos muy específicos), o cuando el volumen de consultas es tan alto que optimizar el modelo para ese dominio genera un retorno claro.
Ejemplo empresarial: un banco especializado en créditos para el agro implementa fine-tuning en su agente de IA usando años de contratos y resoluciones propias. El modelo aprende a interpretar cláusulas específicas de los contratos agroindustriales argentinos que un modelo genérico no manejaría bien.
Alucinación
En una línea: cuando la IA genera información falsa con total confianza, como si fuera verdad.
Es el riesgo más citado por quienes evalúan adoptar IA en sus empresas, y con razón. Los modelos de lenguaje no "saben" si algo es verdad o no: predicen cuál es la continuación más probable de un texto dado su entrenamiento. En la mayoría de los casos eso genera respuestas correctas, pero en algunos casos genera respuestas que suenan convincentes y son completamente falsas.
El problema no es que la IA "mienta". Es que no tiene consciencia de cuándo no sabe algo y en lugar de decir "no sé", inventa una respuesta plausible. Un modelo puede citar una ley que no existe, inventar el precio de un producto o atribuirle características a algo que nunca las tuvo.
Las alucinaciones se mitigan de varias formas. La más efectiva para aplicaciones empresariales es RAG: si el agente solo puede responder basándose en información verificada de tus sistemas, las posibilidades de alucinación se reducen drásticamente. También ayuda la supervisión humana en las primeras semanas de implementación y el monitoreo continuo de las respuestas del agente.
Ejemplo empresarial: un agente de soporte sin arquitectura RAG puede inventar que un producto tiene una garantía de 24 meses cuando en realidad es de 12. Con RAG conectado al catálogo de productos actualizado, el agente solo puede responder con lo que dice ese catálogo.
MCP (Model Context Protocol)
En una línea: el protocolo estándar que define cómo los agentes de IA se conectan con herramientas, APIs y sistemas externos.
MCP son las siglas de Model Context Protocol, un estándar abierto impulsado por Anthropic que está convirtiéndose en la forma común de conectar agentes de IA con el mundo exterior. Antes de MCP, cada integración era ad hoc: si querías que tu agente pudiera consultar tu ERP, leer emails y actualizar tu CRM, cada conexión requería desarrollo personalizado.
MCP estandariza esas conexiones. Es el equivalente de USB para los agentes de IA: en lugar de que cada dispositivo necesite su propio cable propietario, hay un estándar común que todos pueden implementar. Un agente que habla MCP puede conectarse a cualquier herramienta que también hable MCP, sin desarrollo adicional.
Para una empresa, esto significa menor costo de integración, mayor flexibilidad para cambiar de herramientas en el futuro y menos dependencia de un proveedor específico.
Ejemplo empresarial: un agente de IA conectado vía MCP puede en una sola conversación consultar el stock en el ERP, verificar el historial del cliente en el CRM, crear una orden en el sistema de logística y enviar la confirmación por email — todo sin que cada una de esas integraciones haya requerido desarrollo a medida.
→ Leé más: ¿Qué son los Servidores MCP? La guía definitiva
Token / Ventana de contexto
En una línea: la unidad mínima de texto que procesa un modelo de IA, y el límite de cuánta información puede considerar en una sola interacción.
Los modelos de lenguaje no leen palabras ni letras: leen tokens. Un token puede ser una palabra completa, una sílaba, un signo de puntuación o un fragmento de palabra, dependiendo del modelo. Como referencia aproximada: 100 palabras en español equivalen a entre 120 y 150 tokens.
Por qué importa: los modelos tienen un límite de cuántos tokens pueden procesar en una sola interacción. Ese límite se llama ventana de contexto. Todo lo que esté fuera de esa ventana es invisible para el modelo. Los modelos más recientes tienen ventanas de contexto de varios cientos de miles de tokens (lo que equivale a cientos de páginas de texto), pero el costo de procesamiento escala con la cantidad de tokens usados.
Para las empresas, los tokens son la unidad de costo de la IA: la mayoría de los proveedores cobra por tokens de entrada (lo que le mandás al modelo) y por tokens de salida (lo que el modelo responde). Optimizar los prompts y el contexto que se le pasa al agente reduce el costo operativo.
Ejemplo empresarial: si tu agente de IA en WhatsApp necesita "recordar" toda la conversación del cliente de los últimos 6 meses para dar contexto relevante, eso puede ser demasiado para la ventana de contexto o demasiado costoso en tokens. La solución es usar RAG para recuperar solo los fragmentos más relevantes del historial, no el historial completo.
Automatización inteligente
En una línea: la diferencia entre ejecutar tareas siguiendo reglas fijas (RPA) y ejecutarlas con razonamiento adaptativo (IA).
La automatización existe desde hace décadas. Lo que cambió con la IA es el tipo de tareas que se pueden automatizar. La automatización tradicional, también llamada RPA (Robotic Process Automation), funciona con reglas fijas: si pasa X, ejecutar Y. Es eficiente para tareas perfectamente predecibles, pero falla ante cualquier variación.
La automatización inteligente con IA puede manejar variabilidad. Un agente de IA no necesita que cada situación esté programada de antemano: puede interpretar documentos con formatos distintos, entender mensajes ambiguos, adaptarse a excepciones y decidir cuándo escalar al equipo humano.
En la práctica, la diferencia más importante para una pyme es esta: con RPA, si el formato de una factura de proveedor cambia, el robot falla y alguien tiene que actualizar el código. Con un agente de IA, el sistema interpreta el nuevo formato de la misma manera que lo haría una persona.
Ejemplo empresarial: una empresa que recibe facturas de decenas de proveedores distintos, cada uno con su propio formato de PDF. Un sistema RPA requiere configurar una regla por cada formato. Un agente de IA con visión artificial lee cualquier factura como lo haría una persona, extrae los datos relevantes y los carga en el sistema contable.
→ Leé más: Agentes de IA para pymes argentinas: guía práctica 2026
Multiagente
En una línea: un sistema donde varios agentes especializados colaboran para resolver tareas complejas que un solo agente no podría manejar solo.
Un agente de IA individual tiene capacidades amplias pero no ilimitadas. Cuando la tarea es suficientemente compleja — implica múltiples sistemas, requiere razonamiento especializado en distintos dominios, o necesita ejecutarse en paralelo — tiene sentido dividirla entre varios agentes especializados que trabajan coordinados.
En una arquitectura multiagente hay típicamente un agente orquestador que recibe el objetivo y lo divide en subtareas, y agentes especializados que ejecutan cada una. El orquestador integra los resultados y entrega la respuesta final. Es el equivalente de un equipo humano donde cada persona tiene su especialidad.
Para las empresas, los sistemas multiagente permiten automatizar flujos de trabajo completos de punta a punta, incluyendo las partes que requieren distintos tipos de conocimiento o acceso a distintos sistemas.
Ejemplo empresarial: cuando llega una orden de compra, el agente orquestador la recibe y la distribuye: un agente valida los datos del cliente, otro verifica el stock, otro genera la factura en ARCA, otro programa el envío en el sistema de logística y otro envía la confirmación al cliente por WhatsApp. Todo en paralelo, en segundos.
Embedding
En una línea: la representación numérica de un texto que permite a la IA entender su significado y encontrar información relacionada.
Los modelos de IA no procesan texto como lo hacemos los humanos: procesan números. Un embedding es la conversión de un fragmento de texto en un vector numérico que captura su significado semántico. Lo notable es que textos con significados similares terminan con vectores similares, aunque las palabras sean distintas.
Esto es lo que hace posible la búsqueda semántica: si le preguntás al sistema "¿cuándo vence mi garantía?", puede encontrar la cláusula relevante en el contrato aunque esa cláusula diga "período de cobertura post-venta" y no mencione la palabra "garantía" ni "vence". El embedding captura el significado, no las palabras exactas.
Para las empresas, los embeddings son la infraestructura invisible que hace funcionar RAG: convierten los documentos internos en una base de datos que el agente puede consultar por significado, no por palabras clave.
Ejemplo empresarial: una empresa carga sus 500 páginas de manuales técnicos en el sistema. Cuando un técnico de campo le pregunta al agente "¿qué hago si el equipo vibra y hace ruido al arrancar?", el sistema encuentra el párrafo relevante del manual aunque ese párrafo diga "anomalía en el arranque por desequilibrio de componentes rotativos".
IA generativa
En una línea: la rama de la inteligencia artificial que crea contenido nuevo — texto, código, imágenes, decisiones — en lugar de solo clasificar o predecir.
Durante décadas, la inteligencia artificial se especializó en clasificar y predecir: detectar fraudes, recomendar productos, predecir demanda. Esos sistemas toman datos de entrada y producen una categoría o un número como salida.
La IA generativa es cualitativamente distinta: genera contenido nuevo. Un modelo de lenguaje no clasifica tu pregunta en una categoría predefinida: genera una respuesta original que nunca existió antes, adaptada específicamente a tu contexto. Un modelo de imágenes no selecciona una foto de una base de datos: genera una imagen nueva pixel por pixel.
Para las empresas, la IA generativa abre aplicaciones que antes requerían trabajo humano intensivo: redacción de documentos, generación de código, síntesis de información, creación de respuestas personalizadas a escala.
Ejemplo empresarial: un agente de ventas generativo no selecciona una propuesta de una biblioteca de templates: genera una propuesta personalizada para ese cliente específico, usando la información del CRM sobre su industria, sus compras anteriores y las conversaciones previas.
API
En una línea: el mecanismo que permite que dos sistemas se comuniquen entre sí e intercambien datos de forma automática.
API son las siglas de Application Programming Interface. Es la forma en que los sistemas de software se hablan entre sí sin intervención humana. Cuando el agente de IA "consulta el stock en tiempo real", lo que está haciendo es llamar a la API de tu sistema de inventario, que le devuelve los datos actualizados en ese momento.
Para una empresa que evalúa implementar agentes de IA, la pregunta sobre APIs es práctica: ¿tus sistemas actuales tienen API? Un ERP moderno como SAP, Oracle o incluso muchos sistemas más pequeños tienen API que permiten conectar agentes de IA. Un sistema muy antiguo o desarrollado a medida puede no tenerla, lo que agrega complejidad a la integración.
No tener API no es un bloqueante definitivo, pero sí un factor que afecta el costo y el tiempo de implementación. Parte del trabajo de Neuro AI en integraciones complejas es construir los conectores necesarios cuando el sistema no expone una API estándar.
Ejemplo empresarial: cuando un agente de IA responde "tu pedido #4521 está en camino y llega mañana antes de las 14hs", obtuvo esa información llamando a la API del sistema de logística, que a su vez consultó al transportista. Todo en menos de un segundo, sin que nadie haya buscado manualmente esa información.
→ Leé más: Cómo integrar agentes de IA con ERP, CRM y sistemas legacy
Chatbot vs. agente de IA
En una línea: un chatbot responde; un agente de IA actúa.
Es la confusión más frecuente en el mercado, y vale la pena resolverla de una vez. Chatbot y agente de IA no son sinónimos, aunque en el lenguaje cotidiano se usan de forma intercambiable.
Un chatbot tradicional sigue un árbol de decisiones predefinido: si el usuario escribe A, responder X; si escribe B, responder Y. Es eficiente para preguntas frecuentes con respuestas estándar, pero falla ante cualquier variación del guión. Requiere actualización manual constante cuando cambian los productos, precios o políticas. Y no puede ejecutar acciones: solo puede dar información.
Un agente de IA razona sobre cada situación en tiempo real. No necesita que la pregunta esté en el guión para responder bien. Puede acceder a sistemas externos y ejecutar acciones concretas. Puede aprender del historial de la conversación y del contexto del cliente. Y puede decidir cuándo escalar al equipo humano de forma inteligente, no solo cuando la pregunta no está en el árbol de decisiones.
La distinción práctica para una empresa: si lo que necesitás es responder siempre las mismas diez preguntas, un chatbot puede ser suficiente. Si necesitás manejar variabilidad, ejecutar acciones en tus sistemas o escalar con criterio, necesitás un agente de IA.
| Chatbot | Agente de IA | |
|---|---|---|
| Qué hace | Responde preguntas | Ejecuta tareas y toma decisiones |
| Ante algo nuevo | Falla o respuesta genérica | Razona y resuelve |
| Acceso a sistemas | Limitado o ninguno | ERP, CRM, APIs, bases de datos |
| Mantenimiento | Alto — actualización manual del guión | Bajo — ajuste por calibración |
→ Leé la guía completa: ¿Qué son los agentes de IA? Definición, tipos y casos de uso reales
No-code / Low-code IA
En una línea: implementar agentes de IA sin necesidad de programación, usando interfaces visuales y configuración en lenguaje natural.
Hace tres años, implementar un agente de IA en una empresa requería un equipo de desarrolladores, meses de trabajo y un presupuesto de desarrollo a medida. El ecosistema no-code y low-code cambió eso radicalmente.
Las plataformas no-code permiten configurar agentes a través de interfaces visuales, sin escribir una línea de código. Las plataformas low-code requieren algo de programación para las personalizaciones más complejas, pero la mayor parte de la configuración es visual o en lenguaje natural. Ambas democratizaron el acceso a los agentes de IA para empresas sin equipos técnicos propios.
La distinción importante: no-code no significa sin supervisión técnica. Aunque la configuración básica no requiera programación, integraciones con sistemas legacy, requerimientos de seguridad avanzados o personalizaciones complejas suelen necesitar soporte técnico especializado. La diferencia es que ese soporte lo provee el partner de implementación (como Neuro AI), no el equipo interno de la empresa.
Ejemplo empresarial: el gerente de operaciones de una distribuidora configura en Neuro AI un agente de WhatsApp para atención al cliente. Define en lenguaje natural cómo debe comportarse el agente, qué puede y qué no puede hacer, y cuándo escalar al equipo humano. El equipo técnico de Neuro AI se encarga de la integración con el sistema de stock. El gerente no escribe una línea de código.
→ Leé más: Agentes de IA para pymes argentinas: guía práctica 2026
¿Falta algún término?
Este glosario se actualiza cada vez que aparece un concepto nuevo que vale la pena explicar con claridad. Si hay un término de IA que escuchaste y no entendés, escribinos y lo agregamos.
Si estás evaluando implementar agentes de IA en tu empresa y querés entender cómo estas tecnologías se aplicarían a tu operación específica, el equipo de Neuro AI hace demostraciones personalizadas sin costo.