📄 GLOSARIO DEL ECOSISTEMA IA¶
Ecosistema IA BKM¶
Para qué sirve este documento¶
Este glosario recoge los términos y conceptos que aparecen en la documentación del Ecosistema IA de BKM y que pueden generar dudas en su lectura.
No es un manual técnico. Es un diccionario de trabajo: definiciones breves, en lenguaje claro, pensadas para cualquier persona del equipo independientemente de su perfil técnico.
Si al leer cualquier documento del repositorio encuentras un término que no está aquí, comunícalo al Responsable IA para que lo añada.
A¶
ADR (Architecture Decision Record — Registro de Decisión Arquitectónica) Documento que registra una decisión técnica importante del ecosistema: qué se decidió, por qué, qué alternativas se evaluaron y cuándo debería revisarse. Su función es que las decisiones no dependan de la memoria de una persona — cualquiera que llegue al ecosistema puede entender por qué las cosas están como están. Solo se crea cuando la decisión tiene impacto duradero o afecta a varios sistemas.
Agente IA Sistema de inteligencia artificial que no solo responde preguntas sino que puede encadenar varios pasos para completar una tarea: recibir información, procesarla, tomar decisiones intermedias y producir un resultado estructurado. A diferencia de un asistente conversacional simple, un agente puede seguir un proceso con múltiples pasos definidos. El Agente de Alineación de Propuestas de BKM es un ejemplo: recibe un documento, lo analiza siguiendo un marco de criterios, y produce un informe estructurado.
API Forma estandarizada en que dos sistemas informáticos se comunican entre sí. Cuando un sistema llama a un modelo de inteligencia artificial para obtener una respuesta, lo hace a través de una API. Lo relevante para el ecosistema: una API con contrato garantiza que los datos enviados no se usan para entrenar el modelo, a diferencia de herramientas públicas sin contrato.
Asistente LLM gestionado Plataforma que permite crear asistentes conversacionales con inteligencia artificial sin necesidad de desarrollo técnico. El usuario configura el comportamiento del asistente, carga documentos de referencia, y la plataforma gestiona el resto. Ejemplos: ChatGPT Teams, Claude, Gemini Workspace, SuperChat. Para uso en BKM, estas plataformas deben operar bajo modalidad Teams o Enterprise — no cuentas personales públicas — para garantizar que la información interna no se usa para entrenar los modelos.
B¶
Backend La parte de un sistema informático que el usuario no ve pero que hace el trabajo real: procesa las peticiones, consulta bases de datos, aplica la lógica de negocio y devuelve resultados. En el ecosistema IA de BKM, los sistemas del Core IA tienen backend propio — desarrollado específicamente para BKM — lo que permite controlar exactamente cómo funciona cada sistema.
Backlog Lista de iniciativas IA propuestas y aprobadas que esperan su momento de construcción. No es una lista de deseos: cada iniciativa ha pasado por el proceso de la Tarjeta de Valor y tiene una clasificación — construir ahora, preparar para el siguiente ciclo, o registrado sin fecha. El backlog se revisa cada trimestre.
Base documental Conjunto de documentos oficiales de BKM que un sistema IA usa como fuente de conocimiento para responder preguntas. Solo puede incluir documentación validada por el Responsable Funcional correspondiente. Ningún sistema de BKM inventa información — responde basándose en lo que está en su base documental, y si algo no está ahí, lo dice.
BigQuery Base de datos de Google Cloud donde los sistemas del Core IA registran sus interacciones: qué preguntó el usuario, qué respondió el sistema, qué documentos se consultaron. Permite analizar patrones de uso, detectar lagunas en la documentación y medir el rendimiento del sistema. No es donde se guardan los documentos que el sistema consulta — eso es GCS.
C¶
Capa Nivel del ecosistema donde vive un sistema según su criticidad e impacto. Hay tres capas: Core IA (sistemas estratégicos de alto impacto), Operativa Ligera (automatizaciones y asistentes de bajo impacto) y Laboratorio (experimentos y pruebas). La capa determina cuánto control, documentación y supervisión requiere el sistema. Un sistema puede migrar de capa si crece en importancia.
Cloud Run Servicio de Google Cloud donde se despliegan los sistemas del Core IA de BKM. Es el entorno donde "vive" el software una vez construido y listo para ser usado. Su ventaja es que escala automáticamente según el uso sin necesidad de gestionar servidores manualmente.
Core IA Capa del ecosistema para sistemas de alto impacto estratégico: los que afectan decisiones técnicas o comerciales, usan conocimiento oficial de BKM, pueden afectar la reputación de la empresa, o deben escalar con el negocio. Requieren máxima gobernanza: arquitectura documentada, validación por Responsable Funcional y Responsable IA, y control de acceso. Se construyen sobre Google Cloud Platform.
Criterios de migración Condiciones concretas que, si se cumplen, obligan a mover un sistema de su capa actual a una de mayor gobernanza. Por ejemplo: si un proyecto del Laboratorio empieza a ser usado por varios departamentos, o si se necesita conectarlo con el CRM. La migración no es opcional — es la consecuencia directa de que el sistema ha ganado importancia real.
D¶
Drive (Google Drive) Entorno operativo del ecosistema. Aquí viven los registros vivos: fichas de sistema, tarjetas de valor completadas, arquitecturas aprobadas. Es el espacio de trabajo del día a día. Diferente del repositorio, que contiene los estándares y marcos que no cambian con frecuencia, y de GCS, que es la biblioteca estructural donde los sistemas IA buscan información.
F¶
FastAPI Herramienta técnica con la que se construye el backend de los sistemas del Core IA en BKM. Es el "motor" que recibe las preguntas de los usuarios, las procesa y devuelve las respuestas. No necesitas saber cómo funciona internamente — solo que es la pieza que hace que el sistema responda.
Ficha de Sistema Modo A Registro operativo oficial de un sistema en gestión central. Se completa cuando el sistema entra en producción y se mantiene actualizada durante toda su vida. Recoge quién lo gestiona, para qué sirve, quién puede usarlo, cuáles son sus límites y cuándo se revisa. Vive en Drive, no en el repositorio.
Ficha de Sistema Modo B Registro de notificación para proyectos bajo autonomía departamental. Es un documento corto que el Propietario Departamental completa antes de arrancar un proyecto de bajo impacto. Su función es dar visibilidad al Responsable IA sin añadir burocracia. Vive en Drive.
Flujo A (Validación central) Camino de aprobación para proyectos con impacto en el negocio. Requiere completar la Tarjeta de Valor, pasar por la revisión trimestral del backlog, documentar la arquitectura y obtener la validación del Responsable Funcional y el Responsable IA antes de construir nada. Es más lento que el Flujo B, pero garantiza que los sistemas importantes se construyen bien.
Flujo B (Autonomía departamental) Camino de aprobación para proyectos de bajo impacto dentro de un departamento. Solo requiere completar un registro de notificación y esperar confirmación del Responsable IA — normalmente en 1-2 días. Sin comités, sin arquitectura formal. Disponible solo si el proyecto cumple todos los criterios de autonomía.
G¶
GCS (Google Cloud Storage) Biblioteca documental estructurada del Core IA. Aquí se guardan los documentos oficiales de BKM — manuales técnicos, procedimientos, base de conocimiento — que los sistemas de inteligencia artificial consultan para responder preguntas. Es diferente de Drive, que es el espacio operativo donde trabajan las personas, y de BigQuery, que registra las interacciones de los sistemas.
Guía para Recursos Externos Documento del repositorio que todo recurso externo (freelance, agencia o estudio técnico) debe leer y aceptar antes de empezar a construir un sistema en el Ecosistema IA de BKM. Define qué stack debe usar, qué estándares debe respetar, qué documentación debe entregar y qué no puede hacer sin aprobación del Responsable IA. Su función es garantizar que lo que construye un externo es coherente con el ecosistema, independientemente de su experiencia previa con BKM. Ubicación: Sección 2 — Roles y Gobernanza.
GCP (Google Cloud Platform) Infraestructura tecnológica de referencia del Core IA de BKM. Es el conjunto de servicios de Google sobre el que se construyen los sistemas estratégicos: almacenamiento, base de datos, despliegue, seguridad y acceso a modelos de IA. GCP es la referencia, no la única opción posible — herramientas externas pueden incorporarse si aportan valor justificado y superan el proceso de evaluación.
I¶
IAM (Identity and Access Management) Sistema de gestión de identidades y permisos. Define quién puede acceder a qué dentro de la infraestructura de Google Cloud: qué personas pueden ver qué sistemas, qué datos pueden leer o modificar. Es lo que garantiza que solo los usuarios autorizados acceden a los sistemas del Core IA.
Índice Operativo Documento del repositorio que actúa como panel de control del ecosistema: qué sistemas están activos, cuál es su estado, qué hay en el backlog y dónde están los registros operativos en Drive. Se actualiza cada vez que algo cambia en el ecosistema. Es el primer lugar donde mirar para saber qué está pasando.
L¶
Laboratorio Capa del ecosistema para experimentos y pruebas. Un proyecto en Laboratorio puede arrancarse con agilidad para validar si una idea tiene valor real antes de invertir en construcción definitiva. Todo proyecto en Laboratorio tiene un plazo y un criterio de éxito: si demuestra valor, migra; si no, se cierra. Nada permanece en Laboratorio indefinidamente.
LlamaIndex Herramienta técnica que permite a un sistema de IA buscar información dentro de una base documental de forma semántica — es decir, por significado, no solo por palabras exactas. Cuando un asesor pregunta "¿cómo trato una humedad por condensación?", LlamaIndex busca en la documentación de BKM los fragmentos más relevantes para esa pregunta y los entrega al modelo para que construya la respuesta. Esto garantiza que las respuestas tienen trazabilidad hasta el documento origen.
LLM (Large Language Model — Modelo de Lenguaje Grande) El motor de inteligencia artificial que procesa texto y genera respuestas en lenguaje natural. Es lo que hay detrás de herramientas como ChatGPT, Claude o Gemini. En el ecosistema de BKM, el modelo concreto que se usa puede cambiar según el caso de uso — lo importante es la infraestructura que lo rodea, no el modelo en sí. Vertex AI permite usar modelos de distintos proveedores sin cambiar la arquitectura.
Log de Decisiones Sección del repositorio donde se registran las decisiones arquitectónicas importantes del ecosistema. Cada entrada (ADR) documenta qué se decidió, por qué, qué alternativas se evaluaron y cuándo debería revisarse. No es un diario de todo lo que ocurre — solo de decisiones con impacto duradero o transversal.
M¶
Migración Proceso formal de mover un sistema de una capa a otra cuando ha ganado importancia real en el negocio. Por ejemplo, un proyecto que empezó en Laboratorio y demuestra valor migra a Core IA con toda su gobernanza. La migración no es opcional cuando se cumplen los criterios definidos — es la consecuencia directa de que el sistema ha crecido.
Modalidad Teams / Enterprise Versión corporativa de una plataforma de asistente LLM que incluye contrato explícito con el proveedor. La diferencia clave respecto a una cuenta personal: los datos que se introducen no se usan para entrenar el modelo, y hay acuerdo legal sobre privacidad y uso de la información. Para cualquier uso de asistentes LLM con información interna de BKM, es obligatorio operar bajo esta modalidad.
N¶
n8n Herramienta de automatización y orquestación de agentes que vive en el servidor propio de BKM (VPS). Permite conectar sistemas, automatizar flujos de trabajo y construir agentes de IA sin necesidad de programación compleja. Es la herramienta de referencia de la capa Operativa Ligera para este tipo de tareas. El Agente de Alineación de Propuestas, por ejemplo, está construido sobre n8n.
O¶
Operativa Ligera Capa del ecosistema para automatizaciones simples, MVPs no críticos y asistentes departamentales de bajo impacto. Vive fuera de Google Cloud, en el servidor propio de BKM. Permite actuar con agilidad sin tocar la arquitectura estratégica del Core IA. Si un sistema de esta capa crece en importancia, migra al Core IA.
P¶
Plantilla de Arquitectura Documento que describe cómo se va a construir un sistema antes de escribir una sola línea de código. Recoge: propósito, criticidad, capa, sistemas implicados, flujo técnico, gobernanza, métricas y riesgos. Es obligatoria para proyectos del Flujo A y la validan conjuntamente el Responsable Funcional y el Responsable IA. Vive en Drive una vez completada.
Portabilidad mínima Principio que establece que la lógica de negocio de un sistema — sus prompts, flujos, reglas y base de conocimiento — debe poder extraerse y desplegarse en otro entorno si fuera necesario. Esto evita quedar atrapados en una plataforma concreta. Lo que sí puede estar vinculado a la infraestructura es el cómputo, el almacenamiento y el acceso a modelos.
Prompt maestro Instrucciones precisas que definen cómo debe comportarse un sistema de IA: su identidad, su propósito, lo que puede y no puede hacer, cómo debe estructurar sus respuestas y cómo debe gestionar los casos donde no tiene información suficiente. Es el documento que convierte un modelo genérico en un asistente específico para BKM. Cada sistema con IA tiene su prompt maestro, versionado y validado por el Responsable Funcional.
Propietario Departamental Miembro de un departamento funcional que lidera un proyecto de IA de bajo impacto dentro de su área con autonomía. No es un rol técnico: es un rol de responsabilidad. Se encarga de notificar al Responsable IA, mantener el proyecto dentro de sus límites y detectar cuándo ha crecido lo suficiente para necesitar más gobernanza.
R¶
RAG (Retrieval-Augmented Generation) Técnica que combina búsqueda de información con generación de texto. En lugar de que el modelo de IA responda solo con lo que "sabe" por su entrenamiento, el sistema primero busca en la base documental de BKM los fragmentos más relevantes para la pregunta, y luego el modelo construye la respuesta basándose en esa información concreta. El resultado es que las respuestas son más precisas, más actualizadas y tienen trazabilidad hasta el documento origen.
Repositorio Espacio digital donde vive la documentación normativa del ecosistema: estándares, marcos, plantillas en blanco y decisiones arquitectónicas. Es el lugar donde están las reglas, no los registros operativos. Los registros operativos viven en Drive. Accesible en: bkm-ecosistema-ia.pages.dev
Responsable Funcional Persona del área de negocio que define qué debe hacer un sistema de IA. Valida su utilidad, detecta cuando algo no funciona como debería y confirma su impacto en el negocio. No decide cómo se construye — eso es responsabilidad del Responsable IA. La distinción es importante: el negocio define el qué, el equipo técnico define el cómo.
Responsable Técnico Externo Persona o equipo externo a BKM contratado para construir un sistema concreto dentro del Ecosistema IA. Puede ser un freelance, una agencia o un estudio técnico. Opera bajo supervisión directa del Responsable IA durante la construcción y está obligado a seguir el stack de referencia, la Plantilla de Arquitectura aprobada y los estándares definidos en la Guía para Recursos Externos. No forma parte del equipo interno de BKM y no puede tomar decisiones de arquitectura de forma autónoma.
Responsable Técnico de Servicio Rol que asume el mantenimiento técnico de un sistema en producción: verificar que el servicio está activo, revisar logs, gestionar despliegues y coordinar la resolución de incidencias. En la fase actual del ecosistema, esta función recae en el Responsable IA. Si el sistema fue construido por un recurso externo con acuerdo de mantenimiento, puede recaer total o parcialmente en ese externo, siempre que quede documentado en la Ficha de Sistema Modo A.
Responsable IA (IA Lead) Responsable técnico-estratégico del ecosistema. Define cómo se construyen los sistemas, valida herramientas y arquitecturas, garantiza la coherencia del ecosistema y mantiene visibilidad sobre todos los proyectos activos. Es el interlocutor para cualquier duda sobre herramientas, procesos o decisiones arquitectónicas.
Revisión trimestral Reunión periódica entre el Responsable IA y Dirección para revisar el backlog de iniciativas y decidir qué se construye, qué espera y qué se descarta. No debería durar más de 60 minutos. Su propósito es que las decisiones de priorización sean conscientes y no reactivas.
S¶
Sistema conversacional Sistema de IA con el que el usuario interactúa mediante lenguaje natural — escribiendo preguntas o instrucciones como si hablara con una persona. El sistema responde también en lenguaje natural. Diferente de un formulario o una aplicación con menús: el usuario no tiene que aprender comandos, simplemente pregunta.
Stack tecnológico Conjunto de herramientas, plataformas e infraestructura que forman la base del ecosistema IA de BKM. Define qué se usa y para qué. No es cerrado — puede evolucionar cuando hay justificación para incorporar algo nuevo — pero sí es de referencia: cualquier decisión sobre herramientas empieza evaluando si el stack actual ya lo resuelve.
T¶
Tarjeta de Valor IA Documento que formaliza la propuesta de una iniciativa IA antes de que entre en el proceso de aprobación del Flujo A. Responde a cuatro preguntas: qué palanca de negocio mueve la iniciativa, si hay urgencia real, qué complejidad tiene y si depende de otras iniciativas. Su función es hacer visible el valor relativo de cada propuesta para que la priorización sea consciente.
Trazabilidad Capacidad de saber exactamente qué documento originó cada respuesta de un sistema de IA. En los sistemas RAG del Core IA, cada respuesta puede vincularse al fragmento concreto de documentación oficial del que proviene. Esto permite verificar la precisión de las respuestas, detectar errores y mantener la base documental actualizada.
V¶
Vertex AI Plataforma de Google Cloud para acceder a modelos de inteligencia artificial. Su ventaja principal es que es agnóstica de modelo: permite usar modelos de Google, Anthropic (Claude), Meta (Llama), Mistral u otros desde la misma infraestructura, con la misma seguridad y facturación. BKM no está atado a un modelo concreto — puede cambiar o combinar modelos según el caso de uso sin cambiar la arquitectura.
VPS (Virtual Private Server — Servidor Virtual Privado) Servidor propio de BKM donde viven los sistemas de la capa Operativa Ligera. Es la infraestructura que permite correr herramientas como n8n sin depender de Google Cloud. Ofrece menos prestaciones que GCP pero suficiente para proyectos de bajo impacto, y a menor coste operativo.
Estado: Activo
Fecha: Marzo 2026
Responsable: Responsable IA BKM
Ubicación en el ecosistema: Sección 0 — Visión y Estrategia