Evaluación de GitHub Copilot SDK dentro del Sistema de Decisión Asistida (SDA)¶
1. Propósito de este documento¶
Este documento evalúa GitHub Copilot SDK como posible tecnología de implementación dentro del Sistema de Decisión Asistida (SDA) de BKM, específicamente a partir de la Fase 7 (Implementación concreta por decisión).
El objetivo no es definir el sistema SDA, ni proponer automatización de decisiones, sino analizar si Copilot SDK puede:
- facilitar la construcción de agentes técnicos,
- servir como motor para interfaces conversacionales,
- y apoyar tareas de preparación, monitorización y reporting, todo ello bajo el gobierno, principios y límites del sistema SDA.
2. Encaje conceptual en SDA¶
Copilot SDK no es el sistema de IA de BKM.
En el marco SDA: - el sistema define decisiones, reglas y validaciones, - el ecosistema habilita capacidades, - las herramientas implementan partes concretas.
Copilot SDK encaja como:
motor técnico opcional para implementar agentes e interfaces humanas en Fase 7,
siempre subordinado a: - una decisión definida, - un contrato de agente, - validación humana, - y reglas de gobierno explícitas.
3. Qué aporta Copilot SDK (visto desde SDA)¶
3.1 Reducción de complejidad técnica¶
Copilot SDK permite: - construir agentes sin gestionar infraestructura LLM, - reducir esfuerzo de ingeniería, - acelerar prototipos de implementación por decisión.
Esto no cambia el modelo de decisión, solo cómo se implementa.
3.2 Seguridad y entorno enterprise¶
Al apoyarse en GitHub Copilot: - se integra en entornos corporativos ya aprobados, - reduce fricción de compliance, - evita proliferación de proveedores de IA no controlados.
Esto es coherente con el Gobierno del Sistema SDA.
3.3 Skills como integración controlada¶
En SDA, una skill se interpreta como:
una función técnica que ejecuta una acción permitida por el sistema.
Ejemplos de skills aceptables: - consultas a BigQuery, - lectura de documentos desde Storage, - generación de borradores, - envío de alertas internas.
Las skills no deciden, no ejecutan acciones económicas,
y no operan sistemas críticos sin validación humana.
4. Qué problemas puede resolver (sin romper SDA)¶
Copilot SDK puede ayudar a:
- construir agentes de análisis y síntesis,
- agentes de preparación de materiales (estrategias, anuncios, informes),
- agentes de monitorización y alerta,
- interfaces conversacionales para usuarios no técnicos.
No se utiliza para: - automatizar decisiones, - ejecutar cambios en Ads / CRM / ERP, - actuar sin supervisión.
5. Arquitectura coherente con SDA¶
Dentro de una implementación (Fase 7), la arquitectura correcta es:
- Decisión definida y validada (Ficha de Decisión)
- Arquitectura de implementación específica
- Agentes con roles claros
- Motor técnico del agente (Copilot SDK, Flowise, CrewAI, etc.)
- Validación humana explícita
- Almacenamiento de outputs en Storage
Copilot SDK es intercambiable en este nivel.
6. Casos de uso compatibles con SDA¶
6.1 Preparación y asistencia¶
- Propuestas de campañas
- Alternativas de anuncios
- Síntesis de aprendizajes históricos
- Preparación de documentos ejecutivos
6.2 Monitorización y reporting¶
- Detección de desviaciones
- Alertas internas
- Informes automáticos
- Resúmenes periódicos
6.3 Interfaz humana¶
- Chat interno para Dirección
- Consulta de decisiones pasadas
- Exploración de conocimiento acumulado (RAG)
7. Límites explícitos¶
Incluso en Fase 7, Copilot SDK no debe: - automatizar decisiones, - ejecutar acciones económicas, - escribir directamente en sistemas críticos, - operar sin trazabilidad y kill switch.
Estos límites son estructurales del sistema SDA, no técnicos.
8. Conclusión¶
GitHub Copilot SDK puede ser una herramienta válida dentro del SDA:
- como motor técnico,
- en fases avanzadas,
- para agentes e interfaces humanas,
- siempre bajo gobierno y validación humana.
En SDA no elegimos herramientas para “meter IA”,
sino para implementar mejor decisiones ya definidas**.