¡Jueves de post! Volvemos a la carga con los post, y este será el primero de una serie de ellos en los que podremos ver como la tecnología está cambiando el paradigma en el mundo de los datos. Hoy es un post diferente, introductorio, narrativo y de opinión, nada práctico. ¿De qué vamos hablar?
Hoy toca algo serio… hablar con los datos.
Hay veces que una funcionalidad nueva pasa sin pena ni gloria.
- Un botón más...
- Una opción más en el panel...
- Una mejora interesante, pero incremental...
Y luego están esos momentos en los que uno se detiene, lo prueba… y piensa que algo está cambiando de verdad.
- No es una funcionalidad más...
- No es un botón nuevo en la cinta...
- No es una mejora incremental...
Es un cambio de paradigma.
¿Pero de qué voy hablar? Estaréis pensando...hoy vengo a hablaros del Agente de Datos de Fabric, dentro de Microsoft Fabric. Y sí, está en versión preliminar. Pero os adelanto algo: cuando esto madure, va a dar mucho que hablar (en mi humilde opinión)
Imaginad la escena típica en la oficina. Alguien de negocio se acerca y dice:
"¿Cómo han evolucionado las ventas este trimestre frente al anterior?”
Hasta ahora, eso significaba abrir el informe adecuado. O crear uno nuevo. O pedirle al equipo de datos que construyera la métrica. O revisar si el modelo tiene la tabla de fechas bien marcada. O cruzar los dedos para que no haya una relación bidireccional haciendo de las suyas. ¿Y cuanto se tarda en responder a esa pregunta?
A veces son minutos.
A veces son días.
A veces son semanas.
Y todo eso parte de algo muy simple: una pregunta.
Ahora imaginad que esa misma persona simplemente escribe la pregunta.
Y el sistema entiende la intención, identifica el origen correcto, genera la consulta adecuada (SQL, DAX o KQL, según corresponda, si, si, habéis leído bien "Genera la consulta"), valida permisos, ejecuta… y devuelve una respuesta estructurada. Todo esto sin que nadie haya escrito una sola línea de código.
Eso es lo que propone el Agente de Datos.
No es un chatbot suelto contestando lo primero que se le ocurre. Por debajo utiliza LLMs a través de Azure OpenAI Service, pero lo hace con control, con permisos, con acceso solo lectura, con validación de seguridad y con políticas de IA responsable. No es “pregunta libre y que sea lo que Dios quiera”. Es orquestación.
Y aquí viene lo interesante: no trabaja sobre “todo”. Trabaja sobre lo que tú configuras. Tú decides qué lakehouse entra en juego, qué modelo semántico se puede consultar, qué tablas son relevantes y cuáles no. Puedes incluso darle instrucciones organizativas: “las preguntas financieras van a este modelo”, “los datos crudos están en este lakehouse”, “los análisis de logs están en esta base KQL”. Prácticamente idéntico a la preparación de los datos para Copilot ¿os acordáis?
Es decir, no es solo IA. Es IA con contexto. Y cuando hay contexto… la cosa cambia, y lo sabéis bien porque nos hemos pegado horas y horas con DAX.
Al existir un contexto, deja de ser un asistente genérico (típico ChatGPT) y empieza a parecerse a algo mucho más estratégico.
Aquí es donde inevitablemente alguien me pregunta:
"Javi ¿y esto no es lo mismo que Copilot?”
No exactamente ya que Microsoft Copilot está más orientado a asistirte dentro de experiencias concretas, a ayudarte a crear, resumir o generar contenido dentro del entorno. El Agente de Datos, en cambio, es un artefacto configurable. Vive como pieza independiente. Se puede integrar con otros sistemas. Está pensado para convertirse en una puerta de entrada conversacional a tus datos.
Y ahora viene la parte que más me interesa.
Si cualquier persona puede empezar a preguntar a los datos en lenguaje natural… entonces el modelado deja de ser importante para convertirse en crítico.
Porque la IA como tal, "no" arregla un mal modelo (aunque los MCPs cada vez estan más cerca...). Si las relaciones están mal definidas, si las medidas son ambiguas, si los nombres no tienen sentido, si la tabla de fechas no está correctamente marcada… el agente responderá. Sí. Pero responderá sobre una base defectuosa. Y lo hará con mucha seguridad, que es lo más peligroso.
En cambio, si el modelo está bien diseñado, si las métricas están claras, si el contexto está documentado, si las dimensiones están limpias… entonces el agente se convierte en multiplicador. De repente, ese modelo deja de ser solo el motor de un informe y pasa a ser el cerebro.
Y eso cambia completamente cómo debemos pensar el diseño. Ya no modelamos solo para visuales. Modelamos para que una inteligencia artificial pueda entender el significado del negocio.
Eso, amigos, es otro nivel. Estamos hablando de pasar de construir dashboards… a diseñar
ecosistemas de conocimiento.
Pero aquí, seguro que os surgen muchas preguntas como:
¿Está en versión preliminar? Sí.
¿Puede cambiar? Seguro.
¿Tiene recorrido por delante? Muchísimo (en mi opinión)
Pero lo que ya deja ver es claro: vamos hacia un mundo donde hablar con los datos será tan natural como abrir una conversación por WhatsApp. Y aquí, como en otras ocasiones, no nos han sustituido. Nos han ascendido.
Pasamos de hacedores a arquitectos de contexto. De constructores de informes a diseñadores de sistemas consultables.
El aumento salarial, de momento, sigue sin venir incluido… pero el cambio de rol es evidente.
Y lo que viene… apenas acaba de empezar.
Y hasta aquí el post/reflexión de hoy. La semana que viene, venimos con la primera demo :)
Nos vemos en los datos.