Cuando hablamos de datos en tiempo real, muchas veces pensamos en el dato que llega, pero no tanto en todo lo que hay que hacer con él entre que se produce y termina siendo útil.

Porque una cosa es recibir eventos. Otra muy distinta es filtrarlos, transformarlos, decidir a dónde van y conseguir que lleguen al destino correcto sin montar una infraestructura compleja.

Ahí es donde entra Eventstream en Microsoft Fabric. Una pieza pensada para capturar, transformar y enrutar datos en tiempo real de forma visual y sin necesidad de escribir código.


Qué es Eventstream

Eventstream es la capacidad de Real-Time Intelligence que permite construir una canalización de eventos en movimiento.

Su función es bastante clara: tomar eventos desde uno o varios orígenes, aplicar transformaciones si hace falta y enviarlos a uno o varios destinos. Todo ello dentro de un lienzo visual en el que vas conectando piezas en lugar de tener que programar la lógica desde cero.

Dicho de otra manera: Eventstream es el camino que recorre el dato desde que nace hasta que se almacena, se analiza o desencadena una acción.


Cómo se estructura un Eventstream

El funcionamiento de Eventstream se apoya en tres bloques principales.

Por un lado están los orígenes, que son los puntos desde los que llegan los datos. Después están las transformaciones, que permiten limpiar, resumir, enriquecer o reorganizar esos eventos mientras fluyen. Y, por último, están los destinos, que son los lugares donde esos datos terminan aterrizando para ser almacenados, analizados o utilizados en automatizaciones.

Esa estructura es sencilla de entender, pero muy potente en la práctica. Porque te permite construir flujos bastante completos sin salir de una interfaz visual.


Orígenes de Eventstream

Una vez creado un Eventstream, puedes conectarlo a distintos tipos de fuentes de datos.

Fabric permite trabajar con orígenes de Microsoft, como Azure Event Hubs, Azure IoT Hub, Azure Service Bus o fuentes CDC de bases de datos. También admite eventos de Azure, eventos generados dentro de Fabric y orígenes externos como Apache Kafka, Google Cloud Pub/Sub o MQTT.

Esto hace que Eventstream no esté pensado solo para un ecosistema cerrado, sino para integrarse con distintos escenarios de streaming.

Y eso es importante, porque en tiempo real los datos rara vez vienen todos del mismo sitio.


Configuración de orígenes

La conexión de orígenes se hace desde el propio lienzo de Eventstream.

Puedes crear una nueva conexión o reutilizar una ya existente desde el Real-Time hub. Es decir, no solo defines el flujo, también decides desde dónde quieres empezar a capturar lo que ocurre.

Esto ayuda bastante a centralizar el trabajo, porque no estás configurando la ingesta por un lado y el procesamiento por otro. Todo forma parte del mismo recorrido.


Destinos de Eventstream

Si los orígenes son importantes, los destinos no lo son menos. Porque un evento que no termina en un sitio donde pueda aportar valor se queda en poco más que un mensaje que pasó por ahí.

Eventstream permite enviar datos en tiempo real a varios tipos de destinos.

Uno de ellos es Eventhouse, donde los datos pueden almacenarse en bases de datos KQL y consultarse después con KQL. Otro es Lakehouse, donde esos eventos se transforman en formato Delta Lake y pasan a formar parte del entorno analítico.

También están los flujos derivados, que permiten tomar una misma secuencia y sacar versiones filtradas o transformadas hacia distintos destinos. A esto se suma Fabric Activator, pensado para desencadenar acciones automáticas, y el punto de conexión personalizado, útil cuando necesitas sacar eventos fuera de Fabric hacia otro sistema.

Y aquí hay una idea clave: un mismo flujo puede alimentar varios destinos a la vez.


Enrutamiento de datos

Una de las capacidades más interesantes de Eventstream es precisamente esa: no obliga a mandar todo al mismo sitio.

Puedes tomar una secuencia original, aplicar transformaciones, derivar subconjuntos y enviar cada uno al destino que más sentido tenga. Por ejemplo, mandar una versión agregada a Eventhouse para análisis, otra a Activator para alertas y otra a Lakehouse para histórico.

Eso convierte a Eventstream en algo más que un simple capturador de eventos. Lo convierte en una capa de distribución inteligente del dato en movimiento.


Transformaciones en Eventstream

Los datos en streaming rara vez llegan en el formato ideal. A veces traen ruido, a veces campos que no sirven, a veces estructuras distintas entre unas fuentes y otras. Y ahí es donde entran las transformaciones.

Eventstream permite transformar datos en tiempo real directamente en el flujo, antes de enviarlos a destino. Esto ayuda a que cada sistema reciba datos más útiles y mejor adaptados a su propósito.

Es decir, no se trata solo de mover eventos. Se trata de moverlos con sentido.


Tipos de transformaciones disponibles

Dentro del lienzo visual de Eventstream hay varias transformaciones sin código que puedes combinar entre sí.

El filtro permite quedarte solo con los eventos que cumplen ciertas condiciones. Administrar campos sirve para añadir, quitar, renombrar o cambiar tipos de datos. Agregado permite calcular métricas como sumas, máximos, mínimos o promedios a medida que los eventos llegan.

Agrupar por lleva esto un paso más allá y permite resumir por ventanas de tiempo o dimensiones concretas. Unión agrega eventos de distintos nodos cuando comparten campos compatibles. Combinación relaciona datos de dos flujos distintos según una condición. Y Expandir permite descomponer arrays para generar nuevas filas.

La clave aquí no es memorizar la lista, sino entender que puedes construir lógica de procesamiento bastante rica sin necesidad de escribir código.


Construcción de flujos de transformación

Lo potente de Eventstream aparece cuando empiezas a encadenar transformaciones.

Por ejemplo, puedes partir de una secuencia de lecturas de sensores, filtrar valores erróneos, añadir un campo calculado de prioridad, agrupar por ubicación y hora, y a partir de ahí mandar el resultado agregado a un Lakehouse mientras los eventos críticos van a Activator.

Es decir, el flujo no tiene por qué ser lineal ni trivial. Puede adaptarse al tipo de procesamiento que necesites en cada caso.

Y todo eso ocurre mientras los datos siguen llegando.


Eventstream como pieza de Real-Time Intelligence

Dentro del conjunto de capacidades de Real-Time Intelligence, Eventstream ocupa un papel muy concreto: es la puerta de entrada y el canal de transformación y enrutamiento del dato en movimiento.

No sustituye al almacenamiento en Eventhouse, ni a la visualización en paneles, ni a las reglas de Activator. Pero conecta con todos ellos.

Podríamos decir que Eventstream es la tubería principal. La que trae el dato, lo acondiciona y lo deja listo para que otras piezas de Fabric hagan su trabajo.


Conclusión

Eventstream en Microsoft Fabric resuelve una necesidad muy concreta y muy real: no basta con que el dato llegue, también hay que saber qué hacer con él mientras se mueve.

Permite capturar eventos, transformarlos sobre la marcha y enviarlos al destino correcto sin depender de desarrollos complejos ni de código para cada paso. Y eso lo convierte en una pieza muy útil cuando trabajas con datos en tiempo real.

Ahora bien, como siempre, tener una herramienta visual no significa que la lógica se diseñe sola.