Inicio Topics ¿Qué es una línea de trabajo de datos? ¿Qué es una canalización de datos?
Descubra IBM DataStage Suscríbase al boletín de IBM
Ilustración con collage de pictogramas de nubes, gráfico circular y pictogramas gráficos sobre lo siguiente

Actualizado: 14 de junio de 2024
Colaborador: Cole Stryker

¿Qué es una canalización de datos?

Una canalización de datos es un método en el que los datos sin procesar se ingieren de varias fuentes de datos, se transforman y luego se transportan para analizarse a un almacén de datos, como un data lake o un almacén de datos

Antes de que los datos lleguen a un repositorio, suelen someterse a algún tipo de tratamiento. Esto incluye las transformaciones de datos, como el filtrado, el enmascaramiento y las agregaciones, que garantizan una integración y estandarización de datos adecuadas. Esto es especialmente importante cuando el destino del conjunto de datos es una base de datos relacional. Este tipo de repositorio de datos tiene un esquema definido que requiere alineación, es decir, hacer coincidir columnas y tipos de datos, para actualizar los datos existentes con los nuevos. 

Como su nombre sugiere, las canalizaciones de datos actúan como la "canalización" para proyectos de ciencia de datos o paneles de control de inteligencia empresarial. Los datos se pueden obtener a través de una amplia variedad de lugares (API, bases de datos SQL y NoSQL, archivos, etc.), pero desafortunadamente, esos datos generalmente no están listos para su uso inmediato. Durante el abastecimiento, se realiza un seguimiento del linaje de datos para documentar la relación entre los datos empresariales en diversas aplicaciones empresariales y de TI, por ejemplo, dónde se encuentran actualmente los datos y cómo se almacenan en un entorno, como en las instalaciones, en un data lake o en un almacén de datos.

Las tareas de preparación de datos suelen recaer en los científicos de datos o ingenieros de datos, que estructuran los datos para satisfacer las necesidades de los casos de uso empresarial y manejar enormes cantidades de datos. El tipo de procesamiento de datos que requiere una canalización de datos suele determinarse a través de una combinación de análisis de datos exploratorios y requisitos empresariales definidos. Una vez que los datos se han filtrado, combinado y resumido adecuadamente, se pueden almacenar y exponer para su uso. Las canalizaciones de datos bien organizadas proporcionan la base para una serie de proyectos de datos; esto puede incluir análisis exploratorios de datos, visualizaciones de datos y tareas de machine learning. 

Ya disponible: watsonx.data

Escala cargas de trabajo de IA, para todos tus datos, en cualquier lugar.

Tipos de canalizaciones de datos

Hay varios tipos principales de canalizaciones de datos, cada una apropiada para tareas específicas en plataformas específicas.

Procesamiento por lotes

El desarrollo del procesamiento por lotes fue un paso crucial en la creación de infraestructuras de datos fiables y escalables. En 2004, MapReduce, un algoritmo de procesamiento por lotes, fue patentado y luego integrado posteriormente en sistemas de código abierto, como Hadoop, CouchDB y MongoDB.

Como su nombre indica, el procesamiento por lotes carga "lotes" de datos en un repositorio durante intervalos de tiempo establecidos, que generalmente se programan durante las horas hábiles de menor actividad. De esta manera, otras cargas de trabajo no se ven afectadas, ya que los trabajos de procesamiento por lotes tienden a funcionar con grandes volúmenes de datos, lo que puede sobrecargar el sistema en general. El procesamiento por lotes suele ser la canalización de datos óptima cuando no hay una necesidad inmediata de analizar un conjunto de datos específico (por ejemplo, la contabilidad mensual), y se asocia más con el proceso de integración de datos ETL, que significa "extraer, transformar y cargar".

Los trabajos de procesamiento por lotes forman un flujo de trabajo de comandos secuenciados, donde la salida de un comando se convierte en la entrada del siguiente comando. Por ejemplo, un comando podría iniciar la ingesta de datos, el siguiente comando puede activar el filtrado de columnas específicas y el comando posterior puede manejar la agregación. Esta serie de comandos continuará hasta que la calidad de los datos se transforme por completo y se vuelva a escribir en un repositorio de datos.

Transmisión de datos

A diferencia del procesamiento por lotes, las canalizaciones de datos de streaming, también conocidas como arquitecturas basadas en eventos, procesan continuamente eventos generados por diversas fuentes, como sensores o interacciones del usuario dentro de una aplicación. Los eventos se procesan y analizan, y luego se almacenan en bases de datos o se envían aguas abajo para su posterior análisis. 

Los datos de streaming se aprovecha cuando es necesario que los datos se actualicen continuamente. Por ejemplo, las aplicaciones o los sistemas de punto de venta necesitan datos en tiempo real para actualizar el inventario y el historial de ventas de sus productos; de ese modo, los vendedores pueden informar a los consumidores si un producto está en stock o no. Una sola acción, como la venta de un producto, se considera un "evento" y los eventos relacionados, como añadir un artículo a la caja, suelen agruparse en "tema" o "transmisión". Estos eventos se transportan entonces a través de sistemas de mensajería o agentes de mensajería, como la oferta de código abierto, Apache Kafka. 

Dado que los eventos de datos se procesan poco después de producirse, los sistemas de procesamiento de flujo tienen una latencia menor que los sistemas por lotes, pero no se consideran tan fiables como éstos, ya que los mensajes pueden caer involuntariamente o pasar mucho tiempo en cola. Los agentes de mensajes ayudan a abordar este problema a través de confirmaciones, en las que un consumidor confirma el procesamiento del mensaje al agente para quitarlo de la cola. 

Primeros pasos con IBM Cloud Pak for Data

Canalizaciones de integración de datos 

Las canalizaciones de integración de datos se concentran en fusionar datos de múltiples fuentes en una única vista unificada. Estas canalizaciones suelen implicar procesos de extracción, transformación y carga (ETL) que limpian, enriquecen o modifican de otro modo los datos sin procesar antes de almacenarlos en un repositorio centralizado, como un almacén de datos o un lago de datos. Las canalizaciones de integración de datos son esenciales para manejar sistemas dispares que generan formatos o estructuras incompatibles. Por ejemplo, se puede agregar una conexión a Amazon S3 (Amazon Simple Storage Service), un servicio ofrecido por Amazon Web Services (AWS) que proporciona almacenamiento de objetos a través de una interfaz de servicio web.

Canalizaciones de datos nativas de la nube 

Una plataforma de datos moderna incluye un conjunto de productos de software que permiten la recopilación, limpieza, transformación y análisis de los datos de una organización para ayudar a mejorar la toma de decisiones. Las canalizaciones de datos se han vuelto cada vez más complejas e esenciales para el análisis de datos y para la toma de decisiones basadas en datos. Una plataforma de datos moderna genera confianza en estos datos ingiriéndolos, almacenándolos, procesándolos y transformándolos de forma que se garantice una información precisa y oportuna, se reduzcan los silos de datos, se permita el autoservicio y se mejore la calidad de los datos.

 

Arquitectura de canalización de datos

La arquitectura de una canalización de datos está formada por tres pasos principales.

1. Ingesta de datos: los datos se recopilan de varias fuentes, incluidas las plataformas de software como servicio (SaaS), los dispositivos de Internet de las cosas (IoT) y los dispositivos móviles, y varias estructuras de datos, tanto datos estructurados como no estructurados. Dentro de los datos de streaming, estas fuentes de datos sin procesar se conocen normalmente como productores, editores o remitentes. Aunque las empresas pueden optar por extraer datos solo cuando estén listas para procesarlos, es una mejor práctica aterrizar primero los datos sin procesar dentro de un proveedor de almacenamiento de datos en la nube. De esta manera, la empresa puede actualizar cualquier dato histórico si necesita realizar ajustes en los trabajos de procesamiento de datos. Durante este proceso de ingesta de datos, se pueden realizar varias validaciones y comprobaciones para garantizar la coherencia y precisión de los datos.

2. Transformación de datos: durante este paso, se ejecutan una serie de trabajos para procesar los datos en el formato requerido por el repositorio de datos de destino. Estos trabajos incorporan la automatización y el gobierno para flujos de trabajo repetitivos, como los informes empresariales, lo que garantiza que los datos se limpien y transformen de forma coherente.  Por ejemplo, un flujo de datos puede venir en un formato JSON anidado, y la etapa de transformación de datos tendrá como objetivo desenrollar ese JSON para extraer los campos clave para el análisis.

3. Almacenamiento de datos: los datos transformados se almacenan en un repositorio de datos, donde se pueden exponer a varias partes interesadas. Dentro de los datos de streaming, estos datos transformados se conocen normalmente como consumidores, suscriptores o destinatarios.  

Canalización de datos frente a canalización ETL

Es posible que descubra que algunos términos, como canalización de datos y canalización ETL, se usan indistintamente en conversaciones. Sin embargo, debería pensar en una canalización ETL como una subcategoría de las canalizaciones de datos. Los dos tipos de tuberías se distinguen por tres características clave:

  • Las tuberías ETL siguen una secuencia específica. Como implica la abreviatura, extraen datos, transforman datos y, a continuación, cargan y almacenan datos en un repositorio de datos. No todas las canalizaciones de datos necesitan seguir esta secuencia. De hecho, las canalizaciones ELT (extraer, cargar, transformar) se han hecho más populares con la llegada de las herramientas nativas de la nube, en las que los datos pueden generarse y almacenarse en múltiples fuentes y plataformas. Aunque la ingesta de datos sigue ocurriendo primero con este tipo de canalización, las transformaciones se aplican después de que los datos se hayan cargado en el almacenamiento de datos basado en la nube.  

  • Las canalizaciones ETL también tienden a implicar el uso del procesamiento por lotes, pero como se ha indicado anteriormente, el alcance de las canalizaciones de datos es más amplio. También pueden incluir el procesamiento de flujos. 

  • Por último, aunque es poco probable, las canalizaciones de datos en su conjunto no necesitan necesariamente someterse a transformaciones de datos, como ocurre con las canalizaciones ETL. Es raro ver una canalización de datos que no utilice transformaciones para facilitar el análisis de datos.  
Casos de uso de canalizaciones de datos

A medida que el big data sigue creciendo, la gestión de datos se convierte en una prioridad cada vez mayor. Aunque las canalizaciones de datos cumplen diversas funciones, las siguientes corresponden a aplicaciones empresariales:

  • Análisis de datos exploratorios: los científicos de datos utilizan el análisis de datos exploratorios (EDA) para analizar e investigar conjuntos de datos y resumir sus características principales, a menudo utilizando métodos de visualización de datos. EDA ayuda a determinar la mejor manera de manipular las fuentes de datos para obtener las respuestas que necesita, lo que facilita a los científicos de datos descubrir patrones, detectar anomalías, probar una hipótesis o verificar suposiciones.

  • Visualizaciones de datos: para representar datos mediante gráficos comunes, se pueden crear visualizaciones de datos como gráficos, diagramas, infografías e incluso animaciones. Estas pantallas visuales de información comunican relaciones de datos complejas e información basada en los datos de una manera fácil de entender.

  • Machine learning: una rama de la inteligencia artificial (IA) y las ciencias de la computación, el machine learning se centra en el uso de datos y algoritmos para imitar la forma en que aprenden los humanos, mejorando gradualmente su precisión. Mediante el uso de métodos estadísticos, los algoritmos se entrenan para hacer clasificaciones o predicciones, descubriendo información clave dentro de los proyectos de minería de datos.

  • Observabilidad de los datos: para verificar la precisión y la seguridad de los datos que se están utilizando, la observabilidad de los datos aplica una variedad de herramientas para monitorizar, rastrear y alertar tanto de eventos esperados como de anomalías.
Soluciones de IBM
IBM DataStage

IBM Datastage es una herramienta de integración de datos líder en el sector que ayuda a diseñar, desarrollar y emprender tareas que mueven y transforman los datos.

Explore IBM DataStage
IBM Data Replication

IBM Data Replication es un software de sincronización de datos que mantiene sincronizados varios almacenes de datos casi en tiempo real. IBM Data Replication es una solución de bajo impacto, que sólo realiza el seguimiento de los cambios de datos capturados por el registro.

Explore IBM Data Replication
IBM Databand

IBM Databand es un software de observabilidad para canalizaciones y almacenes de datos que recopila automáticamente los metadatos para crear líneas de base históricas, detectar anomalías, clasificar las alertas y supervisar el estado y la fiabilidad de los gráficos acíclicos dirigidos (DAG) de Apache Airflow.

Explorar IBM Databand
IBM watsonx.data

IBM watsonx.data es un almacén de datos polivalente basado en una arquitectura de lakehpuse de datos abierta para escalar las cargas de trabajo analíticas y de IA, para todos sus datos, en cualquier lugar.

Explore IBM watsonx.data
Recursos Crear una base de datos sólida para la IA

Lea el smartpaper sobre cómo crear una base de datos sólida para la IA centrándose en tres áreas clave de gestión de datos: acceso, gobierno, privacidad y cumplimiento.

Banco Estatal de India

Descubra cómo el State Bank of India utilizó varias soluciones de IBM, junto con la metodología IBM Garage, para desarrollar una completa plataforma de banca online.

Dé el siguiente paso

IBM DataStage es una herramienta de integración de datos líder en el sector que le ayuda a diseñar, desarrollar y emprender tareas que mueven y transforman los datos. En esencia, DataStage es compatible con patrones tanto de extracción, transformación y carga (ETL) como de extracción, carga y transformación (ELT).

Explorar DataStage Pruébelo gratis