Apache Kafka (Kafka) es una plataforma de transmisión distribuida de código abierto que permite (entre otras cosas) el desarrollo de aplicaciones impulsadas por eventos en tiempo real. ¿Qué significa esto?
En la actualidad, miles de millones de fuentes de datos generan continuamente flujos de registros de datos, incluidos flujos de eventos. Un evento es un registro digital de una acción que sucedió y la hora en que sucedió. Normalmente, un evento es una acción que impulsa a otra acción como parte de un proceso. Un cliente que hace un pedido, elige un asiento en un vuelo o envía un formulario de registro son todos ejemplos de eventos. Un evento no tiene por qué involucrar a una persona; por ejemplo, el informe de temperatura de un termostato conectado en un momento dado también es un evento.
Estos flujos ofrecen oportunidades para aplicaciones que responden a datos o eventos en tiempo real. Una plataforma de transmisión permite a los desarrolladores crear aplicaciones que consumen y procesan continuamente estas transmisiones a velocidades extremadamente altas, con un alto nivel de fidelidad y precisión en función del orden correcto de aparición.
LinkedIn desarrolló Kafka en 2011 como un intermediario de mensajes de alto rendimiento para su propio uso, posteriormente lo pasó a código abierto y donó Kafka a Apache Software Foundation (el enlace se encuentra fuera de ibm.com). Hoy en día, Kafka se ha convertido en la plataforma de transmisión más utilizada, capaz de ingerir y procesar billones de registros por día sin ningún retraso perceptible en el rendimiento a medida que aumentan los volúmenes. Algunas organizaciones del índice Fortune 500, como Target, Microsoft, AirBnB y Netflix, confían en Kafka para ofrecer a sus clientes experiencias basadas en datos en tiempo real.
El siguiente video proporciona más información sobre Kafka (9:10):