La ciencia de datos es un campo que combina las matemáticas y la estadística, la programación especializada, los analytics avanzados, la inteligencia artificial (IA) y el machine learning con conocimientos específicos en la materia para descubrir insights procesables ocultos en los datos de una organización. Estos insights pueden utilizarse para orientar la toma de decisiones y la planificación estratégica.
El volumen acelerado de fuentes de datos y, posteriormente, de datos, ha hecho que la ciencia de datos sea uno de los campos de más rápido crecimiento en todas las industrias. Como resultado, no es de extrañar que el papel del científico de datos fuera calificado como el "trabajo más sexy del siglo XXI" por Harvard Business Review. Las organizaciones dependen cada vez más de ellos para interpretar los datos y proporcionar recomendaciones aplicables en la práctica para mejorar los resultados del negocio.
El ciclo de vida de la ciencia de datos implica varios roles, herramientas y procesos, que permiten a los analistas obtener insights procesables. Normalmente, un proyecto de ciencia de datos pasa por las siguientes etapas:
Los científicos de datos son expertos en extraer insights y respuestas específicos de la industria a partir de los datos. Poseen habilidades informáticas y de ciencias puras más allá de las de un analista de negocios o analista de datos típico, así como un profundo conocimiento de los detalles de la industria o disciplina empresarial en la que trabajan (como la fabricación de automóviles, el comercio electrónico o la atención médica).
Un científico de datos debe ser capaz de:
Estos skills tienen una gran demanda y, como resultado, muchas personas que se inician en una carrera de ciencia de datos exploran una variedad de programas de ciencia de datos, como programas de certificación, cursos de ciencia de datos y programas de grado ofrecidos por instituciones educativas.
Los científicos de datos no son necesariamente responsables directos de todos los procesos involucrados en el ciclo de vida de la ciencia de datos. Por ejemplo, los pipelines de datos suelen ser manejados por ingenieros de datos, pero el científico de datos puede hacer recomendaciones sobre qué tipo de datos son útiles o necesarios. Si bien los científicos de datos pueden crear modelos de machine learning, escalar estos esfuerzos a un nivel mayor requiere más habilidades de ingeniería de software para optimizar un programa y ejecutarlo más rápidamente. Como resultado, es común que un científico de datos se asocie con ingenieros de machine learning para escalar modelos de machine learning.
Las responsabilidades de los científicos de datos suelen solaparse con las de los analistas de datos, sobre todo en lo que respecta al análisis exploratorio y la visualización de datos. Sin embargo, las competencias de un científico de datos suelen ser más amplias que las del analista de datos promedio. Comparativamente, los científicos de datos aprovechan lenguajes de programación comunes, como R y Python, para realizar más inferencia estadística y visualización de datos.
Puede ser fácil confundir los términos "ciencia de datos" y "business intelligence" (BI) porque ambos se refieren a los datos de una organización y al análisis de esos datos, pero difieren en su enfoque.
Business Intelligence (BI) suele ser un término genérico que engloba la tecnología que permite la preparación, la minería, la administración y la visualización de datos. Las herramientas y procesos de business intelligence permiten a los usuarios finales identificar información procesable a partir de datos sin procesar, facilitando la toma de decisiones basada en datos dentro de organizaciones de diversas industrias. Aunque las herramientas de ciencia de datos coinciden en gran parte de este aspecto, el business intelligence se centra más en los datos del pasado, y los insights de las herramientas de BI son de naturaleza más descriptiva. Utiliza los datos para comprender lo que ha sucedido antes e informar sobre una línea de actuación. El BI está orientado a datos estáticos (inmutables) que suelen estar estructurados. Aunque la ciencia de datos utiliza datos descriptivos, suele emplearlos para determinar variables predictivas, que luego se utilizan para categorizar datos o hacer previsiones.
La ciencia de datos y la BI no son mutuamente excluyentes: las organizaciones digitalmente inteligentes utilizan ambas para comprender plenamente y extraer valor de sus datos.
Los científicos de datos se basan en lenguajes de programación populares para realizar análisis exploratorios de datos y regresión estadística. Estas herramientas de código abierto admiten capacidades predefinidas de modelado estadístico, machine learning y gráficos. Entre estos lenguajes se incluyen los siguientes (leer más en "Python frente a R: ¿cuál es la diferencia?"):
Para facilitar el intercambio de código y otra información, los científicos de datos pueden utilizar GitHub y Jupyter Notebook.
Algunos científicos de datos pueden preferir una interfaz de usuario, y dos herramientas empresariales comunes para el análisis estadístico incluyen:
Los científicos de datos también adquieren destreza en el uso de plataformas de procesamiento de big data, como Apache Spark, el marco de código abierto Apache Hadoop y las bases de datos NoSQL. También dominan una amplia gama de herramientas de visualización de datos, como las sencillas herramientas gráficas incluidas en las aplicaciones empresariales de presentación y hojas de cálculo (como Microsoft Excel), herramientas comerciales de visualización creadas a medida como Tableau e IBM Cognos, y herramientas de código abierto como D3.js (una biblioteca de JavaScript para crear visualizaciones de datos interactivas) y RAW Graphs. Para crear modelos de aprendizaje automático, los científicos de datos suelen recurrir a varios marcos como PyTorch, TensorFlow, MXNet y Spark MLib.
Dada la pronunciada curva de aprendizaje de la ciencia de datos, muchas empresas buscan acelerar el retorno de la inversión en proyectos de IA; a menudo tienen dificultades para contratar el talento necesario para aprovechar todo el potencial de los proyectos de ciencia de datos. Para subsanar esta carencia, están recurriendo a plataformas multipersona de ciencia de datos y aprendizaje automático (DSML), dando lugar al papel de "científico de datos ciudadano".
Las plataformas multipersona DSML utilizan la automatización, los portales de autoservicio y las interfaces de usuario de código bajo/sin código para que las personas con poca o ninguna experiencia en tecnología digital o expertos en ciencia de datos puedan crear valor empresarial utilizando la ciencia de datos y el aprendizaje automático. Estas plataformas también sirven de apoyo a los científicos de datos expertos, ya que también ofrecen una interfaz más técnica. El uso de una plataforma DSML multipersona fomenta la colaboración en toda la empresa.
La computación en la nube escala la ciencia de datos proporcionando acceso a más potencia de procesamiento, almacenamiento y otras herramientas necesarias para los proyectos de ciencia de datos.
Dado que la ciencia de datos con frecuencia aprovecha grandes conjuntos de datos, las herramientas que pueden escalar con el tamaño de los datos son increíblemente importantes, especialmente para proyectos urgentes. Las soluciones de almacenamiento en la nube, como los lagos de datos, brindan acceso a la infraestructura de almacenamiento, que es capaz de ingerir y procesar grandes volúmenes de datos con facilidad. Estos sistemas de almacenamiento brindan flexibilidad a los usuarios finales, lo que les permite poner en marcha grandes clústeres según sea necesario. También pueden agregar nodos de cómputo incrementales para agilizar los trabajos de procesamiento de datos, lo que permite a la empresa hacer concesiones a corto plazo para obtener un resultado mayor a largo plazo. Las plataformas en la nube suelen tener diferentes modelos de precios, como por uso o suscripciones, para satisfacer las necesidades de su usuario final, ya sea una gran empresa o una pequeña empresa emergente.
Las tecnologías de código abierto se utilizan ampliamente en conjuntos de herramientas de ciencia de datos. Cuando están alojados en la nube, los equipos no necesitan instalarlos, configurarlos, mantenerlos o actualizarlos localmente. Varios proveedores de la nube, incluido IBM® Cloud, también ofrecen kits de herramientas preempaquetados que permiten a los científicos de datos crear modelos sin programación, democratizando aún más el acceso a las innovaciones tecnológicas y a los insights de datos.
Las empresas pueden desbloquear numerosos beneficios de la ciencia de datos. Los casos de uso más comunes incluyen la optimización de procesos mediante la automatización inteligente y la mejora de la orientación y la personalización para mejorar la experiencia del cliente (CX). Sin embargo, hay ejemplos más concretos:
Estos son algunos casos de uso representativos de la ciencia de datos y la inteligencia artificial:
Utilice herramientas y soluciones de ciencia de datos para descubrir patrones y crear predicciones mediante el uso de datos, algoritmos, machine learning y técnicas de IA.
Presentamos Cognos Analytics 12.0: insights impulsados por IA para una mejor toma de decisiones.
Desbloquee el valor de los datos empresariales con IBM Consulting y cree una organización impulsada por insights que ofrezca ventajas empresariales.