A qué se refiere el término big data

Inicio » A qué se refiere el término big data

Beneficios de los grandes datos

Bernard MarrBernard Marr es un futurista de renombre mundial, influenciador y líder de pensamiento en los campos de los negocios y la tecnología, con una pasión por el uso de la tecnología para el bien de la humanidad. Es un autor de 20 libros de gran éxito, escribe una columna periódica para Forbes y asesora y entrena a muchas de las organizaciones más conocidas del mundo. Tiene más de 2 millones de seguidores en las redes sociales, 1 millón de suscriptores al boletín de noticias y ha sido clasificado por LinkedIn como uno de los 5 principales influenciadores empresariales del mundo y el número 1 en el Reino Unido.

He escrito cientos de posts sobre big data, desde lo que es hasta cómo se utiliza en la práctica. Para acompañarlo, he pensado que sería útil un artículo que resaltara el significado de algunas de las palabras de moda que se han creado en torno a este tema.

Datos como servicio, software como servicio, plataforma como servicio… todos ellos se refieren a la idea de que, en lugar de vender datos, licencias de uso de datos o plataformas para el funcionamiento de la tecnología de Big Data, ésta puede proporcionarse “como un servicio”, en lugar de como un producto. Esto reduce la inversión de capital inicial necesaria para que los clientes empiecen a poner sus datos, o plataformas, a trabajar para ellos, ya que el proveedor corre con todos los costes de creación y alojamiento de la infraestructura. Como cliente, la infraestructura como servicio puede reducir en gran medida el coste inicial y el tiempo de configuración para poner en marcha las iniciativas de Big Data.

Cómo de grande es el big data

El término big data se refiere al fenómeno del siglo XXI de crecimiento exponencial de los datos empresariales y a los retos que conlleva, como la recopilación, el almacenamiento, la gestión y el análisis holísticos de todos los datos que posee o utiliza una empresa.

El término implica datos de un tamaño indeterminado -y en constante aumento-, así como de un número indeterminado de fuentes, incluidos los datos generados por los empleados, los clientes, los socios, las máquinas, los registros, las bases de datos, las cámaras de seguridad, los dispositivos móviles, las redes sociales, etc.

La cantidad de datos que se generan no deja de aumentar, por lo que el reto de contener los big data es un objetivo en movimiento. Además, los big data son cada vez más un problema de competitividad: a medida que más empresas invierten en sus big data y tienen éxito con ellos, las que no sigan el ritmo estarán en gran desventaja. Por último, las tecnologías y los productos comerciales para contener y controlar el big data están evolucionando rápidamente, por lo que las organizaciones de TI deben permanecer atentas a las nuevas innovaciones y oportunidades.

Cómo funciona el big data

Hay tres propiedades definitorias que pueden ayudar a desglosar el término. Apodadas las tres V: volumen, velocidad y variedad, son la clave para entender cómo podemos medir los big data y lo diferentes que son los “big data” de los datos tradicionales.

Empezaremos por la más obvia. El big data es volumen. Volúmenes de datos que pueden alcanzar cotas sin precedentes, de hecho. Se calcula que cada día se crean 2,5 quintillones de bytes de datos, por lo que en 2020 habrá 40 zettabytes de datos creados, lo que pone de manifiesto un aumento de 300 veces desde 2005. Como resultado, ahora no es raro que las grandes empresas tengan Terabytes -e incluso Petabytes- de datos en dispositivos de almacenamiento y en servidores. Estos datos ayudan a perfilar el futuro de una empresa y sus acciones, a la vez que hacen un seguimiento del progreso.

El crecimiento de los datos, y su consiguiente importancia, ha cambiado nuestra forma de verlos. Hubo un tiempo en el que no veíamos la importancia de los datos en el mundo corporativo, pero con el cambio en la forma de recopilarlos, hemos llegado a depender de ellos día a día. La velocidad mide esencialmente la rapidez con la que llegan los datos. Algunos datos llegarán en tiempo real, mientras que otros llegarán a trompicones, enviados por lotes. Y como no todas las plataformas experimentarán la entrada de datos al mismo ritmo, es importante no generalizar, descontar o sacar conclusiones sin tener todos los datos.

Definición de big data

En pocas palabras, los big data son conjuntos de datos más grandes y complejos, especialmente los procedentes de nuevas fuentes de datos. Estos conjuntos de datos son tan voluminosos que el software tradicional de procesamiento de datos no puede gestionarlos. Sin embargo, estos volúmenes masivos de datos pueden utilizarse para resolver problemas empresariales que antes no habrían podido abordarse.

La velocidad es la rapidez con la que se reciben los datos y (quizás) se actúa sobre ellos. Normalmente, la mayor velocidad de los datos se transmite directamente a la memoria en lugar de escribirse en el disco. Algunos productos inteligentes con acceso a Internet operan en tiempo real o casi en tiempo real y requerirán una evaluación y acción en tiempo real.

La variedad se refiere a los muchos tipos de datos disponibles. Los tipos de datos tradicionales estaban estructurados y encajaban perfectamente en una base de datos relacional. Con el auge del big data, los datos se presentan en nuevos tipos de datos no estructurados. Los tipos de datos no estructurados y semiestructurados, como el texto, el audio y el vídeo, requieren un preprocesamiento adicional para derivar el significado y soportar los metadatos.

En los últimos años han surgido otras dos V: valor y veracidad. Los datos tienen un valor intrínseco. Pero no sirven de nada hasta que se descubre ese valor. Igualmente importante es saber hasta qué punto los datos son veraces y hasta qué punto se puede confiar en ellos.

Ir arriba