Uso de big data
La analítica de big data es el uso de técnicas analíticas avanzadas contra conjuntos de big data muy grandes y diversos que incluyen datos estructurados, semiestructurados y no estructurados, de diferentes fuentes y en diferentes tamaños, desde terabytes hasta zettabytes.
¿Qué son exactamente los big data? Puede definirse como conjuntos de datos cuyo tamaño o tipo supera la capacidad de las bases de datos relacionales tradicionales para capturar, gestionar y procesar los datos con baja latencia. Las características de los big data incluyen un alto volumen, una alta velocidad y una gran variedad. Las fuentes de datos se están volviendo más complejas que las de los datos tradicionales porque están siendo impulsadas por la inteligencia artificial (IA), los dispositivos móviles, los medios sociales y el Internet de las cosas (IoT). Por ejemplo, los diferentes tipos de datos proceden de sensores, dispositivos, vídeo/audio, redes, archivos de registro, aplicaciones transaccionales, web y medios sociales, muchos de ellos generados en tiempo real y a muy gran escala.
Con la analítica de big data, puede impulsar una toma de decisiones mejor y más rápida, la modelización y predicción de resultados futuros y la mejora de la inteligencia empresarial. A la hora de crear su solución de big data, considere el software de código abierto como Apache Hadoop, Apache Spark y todo el ecosistema Hadoop como herramientas de procesamiento y almacenamiento de datos rentables y flexibles, diseñadas para manejar el volumen de datos que se genera hoy en día.
Ejemplos de big data
Los autores han analizado un conspicuo corpus de artículos de la industria y el mundo académico relacionados con los Big Data para encontrar puntos comunes entre los temas tratados. Los autores también han elaborado un estudio de las definiciones existentes con el fin de generar una más sólida que englobe la mayor parte de los trabajos que se realizan en este campo.
Los temas principales de Big Data son: información, tecnología, métodos e impacto. Los autores proponen una nueva definición del término que dice lo siguiente «Big Data es el activo de Información caracterizado por un Volumen, Velocidad y Variedad tan elevados que requieren Tecnología y Métodos Analíticos específicos para su transformación en Valor».
La definición formal que se propone puede permitir un desarrollo más coherente del concepto de Big Data, ya que se apoya únicamente en los hilos esenciales del estado del arte actual y es coherente con las definiciones más populares utilizadas actualmente.
De Mauro, A., Greco, M. y Grimaldi, M. (2016), «A formal definition of Big Data based on its essential features», Library Review, Vol. 65 No. 3, pp. 122-135. https://doi.org/10.1108/LR-06-2015-0061
Definición de análisis de big data gartner
¿Qué es el big data? Es una buena pregunta. Parece que hay tantas definiciones de big data como empresas, organizaciones sin ánimo de lucro, agencias gubernamentales y personas que quieren beneficiarse de él.
Una interpretación popular de big data se refiere a conjuntos de datos extremadamente grandes. Un informe del Instituto Nacional de Estándares y Tecnología definió los big data como «conjuntos de datos extensos -principalmente en las características de volumen, velocidad y/o variabilidad- que requieren una arquitectura escalable para un almacenamiento, manipulación y análisis eficientes». Algunos han definido los big data como una cantidad de datos que supera un petabyte -un millón de gigabytes-.
Estos datos proceden de innumerables fuentes: teléfonos inteligentes y publicaciones en las redes sociales; sensores, como señales de tráfico y contadores de servicios públicos; terminales de puntos de venta; dispositivos portátiles de los consumidores, como los medidores de peso; historiales médicos electrónicos; y un largo etcétera.
En las profundidades de estos datos hay inmensas oportunidades para las organizaciones que tienen el talento y la tecnología para transformar sus vastos almacenes de datos en una visión procesable, una mejor toma de decisiones y una ventaja competitiva.
Análisis de grandes datos
ResumenLos grandes datos son un campo emergente en el que la tecnología innovadora ofrece nuevas formas de extraer valor del tsunami de información disponible. Como ocurre con cualquier área emergente, los términos y conceptos pueden estar abiertos a diferentes interpretaciones. El ámbito de los Big Data no es diferente. Este capítulo examina las diferentes definiciones de «Big Data» que han surgido en los últimos años para etiquetar datos con diferentes atributos. La cadena de valor del Big Data se introduce para describir el flujo de información dentro de un sistema de Big Data como una serie de pasos necesarios para generar valor y conocimientos útiles a partir de los datos. La cadena de valor permite el análisis de las tecnologías de big data para cada paso dentro de la cadena. El capítulo explora el concepto de ecosistema de big data. Examina el uso de la metáfora del ecosistema dentro de la comunidad empresarial para describir el entorno de los negocios y cómo puede extenderse al contexto de big data. Se identifican las principales partes interesadas de un ecosistema de big data junto con los retos que hay que superar para hacer posible un ecosistema de big data en Europa.Palabras claveGran colisionador de hadrones Capital riesgo Ecosistema empresarial Ecosistema de datos Cadena de suministro de información