¿qué hacemos con los datos que obtenemos en la big data?

Inicio » ¿qué hacemos con los datos que obtenemos en la big data?

¿qué hacemos con los datos que obtenemos en la big data?

análisis de big data

En los últimos cinco años, se ha comprendido cada vez mejor el papel que pueden desempeñar los macrodatos a la hora de proporcionar información valiosísima a una organización, revelando sus puntos fuertes y débiles y permitiendo a las empresas mejorar sus prácticas. Los macrodatos no tienen una agenda, no juzgan ni son partidistas: simplemente revelan una instantánea de la actividad.

Sin embargo, aunque muchas organizaciones comprenden la importancia de los datos, muy pocas ven todavía su impacto. Un nuevo estudio titulado Broken Links: Why analytics have yet to pay off (Enlaces rotos: por qué la analítica aún no ha dado sus frutos) afirma que el 70% de los ejecutivos de las empresas reconocen la importancia de la analítica de ventas y marketing, pero sólo el 2% afirma que su analítica ha logrado un impacto amplio y positivo. Este hallazgo apunta a la necesidad de que el Big Data sea manejado por empresas subcontratadas que se especialicen en el análisis de los datos generados por las empresas y que puedan ofrecer perspectivas reales y procesables. En el prólogo de su informe, Dan Weatherill escribe que «Nuestra encuesta y las entrevistas de seguimiento realizadas a casi 450 altos ejecutivos con sede en Estados Unidos de sectores como el farmacéutico, los dispositivos médicos, la informática, los servicios financieros, las telecomunicaciones y los viajes y la hostelería confirmaron una cosa que ya sabíamos: pocas organizaciones han sido capaces de acertar y de generar el tipo de impacto empresarial que esperaban».

valor de los big data

El uso actual del término big data tiende a referirse al uso de la analítica predictiva, la analítica del comportamiento del usuario o algunos otros métodos avanzados de análisis de datos que extraen valor de los big data, y rara vez a un tamaño concreto del conjunto de datos. «Hay pocas dudas de que las cantidades de datos disponibles ahora son realmente grandes, pero esa no es la característica más relevante de este nuevo ecosistema de datos»[4].

El tamaño y el número de conjuntos de datos disponibles han crecido rápidamente a medida que los datos son recogidos por dispositivos como los móviles, los baratos y numerosos dispositivos de detección de información del Internet de las cosas, los aéreos (teledetección), los registros de software, las cámaras, los micrófonos, los lectores de identificación por radiofrecuencia (RFID) y las redes de sensores inalámbricos. [8][9] La capacidad tecnológica per cápita del mundo para almacenar información se ha duplicado aproximadamente cada 40 meses desde la década de 1980;[10] en 2012 [actualización], cada día se generaban 2,5 exabytes (2,5×260 bytes) de datos[11] Según la predicción de un informe de IDC, se preveía que el volumen mundial de datos crecería exponencialmente de 4,4 zettabytes a 44 zettabytes entre 2013 y 2020. Para 2025, IDC predice que habrá 163 zettabytes de datos[12]. Una cuestión que se plantea a las grandes empresas es determinar quién debe ser el propietario de las iniciativas de big data que afectan a toda la organización[13].

análisis de big data

En pocas palabras, los big data son conjuntos de datos más grandes y complejos, especialmente los procedentes de nuevas fuentes de datos. Estos conjuntos de datos son tan voluminosos que el software de procesamiento de datos tradicional no puede gestionarlos. Sin embargo, estos volúmenes masivos de datos pueden utilizarse para resolver problemas empresariales que antes no habrían podido abordarse.

La velocidad es la rapidez con la que se reciben los datos y (quizás) se actúa sobre ellos. Normalmente, la mayor velocidad de los datos se transmite directamente a la memoria en lugar de escribirse en el disco. Algunos productos inteligentes con acceso a Internet operan en tiempo real o casi en tiempo real y requerirán una evaluación y acción en tiempo real.

La variedad se refiere a los muchos tipos de datos disponibles. Los tipos de datos tradicionales estaban estructurados y encajaban perfectamente en una base de datos relacional. Con el auge del big data, los datos se presentan en nuevos tipos de datos no estructurados. Los tipos de datos no estructurados y semiestructurados, como el texto, el audio y el vídeo, requieren un preprocesamiento adicional para derivar el significado y soportar los metadatos.

En los últimos años han surgido otras dos V: valor y veracidad. Los datos tienen un valor intrínseco. Pero no sirven de nada hasta que se descubre ese valor. Igualmente importante es saber hasta qué punto los datos son veraces y hasta qué punto se puede confiar en ellos.

ejemplos de big data

La recopilación de datos es diferente para cada organización. Con la tecnología actual, las organizaciones pueden recopilar datos estructurados y no estructurados de diversas fuentes, desde el almacenamiento en la nube hasta las aplicaciones móviles, pasando por los sensores de IoT en las tiendas y más allá. Algunos datos se almacenarán en almacenes de datos donde las herramientas y soluciones de inteligencia empresarial pueden acceder a ellos fácilmente. A los datos crudos o no estructurados que son demasiado diversos o complejos para un almacén se les pueden asignar metadatos y almacenar en un lago de datos.

Una vez recogidos y almacenados los datos, deben organizarse adecuadamente para obtener resultados precisos en las consultas analíticas, especialmente cuando son grandes y no están estructurados. Los datos disponibles crecen exponencialmente, lo que convierte el procesamiento de datos en un reto para las organizaciones. Una opción de procesamiento es el procesamiento por lotes, que examina grandes bloques de datos a lo largo del tiempo. El procesamiento por lotes es útil cuando hay un tiempo más largo entre la recogida y el análisis de los datos. El procesamiento de flujos examina pequeños lotes de datos a la vez, acortando el tiempo de espera entre la recogida y el análisis para una toma de decisiones más rápida. El procesamiento de flujos es más complejo y a menudo más caro.

Scroll al inicio
Ir arriba