Quien creo big data

Inicio » Quien creo big data

Quien creo big data

Qué es el big data

En los últimos cinco años, se ha comprendido cada vez mejor el papel que pueden desempeñar los macrodatos a la hora de proporcionar información de valor incalculable a una organización, revelando sus puntos fuertes y débiles y permitiendo a las empresas mejorar sus prácticas. Los macrodatos no tienen una agenda, no juzgan ni son partidistas: simplemente revelan una instantánea de la actividad.

Sin embargo, aunque muchas organizaciones comprenden la importancia de los datos, muy pocas ven todavía su impacto. Un nuevo estudio titulado Broken Links: Why analytics have yet to pay off (Enlaces rotos: por qué la analítica aún no ha dado sus frutos) afirma que el 70% de los ejecutivos de las empresas reconocen la importancia de la analítica de ventas y marketing, pero sólo el 2% afirma que su analítica ha logrado un impacto amplio y positivo. Este hallazgo apunta a la necesidad de que el Big Data sea manejado por empresas subcontratadas que se especialicen en el análisis de los datos generados por las empresas y que puedan ofrecer perspectivas reales y procesables. En el prólogo de su informe, Dan Weatherill escribe que «Nuestra encuesta y las entrevistas de seguimiento realizadas a casi 450 altos ejecutivos con sede en Estados Unidos de sectores como el farmacéutico, los dispositivos médicos, la informática, los servicios financieros, las telecomunicaciones y los viajes y la hostelería confirmaron una cosa que ya sabíamos: pocas organizaciones han sido capaces de acertar y de generar el tipo de impacto empresarial que esperaban».

Cómo funciona el big data

El tamaño y el número de conjuntos de datos disponibles han crecido rápidamente a medida que los datos son recogidos por dispositivos como los móviles, los baratos y numerosos dispositivos de detección de información del Internet de las cosas, los aéreos (teledetección), los registros de software, las cámaras, los micrófonos, los lectores de identificación por radiofrecuencia (RFID) y las redes de sensores inalámbricos. [8][9] La capacidad tecnológica per cápita del mundo para almacenar información se ha duplicado aproximadamente cada 40 meses desde la década de 1980;[10] en 2012 [actualización], cada día se generaban 2,5 exabytes (2,5×260 bytes) de datos[11] Según la predicción de un informe de IDC, se preveía que el volumen mundial de datos crecería exponencialmente de 4,4 zettabytes a 44 zettabytes entre 2013 y 2020. Para 2025, IDC predice que habrá 163 zettabytes de datos[12]. Una cuestión para las grandes empresas es determinar quién debe ser el propietario de las iniciativas de big data que afectan a toda la organización[13].

Los sistemas de gestión de bases de datos relacionales y los paquetes de software estadístico de escritorio utilizados para visualizar los datos suelen tener dificultades para procesar y analizar los big data. El procesamiento y análisis de big data puede requerir «software masivamente paralelo que se ejecuta en decenas, cientos o incluso miles de servidores»[14] Lo que se califica como «big data» varía en función de las capacidades de quienes lo analizan y de sus herramientas. Además, la ampliación de las capacidades hace de los big data un objetivo móvil. «Para algunas organizaciones, enfrentarse a cientos de gigabytes de datos por primera vez puede provocar la necesidad de reconsiderar las opciones de gestión de datos. Para otras, pueden ser necesarias decenas o cientos de terabytes antes de que el tamaño de los datos se convierta en una consideración significativa»[15].

Una breve historia del big data

En los últimos cinco años, se ha comprendido cada vez mejor el papel que pueden desempeñar los macrodatos a la hora de proporcionar información valiosísima a una organización, revelando sus puntos fuertes y débiles y permitiendo a las empresas mejorar sus prácticas. Los macrodatos no tienen una agenda, no juzgan ni son partidistas: simplemente revelan una instantánea de la actividad.

Sin embargo, aunque muchas organizaciones comprenden la importancia de los datos, muy pocas ven todavía su impacto. Un nuevo estudio titulado Broken Links: Why analytics have yet to pay off (Enlaces rotos: por qué la analítica aún no ha dado sus frutos) afirma que el 70% de los ejecutivos de las empresas reconocen la importancia de la analítica de ventas y marketing, pero sólo el 2% afirma que su analítica ha logrado un impacto amplio y positivo. Este hallazgo apunta a la necesidad de que el Big Data sea manejado por empresas subcontratadas que se especialicen en el análisis de los datos generados por las empresas y que puedan ofrecer perspectivas reales y procesables. En el prólogo de su informe, Dan Weatherill escribe que «Nuestra encuesta y las entrevistas de seguimiento realizadas a casi 450 altos ejecutivos con sede en Estados Unidos de sectores como el farmacéutico, los dispositivos médicos, la informática, los servicios financieros, las telecomunicaciones y los viajes y la hostelería confirmaron una cosa que ya sabíamos: pocas organizaciones han sido capaces de acertar y de generar el tipo de impacto empresarial que esperaban».

Análisis de big data

Big data es un término que describe los grandes volúmenes de datos difíciles de gestionar, tanto estructurados como no estructurados, que inundan las empresas en su día a día. Pero lo importante no es sólo el tipo o la cantidad de datos, sino lo que las organizaciones hacen con ellos. Los grandes datos pueden analizarse para obtener información que mejore las decisiones y dé confianza para tomar medidas empresariales estratégicas.

El término «big data» se refiere a los datos que son tan grandes, rápidos o complejos que son difíciles o imposibles de procesar con los métodos tradicionales. El acto de acceder y almacenar grandes cantidades de información para su análisis existe desde hace mucho tiempo. Pero el concepto de big data cobró impulso a principios de la década de 2000, cuando el analista de la industria Doug Laney articuló la definición de big data, que ahora es la corriente principal, como las tres V:

Volumen.  Las organizaciones recopilan datos de una gran variedad de fuentes, como transacciones, dispositivos inteligentes (IoT), equipos industriales, vídeos, imágenes, audio, redes sociales y mucho más. En el pasado, almacenar todos esos datos habría sido demasiado costoso, pero el almacenamiento más barato mediante lagos de datos, Hadoop y la nube ha aliviado la carga.

Scroll al inicio
Ir arriba