¿qué es y para qué sirve el big data?

Inicio » ¿qué es y para qué sirve el big data?

¿qué es y para qué sirve el big data?

Definición de big data gartner

El uso actual del término big data tiende a referirse al uso de la analítica predictiva, la analítica del comportamiento del usuario o algunos otros métodos avanzados de análisis de datos que extraen valor de los big data, y rara vez a un tamaño concreto del conjunto de datos. «Hay pocas dudas de que las cantidades de datos disponibles ahora son realmente grandes, pero esa no es la característica más relevante de este nuevo ecosistema de datos»[4].

El tamaño y el número de conjuntos de datos disponibles han crecido rápidamente a medida que los datos son recogidos por dispositivos como los móviles, los baratos y numerosos dispositivos de detección de información del Internet de las cosas, los aéreos (teledetección), los registros de software, las cámaras, los micrófonos, los lectores de identificación por radiofrecuencia (RFID) y las redes de sensores inalámbricos. [9][10] La capacidad tecnológica per cápita del mundo para almacenar información se ha duplicado aproximadamente cada 40 meses desde la década de 1980;[11] en 2012 [actualización], cada día se generaban 2,5 exabytes (2,5×260 bytes) de datos[12] Según la predicción de un informe de IDC, se preveía que el volumen mundial de datos crecería exponencialmente de 4,4 zettabytes a 44 zettabytes entre 2013 y 2020. Para 2025, IDC predice que habrá 163 zettabytes de datos[13]. Una cuestión que se plantea a las grandes empresas es determinar quién debe ser el propietario de las iniciativas de big data que afectan a toda la organización[14].

Cómo funciona el big data

El uso actual del término big data tiende a referirse al uso de la analítica predictiva, la analítica del comportamiento del usuario o algunos otros métodos avanzados de análisis de datos que extraen valor de los big data, y rara vez a un tamaño concreto del conjunto de datos. «Hay pocas dudas de que las cantidades de datos disponibles ahora son realmente grandes, pero esa no es la característica más relevante de este nuevo ecosistema de datos»[4].

El tamaño y el número de conjuntos de datos disponibles han crecido rápidamente a medida que los datos son recogidos por dispositivos como los móviles, los baratos y numerosos dispositivos de detección de información del Internet de las cosas, los aéreos (teledetección), los registros de software, las cámaras, los micrófonos, los lectores de identificación por radiofrecuencia (RFID) y las redes de sensores inalámbricos. [9][10] La capacidad tecnológica per cápita del mundo para almacenar información se ha duplicado aproximadamente cada 40 meses desde la década de 1980;[11] en 2012 [actualización], cada día se generaban 2,5 exabytes (2,5×260 bytes) de datos[12] Según la predicción de un informe de IDC, se preveía que el volumen mundial de datos crecería exponencialmente de 4,4 zettabytes a 44 zettabytes entre 2013 y 2020. Para 2025, IDC predice que habrá 163 zettabytes de datos[13]. Una cuestión que se plantea a las grandes empresas es determinar quién debe ser el propietario de las iniciativas de big data que afectan a toda la organización[14].

Valor de los datos

Cantidades, caracteres o símbolos sobre los que un ordenador realiza operaciones, que pueden almacenarse y transmitirse en forma de señales eléctricas y registrarse en medios de grabación magnéticos, ópticos o mecánicos.

Big Data es una colección de datos de gran volumen, que crece exponencialmente con el tiempo. Es un dato con un tamaño y una complejidad tan grandes que ninguna de las herramientas tradicionales de gestión de datos puede almacenarlo o procesarlo de forma eficiente. Big data es también un dato pero de enorme tamaño.

Cualquier dato que pueda ser almacenado, accedido y procesado en forma de formato fijo se denomina dato «estructurado». A lo largo del tiempo, el talento de la informática ha logrado un mayor éxito en el desarrollo de técnicas para trabajar con este tipo de datos (cuyo formato se conoce de antemano) y también para obtener valor de ellos. Sin embargo, hoy en día, estamos previendo problemas cuando el tamaño de tales datos crece en gran medida, los tamaños típicos están siendo en la rabia de múltiples zettabytes.

Todos los datos con forma o estructura desconocida se clasifican como datos no estructurados. Además de su enorme tamaño, los datos no estructurados plantean múltiples retos en cuanto a su procesamiento para obtener valor de ellos. Un ejemplo típico de datos no estructurados es una fuente de datos heterogénea que contiene una combinación de archivos de texto simple, imágenes, vídeos, etc. Hoy en día, las organizaciones disponen de una gran cantidad de datos, pero desgraciadamente no saben cómo sacarles valor, ya que estos datos están en su forma bruta o no estructurada.

Qué es la analítica de big data

El uso actual del término big data tiende a referirse al uso de la analítica predictiva, la analítica del comportamiento del usuario o algunos otros métodos avanzados de análisis de datos que extraen valor de los big data, y rara vez a un tamaño concreto del conjunto de datos. «Hay pocas dudas de que las cantidades de datos disponibles ahora son realmente grandes, pero esa no es la característica más relevante de este nuevo ecosistema de datos»[4].

El tamaño y el número de conjuntos de datos disponibles han crecido rápidamente a medida que los datos son recogidos por dispositivos como los móviles, los baratos y numerosos dispositivos de detección de información del Internet de las cosas, los aéreos (teledetección), los registros de software, las cámaras, los micrófonos, los lectores de identificación por radiofrecuencia (RFID) y las redes de sensores inalámbricos. [9][10] La capacidad tecnológica per cápita del mundo para almacenar información se ha duplicado aproximadamente cada 40 meses desde la década de 1980;[11] en 2012 [actualización], cada día se generaban 2,5 exabytes (2,5×260 bytes) de datos[12] Según la predicción de un informe de IDC, se preveía que el volumen mundial de datos crecería exponencialmente de 4,4 zettabytes a 44 zettabytes entre 2013 y 2020. Para 2025, IDC predice que habrá 163 zettabytes de datos[13]. Una cuestión que se plantea a las grandes empresas es determinar quién debe ser el propietario de las iniciativas de big data que afectan a toda la organización[14].

Scroll al inicio
Ir arriba