Que tipos de big data existen

Inicio » Que tipos de big data existen

Que tipos de big data existen

tipos de big data pdf

El uso actual del término big data tiende a referirse al uso de la analítica predictiva, la analítica del comportamiento del usuario o algunos otros métodos avanzados de análisis de datos que extraen valor de los big data, y rara vez a un tamaño concreto del conjunto de datos. «Hay pocas dudas de que las cantidades de datos disponibles ahora son realmente grandes, pero esa no es la característica más relevante de este nuevo ecosistema de datos»[4].

El tamaño y el número de conjuntos de datos disponibles han crecido rápidamente a medida que los datos son recogidos por dispositivos como los móviles, los baratos y numerosos dispositivos de detección de información del Internet de las cosas, los aéreos (teledetección), los registros de software, las cámaras, los micrófonos, los lectores de identificación por radiofrecuencia (RFID) y las redes de sensores inalámbricos. [8][9] La capacidad tecnológica per cápita del mundo para almacenar información se ha duplicado aproximadamente cada 40 meses desde la década de 1980;[10] en 2012 [actualización], cada día se generaban 2,5 exabytes (2,5×260 bytes) de datos[11] Según la predicción de un informe de IDC, se preveía que el volumen mundial de datos crecería exponencialmente de 4,4 zettabytes a 44 zettabytes entre 2013 y 2020. Para 2025, IDC predice que habrá 163 zettabytes de datos[12]. Una cuestión que se plantea a las grandes empresas es determinar quién debe ser el propietario de las iniciativas de big data que afectan a toda la organización[13].

características de los big data

El Big Data está creando una revolución en el campo de la informática, cada año el uso de la analítica aumenta drásticamente. Estamos creando 2,5 quintillones de bytes de datos cada día, de ahí que el campo se esté expandiendo en las aplicaciones B2C. El Big Data ha entrado en casi todas las industrias hoy en día y es una fuerza impulsora dominante detrás del éxito de las empresas y organizaciones en todo el mundo.

Los datos estructurados se utilizan para referirse a los datos que ya están almacenados en bases de datos, de forma ordenada. Representan alrededor del 20% del total de los datos existentes y son los más utilizados en la programación y las actividades relacionadas con la informática.

Hay dos fuentes de datos estructurados: las máquinas y los humanos. Todos los datos recibidos de sensores, weblogs y sistemas financieros se clasifican dentro de los datos generados por máquinas. Entre ellos se encuentran los dispositivos médicos, los datos del GPS, los datos de las estadísticas de uso captadas por los servidores y las aplicaciones y la enorme cantidad de datos que suelen circular por las plataformas de negociación, por citar algunos.

Los datos estructurados generados por humanos incluyen principalmente todos los datos que un humano introduce en un ordenador, como su nombre y otros detalles personales. Cuando una persona hace clic en un enlace en Internet, o incluso hace un movimiento en un juego, se crean datos que pueden ser utilizados por las empresas para averiguar el comportamiento de sus clientes y tomar las decisiones y modificaciones oportunas.

qué es el big data

El término big data hace referencia a enormes conjuntos de datos recogidos de numerosas fuentes. Estos conjuntos de datos no pueden recogerse, almacenarse o procesarse con ninguna de las herramientas convencionales existentes debido a su cantidad y complejidad.

Por ello, hay una gran variedad de herramientas que se utilizan para analizar big data: bases de datos NoSQL, Hadoop y Spark, por nombrar algunas. Con la ayuda de las herramientas de análisis de big data, podemos recopilar diferentes tipos de datos de las fuentes más versátiles: medios digitales, servicios web, aplicaciones empresariales, datos de registro de máquinas, etc.

Antes de que la analítica de Big Data se convirtiera en una idea totalmente desarrollada, las empresas almacenaban toneladas de información en sus bases de datos, sin saber qué hacer con ellas. Según las estadísticas mundiales sobre las tecnologías de Big Data, la mala calidad de los datos cuesta a las empresas de todo el mundo una media de entre 9,7 y 14,2 millones de dólares al año. En el caso de países como Estados Unidos, que operan en una economía muy orientada a los datos, esa cifra podría ascender a billones.

La mala calidad de los datos puede conducir a una mala toma de decisiones o a una estrategia empresarial equivocada. Esto, a su vez, provocará una baja productividad y creará desconfianza entre los clientes y una marca, lo que hará que esa marca pierda reputación en el mercado. Por ello, las herramientas de BI y el software de visualización de datos son vitales para el éxito empresarial en 2021.

ejemplos de big data

El uso actual del término big data tiende a referirse al uso de la analítica predictiva, la analítica del comportamiento del usuario o algunos otros métodos avanzados de análisis de datos que extraen valor de los big data, y rara vez a un tamaño concreto del conjunto de datos. «Hay pocas dudas de que las cantidades de datos ahora disponibles son realmente grandes, pero esa no es la característica más relevante de este nuevo ecosistema de datos»[4].

El tamaño y el número de conjuntos de datos disponibles han crecido rápidamente a medida que los datos son recogidos por dispositivos como los móviles, los baratos y numerosos dispositivos de detección de información del Internet de las cosas, los aéreos (teledetección), los registros de software, las cámaras, los micrófonos, los lectores de identificación por radiofrecuencia (RFID) y las redes de sensores inalámbricos. [8][9] La capacidad tecnológica per cápita del mundo para almacenar información se ha duplicado aproximadamente cada 40 meses desde la década de 1980;[10] en 2012 [actualización], cada día se generaban 2,5 exabytes (2,5×260 bytes) de datos[11] Según la predicción de un informe de IDC, se preveía que el volumen mundial de datos crecería exponencialmente de 4,4 zettabytes a 44 zettabytes entre 2013 y 2020. Para 2025, IDC predice que habrá 163 zettabytes de datos[12]. Una cuestión que se plantea a las grandes empresas es determinar quién debe ser el propietario de las iniciativas de big data que afectan a toda la organización[13].

Scroll al inicio
Ir arriba