Como se genera el big data

Inicio » Como se genera el big data

Generación de big data

El término big data se refiere a los grandes y diversos conjuntos de información que crecen a un ritmo cada vez mayor. Abarca el volumen de información, la velocidad o rapidez con la que se crea y recoge, y la variedad o el alcance de los puntos de datos que se abarcan (lo que se conoce como las “tres v” de los big data). Los big data suelen proceder de la minería de datos y llegan en múltiples formatos.

Los big data pueden clasificarse como no estructurados o estructurados. Los datos estructurados consisten en información ya gestionada por la organización en bases de datos y hojas de cálculo; suelen ser de naturaleza numérica. Los datos no estructurados son información que no está organizada y no se ajusta a un modelo o formato predeterminado. Incluye datos recogidos de fuentes de medios sociales, que ayudan a las instituciones a recopilar información sobre las necesidades de los clientes.

Los big data pueden recopilarse a partir de comentarios compartidos públicamente en redes sociales y sitios web, recogidos voluntariamente en aparatos electrónicos y aplicaciones personales, mediante cuestionarios, compras de productos y registros electrónicos. La presencia de sensores y otras entradas en los dispositivos inteligentes permite recopilar datos en un amplio espectro de situaciones y circunstancias.

Cómo se generan los datos en Internet

El uso actual del término big data tiende a referirse al uso de la analítica predictiva, la analítica del comportamiento del usuario o algunos otros métodos avanzados de análisis de datos que extraen valor de los big data, y rara vez a un tamaño concreto del conjunto de datos. “Hay pocas dudas de que las cantidades de datos disponibles ahora son realmente grandes, pero esa no es la característica más relevante de este nuevo ecosistema de datos”[4].

El tamaño y el número de conjuntos de datos disponibles han crecido rápidamente a medida que los datos son recogidos por dispositivos como los móviles, los baratos y numerosos dispositivos de detección de información del Internet de las cosas, los aéreos (teledetección), los registros de software, las cámaras, los micrófonos, los lectores de identificación por radiofrecuencia (RFID) y las redes de sensores inalámbricos. [8][9] La capacidad tecnológica per cápita del mundo para almacenar información se ha duplicado aproximadamente cada 40 meses desde la década de 1980;[10] en 2012 [actualización], cada día se generaban 2,5 exabytes (2,5×260 bytes) de datos[11] Según la predicción de un informe de IDC, se preveía que el volumen mundial de datos crecería exponencialmente de 4,4 zettabytes a 44 zettabytes entre 2013 y 2020. Para 2025, IDC predice que habrá 163 zettabytes de datos[12]. Una cuestión para las grandes empresas es determinar quién debe ser el propietario de las iniciativas de big data que afectan a toda la organización[13].

Big data qué es

Este curso es para aquellos que son nuevos en la ciencia de los datos. No se necesita experiencia previa en programación, aunque la capacidad de instalar aplicaciones y utilizar una máquina virtual es necesaria para completar las tareas prácticas.

(A) Procesador de cuatro núcleos (se recomienda que sea compatible con VT-x o AMD-V), de 64 bits; (B) 8 GB de RAM; (C) 20 GB de disco libre. Cómo encontrar la información de su hardware: (Windows): Abra Sistema haciendo clic en el botón Inicio, haciendo clic con el botón derecho del ratón en Equipo y luego en Propiedades; (Mac): Abra Visión general haciendo clic en el menú Apple y en “Acerca de este Mac”. La mayoría de los ordenadores con 8 GB de RAM adquiridos en los últimos 3 años cumplirán los requisitos mínimos.Necesitará una conexión a Internet de alta velocidad porque descargará archivos de hasta 4 Gb de tamaño.

Qué es el análisis de big data

En la antigüedad, gran parte del conocimiento registrado del mundo se encontraba en un solo lugar: la Biblioteca de Alejandría en Egipto. Casi todas las culturas e imperios de la época reconocían a la biblioteca como el epicentro de la erudición. Hoy, sin embargo, la información está cada vez más descentralizada. Los vastos depósitos de rollos de papiro de Alejandría podrían caber ahora en una sola unidad flash. En el siglo XXI, la información digital se crea, analiza y almacena a un ritmo asombroso. Pensemos que el 90% de los datos del mundo se han producido en sólo los dos últimos años. Esta explosión de información se conoce como “Big Data”, y está transformando completamente el mundo que nos rodea.

Los grandes datos son ya una parte integral de todos los sectores de la economía mundial, un factor de producción tan esencial como el capital físico y humano. Gran parte de nuestra actividad económica moderna simplemente no podría funcionar sin ellos. El principal motor del Big Data es la cantidad casi incalculable de datos transaccionales que producen las empresas, las instituciones financieras y los intermediarios en línea. Esto incluye billones de bytes de información sobre compradores, proveedores y operaciones de interés crítico para las empresas y los analistas financieros.

Ir arriba