Big data gestión y explotación de grandes volúmenes de datos

Inicio » Big data gestión y explotación de grandes volúmenes de datos

Revista de datos, información y gestión

En las últimas décadas, el uso de datos e información ha aumentado exponencialmente. Mientras que la recopilación de datos es una faceta esperada y, por tanto, normalizada de la vida, reforzada por los numerosos protocolos burocráticos a los que se adhiere la gente para vivir, trabajar y viajar, es profundamente diferente en las operaciones militares, donde el procesamiento de datos es la clave para lograr resultados eficaces. El abrumador volumen de datos, combinado con su complejidad, hace que cualquier toma de decisiones necesaria sea un proceso largo, prolongado y cíclico que afecta a las operaciones en curso. De hecho, el cerebro humano carece de la capacidad para gestionar la información en un plazo corto y encontrar la respuesta adecuada rápidamente. Por estas razones, la cuestión de los Big Data, relacionada con las nuevas tecnologías y las modernas operaciones multidominio, ha sido un área de atención crítica en los recientes debates de la OTAN. Las teorías actuales son incapaces de definir el concepto de Big Data de forma coherente o consistente, principalmente debido a la complejidad y ambigüedad de la idea1. El objetivo de este artículo es arrojar luz sobre el Big Data y sus posibles propósitos en la Inteligencia, Vigilancia y Reconocimiento (ISR) en términos de enfoque de gestión de datos.

¿Cómo de grande es el big data? ¿Cuáles son los problemas asociados al big data?

Procesamiento de grandes conjuntos de datos

Los grandes conjuntos de datos son un reto a la hora de procesarlos y darles sentido. Las tres “V” de los grandes datos son el volumen, la velocidad y la variedad. El volumen es la cantidad de datos, la velocidad es el ritmo de creación de nuevos datos y la variedad son los distintos formatos de los datos, como imágenes, vídeos y texto.

¿Qué volumen de datos se considera big data?

El término Big Data se refiere a un conjunto de datos que es demasiado grande o demasiado complejo para que los dispositivos informáticos ordinarios lo procesen. Como tal, es relativo a la potencia informática disponible en el mercado. Si nos fijamos en la historia reciente de los datos, en 1999 teníamos un total de 1,5 exabytes de datos y 1 gigabyte se consideraba big data.

¿Qué se entiende por gestión de big data?

La gestión de big data es la organización, administración y gobierno de grandes volúmenes de datos estructurados y no estructurados. … Este proceso requiere una cuidadosa clasificación de los datos para que, en última instancia, se puedan analizar conjuntos de datos más pequeños de forma rápida y productiva.

Análisis crítico de los retos del big data y los métodos de análisis

Los big data son una combinación de datos estructurados y no estructurados que son abundantes en cantidad, variedad y ritmo de generación, lo que da lugar a un complejo conjunto de datos que no puede ser almacenado, gestionado y procesado por las herramientas estadísticas convencionales.

Esta expresión describe el gran volumen de datos estructurados y no estructurados que se crea en una organización o empresa. Los datos crecen exponencialmente, lo que dificulta su gestión. Las herramientas tradicionales de gestión de datos son incapaces de almacenar o procesar los datos de forma eficiente, por lo que son necesarios nuevos sistemas y herramientas.

Se trata de datos que se caracterizan por su gran volumen, amplia variedad y alta velocidad. El volumen se refiere a la gran cantidad de datos que suelen llegar a los terabytes. Los datos no son sólo números o texto, sino que pueden incluir imágenes, vídeos, etc., por lo que son muy variados y los datos se generan rápidamente, lo que se denomina su alta velocidad.

Se trata de la agregación a gran escala de datos procedentes de programas y dispositivos cableados, utilizados con el fin de analizar los sistemas o el comportamiento de los usuarios; se caracteriza por su gran volumen, su amplia variedad, su velocidad (o velocidad de transferencia), su mayor variabilidad y su indeterminada veracidad.

¿Cuál es el impacto del big data?

Los big data cambiarán la forma de hacer negocios incluso de las empresas más pequeñas a medida que la recopilación e interpretación de datos sea más accesible. Constantemente surgen y mejoran tecnologías nuevas, innovadoras y rentables que hacen que cualquier organización pueda implantar sin problemas soluciones de big data.

¿Cuál es el principal problema de la gestión de datos?

En conclusión, cuando se trata de la gestión de datos, los dos problemas fundamentales son la mala calidad de los datos y la mala gobernanza de los mismos.

¿Es el big data un problema o una solución?

Los problemas de Big Data necesitan ser resueltos por la tecnología de computación en nube, mientras que los big data también pueden promover el uso práctico y la implementación de la tecnología de computación en nube. Existe una relación complementaria entre ambos.

Gartner big data

Editor JefeDr. Riad ShamsISSN online2631-8687ISSN print2631-86792 números al añoPrecio de suscripciónLa investigación de big data ha atraído una considerable atención académica. Sin embargo, la simplificación de la estructura de gestión de datos para generar una visión óptima a partir de grandes cantidades de datos es una preocupación constante de la administración. En este contexto, IJBDM fomenta la investigación en la intersección de la gestión estratégica y la analítica de big data para entender cómo se pueden gestionar sistemática y estratégicamente grandes cantidades de datos, con el fin de mejorar las implicaciones prácticas de los datos para la toma de decisiones de gestión, junto con el desarrollo socioeconómico.

¿Qué es el big data y por qué el big data?

La definición de big data es la de datos que contienen una mayor variedad, que llegan en volúmenes crecientes y con más velocidad. … En pocas palabras, los big data son conjuntos de datos más grandes y complejos, especialmente los procedentes de nuevas fuentes de datos. Estos conjuntos de datos son tan voluminosos que el software tradicional de procesamiento de datos no puede gestionarlos.

¿Qué es el big data? ¿Cuáles son las características del big data?

Hay tres características que definen los Big Data: volumen, variedad y velocidad. Juntas, estas características definen el “Big Data”.

¿Qué son los datos más grandes?

The Bigger Data es una organización sin ánimo de lucro (ONL) creada para ayudar a otras ONL a comprender mejor sus propios datos. Especializada en inteligencia empresarial/ciencia de datos, esta organización con sede en Montreal pretende combinar jóvenes talentos, profesionales y voluntarios para seguir ayudando a las ONL internacionales en su misión.

Gartner afirma que resolver el reto del “big data” implica algo más que gestionar volúmenes de datos

El enfoque de Thales se estructura en torno a tres temas estrechamente interconectados: Big data (gestión y almacenamiento de datos), Big Analytics (procesamiento, enriquecimiento y creación de valor) y Visual Analytics (explotación y visualización interactiva de los conjuntos de datos mediante algoritmos de análisis paralelizables y/o linealizables para garantizar la exhaustividad).

Si conocemos la estructura de los datos, se pueden utilizar procesos estadísticos para muestrear los conjuntos de datos y extraer conclusiones de una población más reducida sin necesidad de realizar un análisis exhaustivo de las cantidades de datos disponibles, a menudo importantes. Esto podría denominarse “Big Analytics por extensión” o análisis “basado en hipótesis”, porque ciertos aspectos de la población analizada (subclases, distribuciones subyacentes[1], etc.) se suponen ciertos desde el principio, lo que hace que las operaciones de cálculo sean mucho más sencillas. Se trata de una extensión del enfoque de la minería de datos de los años 90-2000.

Si no sabemos exactamente cómo están estructurados los datos -como suele ocurrir con las grandes redes de distribución, las redes de comunicación y las redes sociales, por ejemplo-, es casi imposible hacer suposiciones antes de empezar el análisis. En estos casos, se requiere un análisis exhaustivo, lo que significa que los algoritmos utilizados deben paralelizarse o linealizarse para alcanzar el nivel de escalabilidad necesario para manejar volúmenes de datos cada vez mayores. Es lo que se denomina un enfoque “orientado a los datos”.

Ir arriba