¿qué es analítica y big data?

Inicio » ¿qué es analítica y big data?

¿qué es analítica y big data?

Big data pdf

Big Data es hoy la palabra de moda, y con la cantidad de datos que generan cada minuto los consumidores y/o las empresas de todo el mundo, se puede encontrar un enorme valor en el análisis de Big Data.

El análisis de Big Data es un proceso utilizado para extraer información significativa, como patrones ocultos, correlaciones desconocidas, tendencias de mercado y preferencias de los clientes. La analítica de Big Data ofrece varias ventajas: puede utilizarse para mejorar la toma de decisiones y prevenir actividades fraudulentas, entre otras cosas.

Tomemos como ejemplo la plataforma de streaming de música Spotify.  La empresa tiene casi 96 millones de usuarios que generan una enorme cantidad de datos cada día. A través de esta información, la plataforma basada en la nube genera automáticamente sugerencias de canciones -a través de un motor de recomendación inteligente- basadas en los «me gusta», los «compartidos», el historial de búsqueda, etc. Lo que permite esto son las técnicas, herramientas y marcos de trabajo que son el resultado de la analítica de Big Data.

Si eres usuario de Spotify, seguro que te has topado con la sección de recomendaciones principales, que se basa en tus gustos, tu historial y otras cosas. Utilizar un motor de recomendación que aprovecha las herramientas de filtrado de datos que recogen datos y luego los filtran mediante algoritmos funciona. Esto es lo que hace Spotify.

El valor de los big data

El análisis de big data ha encontrado varias aplicaciones en diferentes industrias. Ha permitido a las empresas conocer a sus clientes mejor de lo que se conocen a sí mismas, demostrando que la técnica es extremadamente ventajosa.

Big Data es un término que se utiliza para conjuntos de datos cuyo tamaño o tipo está más allá de la capacidad de captura, gestión y procesamiento de las bases de datos rotativas tradicionales. La base de datos necesaria para procesar los big data debe tener una baja latencia que las bases de datos tradicionales no tienen.

«Los big data son activos de información de gran volumen, alta velocidad y/o alta variedad que exigen formas rentables e innovadoras de procesamiento de la información que permitan mejorar la visión, la toma de decisiones y la automatización de los procesos».

Las empresas utilizan esta herramienta de análisis para extraer información significativa, como patrones ocultos, correlaciones desconocidas, tendencias del mercado y preferencias de los clientes, a partir de una pila de datos brutos y no estructurados.

La analítica descriptiva proporciona información sobre lo que ha ocurrido en el pasado y con las tendencias para profundizar en ellas. Esto ayuda a crear informes como los ingresos de una empresa, los beneficios, las ventas, etc.

Uso de big data

Antes de la invención de Hadoop, las tecnologías en las que se basan los sistemas modernos de almacenamiento y computación eran relativamente básicas, lo que limitaba a las empresas sobre todo al análisis de «datos pequeños». Sin embargo, incluso esta forma relativamente básica de análisis podía resultar difícil, especialmente la integración de nuevas fuentes de datos.

Con la analítica de datos tradicional, que se basa en el uso de bases de datos relacionales (como las bases de datos SQL), formadas por tablas de datos estructurados, cada byte de datos en bruto debe formatearse de una manera específica antes de poder introducirse en la base de datos para su análisis. Este proceso, a menudo largo, conocido como extraer, transformar y cargar (o ETL) es necesario para cada nueva fuente de datos. El principal problema de este proceso y enfoque en tres partes es que requiere mucho tiempo y trabajo, a veces hasta 18 meses para que los científicos de datos y los ingenieros lo implementen o modifiquen.

Sin embargo, una vez que los datos estaban dentro de la base de datos, en la mayoría de los casos era bastante fácil para los analistas de datos consultarlos y analizarlos. Pero entonces llegaron Internet, el comercio electrónico, las redes sociales, los dispositivos móviles, la automatización del marketing, los dispositivos de la Internet de las cosas (IoT), etc., y el tamaño, el volumen y la complejidad de los datos en bruto se convirtieron en demasiado para que todas las instituciones, salvo un puñado de ellas, pudieran analizarlos en el curso normal de su actividad.

Definición de análisis de big data

Big Data es hoy en día la palabra de moda, y con la cantidad de datos que generan cada minuto los consumidores y/o las empresas de todo el mundo, se puede encontrar un enorme valor en el análisis de Big Data.

El análisis de Big Data es un proceso utilizado para extraer información significativa, como patrones ocultos, correlaciones desconocidas, tendencias de mercado y preferencias de los clientes. La analítica de Big Data ofrece varias ventajas: puede utilizarse para mejorar la toma de decisiones y prevenir actividades fraudulentas, entre otras cosas.

Tomemos como ejemplo la plataforma de streaming de música Spotify.  La empresa tiene casi 96 millones de usuarios que generan una enorme cantidad de datos cada día. A través de esta información, la plataforma basada en la nube genera automáticamente sugerencias de canciones -a través de un motor de recomendación inteligente- basadas en los «me gusta», los «compartidos», el historial de búsqueda, etc. Lo que permite esto son las técnicas, herramientas y marcos de trabajo que son el resultado de la analítica de Big Data.

Si eres usuario de Spotify, seguro que te has topado con la sección de recomendaciones principales, que se basa en tus gustos, tu historial y otras cosas. Utilizar un motor de recomendación que aprovecha las herramientas de filtrado de datos que recogen datos y luego los filtran mediante algoritmos funciona. Esto es lo que hace Spotify.

Scroll al inicio
Ir arriba