¿cuando hablamos de big data nos referimos a?

Inicio » ¿cuando hablamos de big data nos referimos a?

¿cuando hablamos de big data nos referimos a?

Ejemplos de big data

Los big data son una combinación de datos estructurados, semiestructurados y no estructurados recogidos por las organizaciones que pueden ser extraídos en busca de información y utilizados en proyectos de aprendizaje automático, modelado predictivo y otras aplicaciones de análisis avanzado.

Los sistemas que procesan y almacenan big data se han convertido en un componente común de las arquitecturas de gestión de datos en las organizaciones, junto con herramientas que apoyan los usos de análisis de big data. Los big data suelen caracterizarse por las tres V:

Estas características fueron identificadas por primera vez en 2001 por Doug Laney, entonces analista de la consultora Meta Group Inc.; Gartner las popularizó aún más tras adquirir Meta Group en 2005. Más recientemente, se han añadido otras V a diferentes descripciones de big data, como veracidad, valor y variabilidad.

Las empresas utilizan los big data en sus sistemas para mejorar las operaciones, ofrecer un mejor servicio al cliente, crear campañas de marketing personalizadas y emprender otras acciones que, en última instancia, pueden aumentar los ingresos y los beneficios. Las empresas que lo utilizan eficazmente tienen una ventaja competitiva potencial sobre las que no lo hacen, ya que son capaces de tomar decisiones empresariales más rápidas y mejor informadas.

Características de los big data

El uso actual del término big data tiende a referirse al uso de la analítica predictiva, la analítica del comportamiento del usuario o algunos otros métodos avanzados de análisis de datos que extraen valor de los big data, y rara vez a un tamaño concreto del conjunto de datos. «Hay pocas dudas de que las cantidades de datos disponibles ahora son realmente grandes, pero esa no es la característica más relevante de este nuevo ecosistema de datos»[4].

El tamaño y el número de conjuntos de datos disponibles han crecido rápidamente a medida que los datos son recogidos por dispositivos como los móviles, los baratos y numerosos dispositivos de detección de información del Internet de las cosas, los aéreos (teledetección), los registros de software, las cámaras, los micrófonos, los lectores de identificación por radiofrecuencia (RFID) y las redes de sensores inalámbricos. [8][9] La capacidad tecnológica per cápita del mundo para almacenar información se ha duplicado aproximadamente cada 40 meses desde la década de 1980;[10] en 2012 [actualización], cada día se generaban 2,5 exabytes (2,5×260 bytes) de datos[11] Según la predicción de un informe de IDC, se preveía que el volumen mundial de datos crecería exponencialmente de 4,4 zettabytes a 44 zettabytes entre 2013 y 2020. Para 2025, IDC predice que habrá 163 zettabytes de datos[12]. Una cuestión para las grandes empresas es determinar quién debe ser el propietario de las iniciativas de big data que afectan a toda la organización[13].

Big data ibm

Big data es un término que describe los grandes volúmenes de datos difíciles de gestionar, tanto estructurados como no estructurados, que inundan las empresas en su día a día. Pero lo importante no es sólo el tipo o la cantidad de datos, sino lo que las organizaciones hacen con ellos. Los grandes datos pueden analizarse para obtener información que mejore las decisiones y dé confianza para tomar medidas empresariales estratégicas.

El término «big data» se refiere a los datos que son tan grandes, rápidos o complejos que son difíciles o imposibles de procesar con los métodos tradicionales. El acto de acceder y almacenar grandes cantidades de información para su análisis existe desde hace mucho tiempo. Pero el concepto de big data cobró impulso a principios de la década de 2000, cuando el analista de la industria Doug Laney articuló la definición de big data, que ahora es la corriente principal, como las tres V:

Volumen.  Las organizaciones recopilan datos de una gran variedad de fuentes, como transacciones, dispositivos inteligentes (IoT), equipos industriales, vídeos, imágenes, audio, redes sociales y mucho más. En el pasado, almacenar todos esos datos habría sido demasiado costoso, pero el almacenamiento más barato mediante lagos de datos, Hadoop y la nube ha aliviado la carga.

Cómo funcionan los big data

Cantidades, caracteres o símbolos sobre los que un ordenador realiza operaciones, que pueden almacenarse y transmitirse en forma de señales eléctricas y registrarse en medios de grabación magnéticos, ópticos o mecánicos.

El Big Data es una colección de datos de gran volumen que crece exponencialmente con el tiempo. Es un dato con un tamaño y una complejidad tan grandes que ninguna de las herramientas tradicionales de gestión de datos puede almacenarlo o procesarlo de forma eficiente. Big data es también un dato pero de enorme tamaño.

Cualquier dato que pueda ser almacenado, accedido y procesado en forma de formato fijo se denomina dato «estructurado». A lo largo del tiempo, el talento de la informática ha logrado un mayor éxito en el desarrollo de técnicas para trabajar con este tipo de datos (cuyo formato se conoce de antemano) y también para obtener valor de ellos. Sin embargo, hoy en día, estamos previendo problemas cuando el tamaño de tales datos crece en gran medida, los tamaños típicos están siendo en la rabia de múltiples zettabytes.

Todos los datos con forma o estructura desconocida se clasifican como datos no estructurados. Además de su enorme tamaño, los datos no estructurados plantean múltiples retos en cuanto a su procesamiento para obtener valor de ellos. Un ejemplo típico de datos no estructurados es una fuente de datos heterogénea que contiene una combinación de archivos de texto simple, imágenes, vídeos, etc. Hoy en día, las organizaciones disponen de una gran cantidad de datos, pero desgraciadamente no saben cómo sacarles valor, ya que estos datos están en su forma bruta o no estructurada.

Scroll al inicio
Ir arriba