Las bases del big data

Inicio » Las bases del big data

Las bases del big data

análisis de big data

Hoy en día, las organizaciones de todos los tamaños poseen enormes cantidades de datos procedentes de todos los aspectos de sus operaciones.  Las empresas utilizan el big data acumulado en sus sistemas para mejorar las operaciones, ofrecer un mejor servicio al cliente, crear campañas de marketing personalizadas basadas en las preferencias específicas de los clientes y, en definitiva, aumentar la rentabilidad. Las empresas que utilizan el big data de la mejor manera posible tienen el potencial de superar a las demás. Como el big data viene acompañado de un puñado de grandes beneficios, vamos a entrar en su fondo y a conocer todos los fundamentos de la tecnología.

El big data representa los grandes y diversos conjuntos de información que crecen a un ritmo exponencial. Por desgracia, el big data es tan grande que ninguna de las herramientas tradicionales de gestión de datos puede almacenarlo o procesarlo de forma eficiente. Más que el volumen de datos, lo que importa es la forma en que las organizaciones utilizan los datos. Los big data pueden analizarse para obtener información que permita tomar mejores decisiones y realizar movimientos empresariales estratégicos. Los seres humanos producen 2 quintillones de datos cada día. Sólo la Bolsa de Nueva York crea alrededor de un terabyte de nuevos datos comerciales al día. Las plataformas de medios sociales también contribuyen en gran medida a la superación de los datos. Además, las compañías aéreas también generan muchos petabytes de datos. A principios de la década de 2000, Doug Laney, un analista del sector, enumeró las tres V que definen las características de los grandes datos.

5 v’s de big data

Cantidades, caracteres o símbolos sobre los que un ordenador realiza operaciones, que pueden almacenarse y transmitirse en forma de señales eléctricas y registrarse en medios de grabación magnéticos, ópticos o mecánicos.

El Big Data es una colección de datos de gran volumen que crece exponencialmente con el tiempo. Es un dato con un tamaño y una complejidad tan grandes que ninguna de las herramientas tradicionales de gestión de datos puede almacenarlo o procesarlo de forma eficiente. Big data es también un dato pero de enorme tamaño.

Cualquier dato que pueda ser almacenado, accedido y procesado en forma de formato fijo se denomina dato «estructurado». A lo largo del tiempo, el talento de la informática ha logrado un mayor éxito en el desarrollo de técnicas para trabajar con este tipo de datos (cuyo formato se conoce de antemano) y también para obtener valor de ellos. Sin embargo, hoy en día, estamos previendo problemas cuando el tamaño de tales datos crece en gran medida, los tamaños típicos están siendo en la rabia de múltiples zettabytes.

Todos los datos con forma o estructura desconocida se clasifican como datos no estructurados. Además de su enorme tamaño, los datos no estructurados plantean múltiples retos en cuanto a su procesamiento para obtener valor de ellos. Un ejemplo típico de datos no estructurados es una fuente de datos heterogénea que contiene una combinación de archivos de texto simple, imágenes, vídeos, etc. Hoy en día, las organizaciones disponen de una gran cantidad de datos, pero desgraciadamente no saben cómo sacarles valor, ya que estos datos están en su forma bruta o no estructurada.

valor de los big data

Los big data (texto, números, fotos, etc.) pueden clasificarse como estructurados, semiestructurados o no estructurados. Los big data pueden definirse además por características como la velocidad, el volumen, la variedad, el valor y la veracidad.

Existe una fuerte necesidad de dar sentido a estos datos y de identificar las ideas procesables. El campo de los macrodatos ha crecido en importancia en los últimos años con la creciente demanda de extracción sistemática de información de conjuntos de datos complejos.

Sin embargo, lo importante no es la cantidad de datos. Lo que importa es cómo las organizaciones utilizan los datos. El análisis de grandes cantidades de datos puede dar lugar a conocimientos que se traducen en decisiones mejor informadas y prácticas empresariales inteligentes.

1881 – Un siglo después de que la Oficina del Censo de EE.UU. empezara a registrar el crecimiento de la población en tarjetas perforadas, se inventó una «máquina de tabulación» para procesar la información de las tarjetas perforadas mucho más rápido que el procesamiento manual. Este fue uno de los primeros casos de sobrecarga de datos de la historia.

1970 – Los laboratorios de investigación de IBM publican el primer documento sobre bases de datos relacionales, en el que se explica cómo se puede acceder a la información de grandes bases de datos de forma más eficiente sin conocer su ubicación o estructura.

uso de big data

El análisis de big data ayuda a las empresas a obtener información de los enormes recursos de datos actuales. Las personas, las organizaciones y las máquinas producen ahora cantidades masivas de datos. Las redes sociales, las aplicaciones en la nube y los datos de los sensores de las máquinas son sólo algunos ejemplos. Los datos masivos pueden examinarse para ver las tendencias, oportunidades y riesgos de los datos masivos, utilizando herramientas de análisis de datos masivos.

Hasta hace poco, los datos eran producidos principalmente por personas que trabajaban en organizaciones. Los datos solían tener una estructura específica. Era la base de los registros de dinero pagado, entregas realizadas, empleados contratados, etc. Estos datos siguen siendo vitales para las empresas. Ahora, los conceptos de big data significan que hay que gestionar el procesamiento de los datos:

Los big data pueden ser estructurados, pero de gran volumen, como los datos históricos de transacciones de pago. Puede ser semiestructurado, como el XML y otros contenidos definidos por el usuario. También puede ser totalmente desestructurado. Un ejemplo es el texto libre utilizado en las redes sociales.

Cuantos más datos tenga, más posibilidades tendrá de obtener información útil. Sin embargo, el tamaño de los big data suele imposibilitar el uso de métodos de cálculo manuales o incluso convencionales (más información aquí: big data y Hadoop). En su lugar, el análisis de big data se basa en:

Scroll al inicio
Ir arriba