¿Qué factores han conducido a la era del Big Data?

Inicio » ¿Qué factores han conducido a la era del Big Data?

El objetivo de los big data

En los últimos cinco años, se ha comprendido cada vez mejor el papel que pueden desempeñar los macrodatos a la hora de proporcionar información valiosísima a una organización, revelando sus puntos fuertes y débiles y permitiendo a las empresas mejorar sus prácticas. Los macrodatos no tienen una agenda, no juzgan ni son partidistas: simplemente revelan una instantánea de la actividad.

Sin embargo, aunque muchas organizaciones comprenden la importancia de los datos, muy pocas ven todavía su impacto. Un nuevo estudio titulado Broken Links: Why analytics have yet to pay off (Enlaces rotos: por qué la analítica aún no ha dado sus frutos) afirma que el 70% de los ejecutivos de las empresas reconocen la importancia de la analítica de ventas y marketing, pero sólo el 2% afirma que su analítica ha logrado un impacto amplio y positivo. Este hallazgo apunta a la necesidad de que el Big Data sea manejado por empresas subcontratadas que se especialicen en el análisis de los datos generados por las empresas y que puedan ofrecer perspectivas reales y procesables. En el prólogo de su informe, Dan Weatherill escribe que “Nuestra encuesta y las entrevistas de seguimiento realizadas a casi 450 altos ejecutivos con sede en Estados Unidos de sectores como el farmacéutico, los dispositivos médicos, la informática, los servicios financieros, las telecomunicaciones y los viajes y la hostelería confirmaron una cosa que ya sabíamos: pocas organizaciones han sido capaces de acertar y de generar el tipo de impacto empresarial que esperaban”.

¿Cuáles son algunos de los factores que han contribuido al crecimiento del big data?

Algunos de los principales impulsores del crecimiento del big data son los enormes volúmenes de datos y el espacio tecnológico futurista. Además, se espera que los servicios de desarrollo de software como CodeLantic sigan innovando y desarrollando datos no organizados.

¿Qué ha llevado a la aparición del big data?

Teniendo esto en cuenta, una parte importante de lo que ha creado el big data es la idea que conocemos como Ley de Moore, o la duplicación de transistores en un circuito cada dos años, creando dispositivos de hardware y almacenamiento de datos cada vez más pequeños (así como microprocesadores más potentes).

¿Cuáles son los tres factores que constituyen los nuevos datos?

Brian Gentile: La nueva cosa nueva. La teoría económica clásica describe tres factores primarios, o insumos, para la producción de cualquier bien o servicio: tierra, trabajo y capital. Estos factores facilitan la producción, pero no pasan a formar parte del producto final (como lo haría una materia prima).

Tipos de big data

ResumenLas catástrofes han sido durante mucho tiempo un azote para la humanidad. Con los avances tecnológicos (en términos de computación, comunicaciones y capacidad de procesar y analizar big data), nuestra capacidad de respuesta a las catástrofes se encuentra en un punto de inflexión. Existe un gran optimismo en cuanto a la posibilidad de aprovechar las herramientas de big data para procesar grandes cantidades de datos relacionados con las crisis (en forma de datos generados por los usuarios, además de los datos humanitarios tradicionales), con el fin de proporcionar una visión de la situación que cambia rápidamente y ayudar a impulsar una respuesta eficaz a las catástrofes. Este artículo presenta la historia y el futuro de la analítica de grandes datos de crisis, junto con un debate sobre su promesa, las tecnologías que la hacen posible, los retos y los escollos.

Existe un gran interés por utilizar técnicas basadas en la IA del campo de la visión por ordenador para el análisis automatizado mediante imágenes aéreas (a través de vehículos aéreos no tripulados o satélites). Este interés ha recibido un nuevo impulso gracias a la iniciativa “Imagery to the Crowd” de la Unidad de Información Humanitaria del Departamento de Estado de EE.UU. (Map Give: imagery to the crowd); esta iniciativa pretende democratizar el acceso a las imágenes de satélite comerciales de alta resolución adquiridas por el gobierno de EE.UU. en un formato que los voluntarios públicos puedan cartografiar fácilmente en una plataforma abierta como OpenStreetMap. Hay varios proyectos centrados en el análisis automatizado de imágenes globales de satélite de alta resolución (por ejemplo, los proyectos sobre este tema del Centro Común de Investigación (CCI) de la Comisión Europea).

¿Cuándo empezaron a surgir los big data?

Desde que comenzó el ciclo de “Big Data” en 2010, hemos avanzado mucho en tecnología. Ahora tenemos proveedores de la nube, como Amazon, Microsoft y Google, que permiten capacidades con las que antes solo se podía soñar.

¿Cuándo empezó la revolución del big data?

En 2005, Yahoo utilizó Hadoop para procesar petabytes de datos, que ahora es de código abierto gracias a la Apache Software Foundation. Muchas empresas utilizan ahora Hadoop para procesar Big Data. Así que podemos decir que 2005 es el año en que la revolución del Big Data ha comenzado de verdad y el resto, dicen, es historia.

¿Cuáles son las características de los big data?

Hay tres características que definen los Big Data: volumen, variedad y velocidad. Juntas, estas características definen el “Big Data”.

Por qué el big data y de dónde viene

Nota del editor: Navin Chaddha es director general de Mayfield, una empresa de capital riesgo en fase inicial. Algunas de las empresas que defiende actualmente son Gigya, Elastica, Lyft, MapR y Poshmark.

A medida que nos adentramos en la segunda mitad de 2014, sería justo decir que el big data se ha convertido en la corriente principal, atrayendo libros de mesa de café, múltiples panoramas industriales, aplicaciones de consumo y grandes cantidades de financiación.  Habiendo visto muchos ciclos tecnológicos durante nuestros 45 años en el capital riesgo -incluyendo el nacimiento de la era del PC, la transición a la computación cliente-servidor y luego a la computación basada en la web, y la aparición de la nube y los modelos SaaS- tenemos un reconocimiento de patrones sobre lo que se necesita para que una empresa pase de ser una startup a ser líder.

Una de las formas más claras de ver si una plataforma tecnológica se está afianzando es observar la rapidez con la que crece el ecosistema a su alrededor. Por ejemplo, en la era del SaaS, Salesforce se convirtió rápidamente en un gigante gracias a su amplio ecosistema. El big data no será diferente.

¿Cuáles son las nuevas tendencias en big data?

Eche un vistazo a algunas formas en las que el Big Data desencadena la transformación digital: El análisis de Big Data ofrece información detallada sobre grupos específicos de clientes. El análisis de Big Data permite ofrecer servicios altamente personalizados a segmentos específicos del mercado. Implementar predicciones de datos futuros para que las empresas estén más alineadas con el cliente…

¿Cuáles son las últimas tendencias en big data?

Una de las mayores tendencias de big data es el uso de la analítica de big data para impulsar la automatización de la IA/ML, tanto para las necesidades de los consumidores como para las operaciones internas. Sin la profundidad y la amplitud del big data, estas herramientas automatizadas no tendrían los datos de formación necesarios para sustituir las acciones humanas en una empresa.

¿Qué factores se tienen en cuenta antes de adoptar la tecnología de big data?

Ya sean tendencias de ventas, de empleados o de mercado. El Big Data ayuda a las empresas a entender a sus clientes, a sus empleados y a todo lo demás. Esto les ayuda a que su negocio sea más específico y eficiente. Hay cuatro cosas que hay que tener en cuenta cuando se trata de Big Data: Volumen, Velocidad, Variedad y Veracidad.

Sistema de big data

El uso actual del término big data tiende a referirse al uso de la analítica predictiva, la analítica del comportamiento del usuario o algunos otros métodos avanzados de análisis de datos que extraen valor de los big data, y rara vez a un tamaño concreto del conjunto de datos. “Hay pocas dudas de que las cantidades de datos disponibles ahora son realmente grandes, pero esa no es la característica más relevante de este nuevo ecosistema de datos”[4].

El tamaño y el número de conjuntos de datos disponibles han crecido rápidamente a medida que los datos son recogidos por dispositivos como los móviles, los baratos y numerosos dispositivos de detección de información del Internet de las cosas, los aéreos (teledetección), los registros de software, las cámaras, los micrófonos, los lectores de identificación por radiofrecuencia (RFID) y las redes de sensores inalámbricos. [8][9] La capacidad tecnológica per cápita del mundo para almacenar información se ha duplicado aproximadamente cada 40 meses desde la década de 1980;[10] en 2012 [actualización], cada día se generaban 2,5 exabytes (2,5×260 bytes) de datos[11] Según la predicción de un informe de IDC, se preveía que el volumen mundial de datos crecería exponencialmente de 4,4 zettabytes a 44 zettabytes entre 2013 y 2020. Para 2025, IDC predice que habrá 163 zettabytes de datos[12]. Una cuestión que se plantea a las grandes empresas es determinar quién debe ser el propietario de las iniciativas de big data que afectan a toda la organización[13].

Ir arriba