Conecta con nosotros

Noticias

Hadoop ya domina la escena del Big Data

Publicado

el

hadoop+elephant_rgb

Aunque el Big Data está hoy más de actualidad que nunca, no es precisamente un fenómeno nuevo. Durante décadas, las empresas han intentado responder con mayor o menor éxito al desafío que supone gestionar enormes cantidades de datos, con el objetivo de optimizar sus procesos de negocio, mejorar la gestión de clientes y más.

Hasta hace no tantos años, la inmensa mayoría de herramientas que se enfocaban a la gestión de grandes volúmenes de datos eran propietarias, normalmente con unos costes asociados que dificultaban la escalabilidad de las soluciones, que acababan orientándose a proyectos muy concretos.

Sin embargo si hoy en día el Big Data es precisamente tan BIG, es sobre todo porque las empresas tienen a disposición un conjunto de herramientas open-source que han permitido que el coste de almacenamiento y gestión de grandes cantidades de datos haya disminuido espectacularmente. Y aquí las bases de datos NoSQL y muy especialmente las herramientas Hadoop, se han convertido en los grandes protagonistas.

Y es que gracias a tecnologías abiertas como Hadoop, por primera vez son las empresas las que se convierten en protagonistas del Big Data y no los vendedores de soluciones cerradas. Más bien al contrario, son las grandes empresas como HP o Dell las que se preocupan muy mucho de que los data centers que vendan sean compatibles o estén preconfigurados para la implementación de tecnologías abiertas, que en casos como Hadoop se convierten en commodities.

¿Quién puede competir con Hadoop?

Entre las tecnologías Open Source que están triunfando en el centro de datos, Hadoop representa probablemente el mayor caso de éxito. No sólo porque ofrece buenas herramientas de gestión de datos, sino sobre todo por su tremenda capacidad para disminuir los costes de almacenar y analizar enormes cantidades de datos.

El éxito de Hadoop por supuesto, ha perjudicado a las empresas desarrolladoras de soluciones propietarias, que solían asociarse no solo a la compra de una aplicación para la gestión de los datos, sino también a la de un hardware que en el mejor de los casos podríamos tachar de caro.

A esto hay que unir que actualmente el 95% de los datos que produce la empresa, son de naturaleza no estructurada, difícil de gestionar por las antiguas soluciones relacionales propietarias y en cambio, un juego de niños para Hadoop y las bases de datos NoSQL, convirtiéndose de esta forma en prácticamente la única solución que tiene hoy en día sentido en la empresa que se toma el Big Data en serio.

Y eso a pesar de que Hadoop no es una solución sencilla de implementar. En este sentido el 26% de las empresas asegura que es la dificultad que supone lidiar con algunos de los aspectos más técnicos de esta solución lo que está retrasando su adopción. Pero a pesar de la dificultad, la adopción de Hadoop crece a un ritmo de un 60% al año.

Lo más curioso es que si bien este fenómeno está produciendo un efecto deflacionario en Oracle y otras empresas que venden soluciones propietarias, o a que las empresas por el mismo motivo están invirtiendo en hardware mucho más barato, lo cierto es que el mercado del Big Data está creciendo y mucho.

Tanto es así, que según la consultora Wikibon, el sector del Big Data generará beneficios de 3.500 millones en 2017, a lo que habría sumar el beneficio que dejarán de ganar muchas de las soluciones propietarias que siguen intentando competir en este mercado.

 

Lo más leído