¿Qué es exactamente Big Data? | lagranepoca.com

¿Qué es exactamente Big Data?

Puede entenderse como las grandes cantidades de datos recogidos por empresas, que son procesados para "hacerse una idea de las tendencias de negocios en los usuarios, prevenir enfermedades, combatir el delito, etc.".
Por Kannan Sankaran - La Gran Época
Jue, 22 Ago 2013 15:56 +0000
Visitantes escuchan un discurso sobre “cloud computing” y respaldos en el CeBit,
Visitantes escuchan un discurso sobre “cloud computing” y respaldos en el CeBit, la feria más grande de IT (Tecnologías de Información), el 3 de Marzo del 2011 en Hannover, Alemania Central. (Johannes Eisele/AFP/Getty Images)

Más información

No solo mueve la información de izquierda a derecha y de atrás hacia adelante sino hacia arriba y hacia abajo también, usando el "spin" de un electrón como señal
Personal del FBI investigando casos en Ohio, 7 de mayo de 2013. (EMMANUEL DUNAND
Microsoft, Yahoo, Google, Facebook, PalTalk, AOL, Skype, YouTube y Apple, niegan la existencia de un programa secreto

Vivimos en una época en que casi todo el mundo está participando en la creación de una gran cantidad de datos todos los días, desde colaborar con redes sociales como Twitter y Facebook, ver videos en sitios multimedia como YouTube y Vimeo, como realizar búsquedas con Google y Bing. ¿Qué pasa con estos datos? ¿Dónde se almacenan? ¿Cómo se vuelven relevantes? Comprender sobre Big Data nos da la respuesta.

Para entender el Big Data, es esencial saber en primer lugar sobre las tres Vs de los datos: Volumen, Variedad y Velocidad, como lo indica Doug Laney de Gartner Inc. en un informe de febrero del 2001:

1) Volumen - Se refiere al volumen de datos que son almacenados todos los días por compañías en sus centros de datos. Según StatisticBrain.com, la asombrosa cifra de 58 millones de tweets que son enviados cada día son almacenados en Twitter.

2) Variedad - Esto se refiere a la recolección de datos en varios formatos estructurados y no estructurados, como sensores de GPS, imágenes, vídeos y blogs. Mi teléfono personal Samsung Galaxy Note 2 cuenta con numerosos sensores que también están contribuyendo a esto.

3) Velocidad - Se refiere a la velocidad con la cual los datos son analizados por las compañías para proporcionar una mejor experiencia al usuario. Si no soy capaz de obtener resultados de búsqueda en Google en unos pocos segundos, me impaciento.

Desde entonces, muchas más Vs incluyendo Veracidad, Vigencia, y Volatilidad han sido añadidas por numerosas empresas, ya que comenzaron a utilizar tecnologías de Big data.

Big data puede entenderse como las grandes cantidades de datos recogidos por empresas, que son procesados para "hacerse una idea de las tendencias de negocios en los usuarios, prevenir enfermedades, combatir el delito, etc.".  Si se gestiona bien, "los datos pueden ser utilizados para abrir nuevas fuentes económicas, ofrecer nuevas ideas en la ciencia y hacer que los gobiernos rindan cuentas", como dice The Economist en “Datos, datos por todas partes".

Compañías utilizando Big data

El enorme potencial en la exploración de grandes cantidades de datos para uso comercial ha impulsado a varias industrias hacer su propio camino en el uso de dichas tecnologías.

Apixio, una compañía con sede en San Mateo, California, utiliza los grandes volúmenes de datos para organizar grandes cantidades de registros de pacientes de diversas fuentes (Variedad) y proveer a los prestadores de atención médica una manera significativa para buscar la información.

Knewton, una empresa de aprendizaje adaptativo con base en la Ciudad de Nueva York, está asociada con empresas pioneras de aprendizaje, editores, proveedores de contenido, e instituciones educativas, utilizando las tecnologías de Big data para mejorar las experiencias educativas de cada estudiante.

Kapow Software, con sede en Palo Alto, California, es un líder en proveer aplicaciones inteligentes para procesos a empresas, para permitirles aumentar su capacidad de respuesta a los clientes (Velocidad).

Compañías como Netflix y Amazon utilizan algoritmos sofisticados de Big data para proporcionar recomendaciones de películas y libros a sus usuarios.

Tecnología / Ciencia de Big Data

La semilla del procesamiento de datos a gran escala fue sembrada en el mundo de la tecnología por el gigante de búsquedas Google en 2004, cuando publicaron un trabajo de investigación sobre marcos arquitectónicos llamado MapReduce, que permitía que grandes cantidades de datos fueran divididos para su procesamiento en paralelo por varias máquinas llamadas Mappers en la fase de Mapa, y luego que fuesen combinados entre sí por varias otras máquinas llamadas Reducers en la fase Reduce. El marco fue tan exitoso, que un proyecto de código abierto llamado Hadoop fue creado en 2005, y es ahora uno de los productos de software más populares para hacer tareas intensivas con grandes cantidades de datos.

En 2006 Amazon jugó un papel clave en la prestación de servicios informáticos a distancia a bajos precios a clientes externos a través de Internet (la nube) mediante la creación de Amazon Web Services, que también ha tenido un gran éxito.

Como los hardwares comenzaron ser más económicos, y una gran cantidad de softwares gratuitos estaban disponibles, numerosas compañías nuevas probaron suerte en la prestación de servicios de Big data.

El  procesamiento de grandes cantidades de datos y su análisis se basa en la investigación en varios campos, incluyendo la informática, estadísticas, matemáticas, ingeniería de datos, reconocimiento de patrones, visualización, inteligencia artificial, aprendizaje automático y computación de alto rendimiento. El término ciencia de datos se está utilizando cada vez más para referirse al análisis de datos utilizando una combinación de los campos anteriores.

Ha surgido un nuevo rol en el mundo de los negocios con el nombre de científico de datos. El término fue acuñado originalmente por DJ Patil y Jeff Hammerbacher, quienes formaron los primeros equipos formales de Ciencias de Datos en Facebook y LinkedIn, y publicaron un informe al respecto en O'Reilly Radar.

Dudas sobre la confidencialidad concerniente a Big data

Teniendo en cuenta los avances en informática utilizando tecnologías de Big data también es importante examinar las implicaciones respecto a la privacidad y la recopilación de datos.

El programa de vigilancia de la NSA PRISM, filtrado por el ex -NSA Edward Snowden y publicado por The Guardian y The Washington Post, utiliza tecnologías de Big data para recopilar información acerca de las personas, incluyendo sus correos electrónicos, historial de búsqueda, y chats en vivo.

En una conferencia de prensa el 9 de agosto, el presidente Obama reconoció que "el espionaje interno ha preocupado a los estadounidenses y ha dañado la imagen del país en el exterior”. Pero él lo llamó “una herramienta fundamental contra el terrorismo".

El futuro de Big data

El futuro de Big data parece ser brillante, con un gran impacto en muchas áreas de la vida humana. En un estudio reciente de McKinsey & Company, una firma de consultoría de gestión, afirmó que el aumento del uso de la analítica de grandes cantidades de datos podría, para el 2020, "aumentar el PIB anual en el comercio minorista y en la fabricación hasta en 325 mil millones de dólares y ahorrar tanto como 285 mil millones de dólares en el costo de la atención de salud y en servicios públicos".

Para preparar a los futuros profesionales en Big data, varias universidades en todo los EE.UU. están comenzando a ofrecer programas de postgrado y certificados profesionales en Ciencias de Datos. Plataformas Mooc como Coursera y EDX ya están ofreciendo cursos de Big data.

Rick Smolan, legendario fotógrafo y autor del libro "El Rostro Humano de Big Data", dice que estamos en la era del hombre de las cavernas en lo que respecta a los grandes volúmenes de datos y que influiría en todos los aspectos de la vida en la tierra. Vea la entrevista de THNKR "¿Qué dice Big Data de ti?".

La Gran Época se publica en 35 países y en 21 idiomas.
Síguenos en Facebook, Twitter o Google +

comments powered by Disqus