Ingeniero técnico en Informática y doctor en Ciencias Matemáticas. Profesor de la Facultad de Informática de la Universidad Complutense de Madrid con 25 años de experiencia en bases de datos y gestión de la información. También es autor de más de cien publicaciones científicas y de varios libros sobre lenguajes de programación. Aplica su interés por big data a los grandes catálogos astronómicos, habiendo descubierto mediante el análisis de estos catálogos más de 500 estrellas dobles nuevas.
Doctor en Ingeniería Informática y profesor en la Facultad de Informática de la Universidad Complutense de Madrid desde 2007, impartiendo cursos sobre bases de datos, gestión de la información y big data tanto en grados como en másteres. Su investigación principal gira en torno al uso de métodos formales para el análisis de programas en entornos distribuidos, incluyendo sistemas robóticos y contratos inteligentes en cadenas de bloques.
Tel. 91 532 20 77
este libro ha sido editado para ser distribuido. La intención de los editores es que sea utilizado lo más ampliamente posible, que sean adquiridos originales para permitir la edición de otros nuevos y que, de reproducir partes, se haga constar el título y la autoría.
Prólogo
Vivimos en un mundo repleto de datos. Datos que no solo nos rodean, sino que son producidos por nosotros mismos, a menudo, sin darnos cuenta.
Por ejemplo, nuestros teléfonos móviles no se lim itan a transmitir nuestros mensajes y conversaciones, sino que emiten constantemente datos que determinan nuestra ubicación o informan sobre el uso que hacemos de las diferentes aplicaciones que tenemos instaladas. Cada vez que navegamos por Internet, producimos una ingente cantidad de información que es empleada para mejorar y adecuar las páginas que visitamos a nuestras necesidades, pero también para ofrecer publicidad personalizada.
Cuando viajamos en transporte público y validamos el billete, añadimos un nuevo dato a una enorme base de datos que sirve para decidir qué líneas de transporte se utilizan más y a qué horas.
Si pagamos una compra con tarjeta, estaremos aportando a nuestro banco información sobre nuestros hábitos. Aunque prefi ramos el pago en efectivo, no nos libraremos de participar en la generación de nuevos datos: el comercio llevará cuenta de qué pr oductos hemos comprado y usará esta información para reponer productos con antelación, así como también para identificar productos que hemos comprado conjuntamente y determinar tendencias que sirvan para mejorar su negocio.
Este libro pretende ser un viaje por el mundo big data, mostrando sus bondades pero también los retos que plantea, por ejemplo, para nuestro concepto de privacidad. No pretende ser un texto técnico y no requiere ningún conocimiento inicial, solo un poco de curiosidad y de ganas de entender mejor la época que nos ha tocado vivir.
Empezaremos el recorrido viendo cómo ha cambiado la forma de almacenar datos desde los primeros ordenadores hasta la aparición de un nuevo tipo de bases de datos ligadas al concepto de big data, las llamadas bases de datos NoSQL. Hablaremos también de los centros de datos y descubriremos que es muy posible que cuando “subimos” una foto a nuestra red social favorita, estamos enviando en realidad nuestra imagen al círculo polar ártico. Comentaremos el uso, a veces sorprendente, que hacen las grandes co mpañías big data, pero también veremos cómo una empresa puede aprovecharse de las posibilidades que le da esta nueva tec nología mediante el almacenamiento en la nube. También entraremos en detalles al describir las características de tres de las tecnologías más utilizadas en el mundo de los grandes datos: Hadoop, Spark y MongoDB. Veremos también cómo la inteligencia artificial permite extraer nueva información y conocimiento a partir de los datos en bruto, lo que tiene un amplio abanico de aplicaciones: predecir los gustos cinematográficos de una per sona, anticipar la aparición de dolencias con base en hábitos ali menticios, detectar caras de manera automática en fotos… Fi nalmente, intentaremos atisbar el futuro de los grandes datos, de forma que no nos extrañemos el día en que nos llegue un tuit de nuestra cafetera en el que nos diga, con muchas caritas tristes, que debíamos haberle cambiado el filtro la semana pasada.
Al igual que el fin último de big data no es acumular datos, sino extraer información útil a partir de estos datos, el fin último de este libro no es limitarse a presentar datos curiosos e interesantes sobre los grandes datos, sino lograr que el lector obtenga, de forma amena, una mejor comprensión del fenómeno big data y su impacto en el mundo que n os rodea.
Capítulo 1
Un poco de historia
Para situar big data en su contexto, necesitamos comprender la evolución que ha tenido el tratamiento automático de los datos desde la aparición de los primeros ordenadores hasta nuestros días. En este capítulo vamos a revisar esta parte de la historia, cuando los grandes datos eran sobre todo problemas de las oficinas del censo y de las grandes bibliotecas.
Los tiempos heroicos
Desde sus inicios los ordenadores revelaron dos características fundamentales: la capacidad de realizar cálculos complejos rápidamente y la rápida gestión de grandes volúmenes de datos. Esta segunda característica, la gestión eficaz de datos, hizo que el primer ordenador comercial, el UNIVAC I, construido en 1951, fuera adquirido por la Oficina del Censo de Estados Unidos para tratar la ingente cantidad de información obtenida en los censos que se realizaban cada diez años, a la que había que sumar los datos que comenzaban a recopilarse a través de muchas otras fuentes: hospitales, escuelas, etc. Pronto, UNIVAC r eveló su potencia también para la primera característica: realizar cálculos y predicciones estadísticas a una velocidad impensable hasta ese momento. Uno de sus mayores éxitos fue la predicción del resultado de las elecciones presidenciales de 1952. A partir de un recuento de tan solo un uno por ciento del total de votos, UNIVAC predijo que el siguiente presidente sería Eisenhower, mientras la mayoría de los comentaristas políticos daban como ganador a su rival, el hoy olvidado Stevenson. Ni que decir tiene que ambos, UNIVAC y Eisenhower, resultaron ganadores. Eisenhower fue presidente durante ocho años y UNIVAC siguió trabajando para la Oficina de Censo incluso más tiempo, jubilándose con honores en 1963. Pero la consecuencia más importante de esta anécdota fue que la población en general se hizo consciente de las posibilidades que ofrecía el manejo de datos por parte de aquellos nuevos aparatos, las computadoras, ordenadores o, como se llamaban entonces, los “ cerebros electrónicos”. La publicidad fue tal, que la empresa constructora llegó a vender 46 copias de UNIVAC, una cantidad importante si se piensa que empezaron costando 159.000 dólares y tras el éxito de las elecciones presidenciales su precio se multiplicó por diez. Además del dinero, para disponer de un UNIVAC, había que tener sitio donde colocarlo, ya que la instalación requería algo más de 35 metros cuadrados de espacio y pesaba alrededor de 13 toneladas. Todo para una memoria principal de 12 kB, lo que supone que se habrían necesitado alrededor de medio millón de UNIVAC para alcanzar los 6 GB de memo ria que tiene un móvil modesto de hoy en día.