Wednesday, May 28, 2014

En la presentación del libro "El cuarto paradigma"


Hoy se realizó la presentación del libro "El cuarto paradigma", Descubrimiento científico intensivo en datos, editado por Tony Hey, Stewart Tansley y Kristin Tolle, en el Centro de Difusión Cultural Casa Rafael Galván (Zacatecas 94, Col. Roma Sur). Estuvieron invitados a esta preentación: El Dr. Walter Beller T., Coordinador General de Difusión. Con palabras de Carlos Allende, Director del Sector Público, Microsoft México, Jaime Puente, Director de Microsoft Research para América Latina y el Caribe. También estuvieron Harold Javid, Director de Microsoft Research, el Dr. Luis Alfonso Villa Vargas, director del Centro de Investigación en Computación (CIC), del Politécnico y un servidor.

Fui invitado porque hice la revisión técnica de la obra. Agradezco a la UA esta oportunidad, fue muy ilustrativa.

Esta fue mi participación:

No me cabe duda que la ciencia avanza, en ocasiones muy lentamente (como en el caso del bosón de Higgs, por ejemplo) y en otras demasiado aprisa. Hace quizás 30 años pensar en tener un teléfono móvil resultaba siquiera impensable. Hoy, no creo que en este recinto se encuentre alguien sin teléfono celular. Así las comunicaciones han florecido y estamos más cerca del conocimiento, más cerca con nuestros amigos, parientes e incluso, con personajes relevantes al área en que cada uno se desarrolla.

El haberme invitado a revisar técnicamente el libro que nos ocupa, me dio la oportunidad de estar, de pronto, a las puertas de un nuevo paradigma en ciencia. Antes, cuando uno buscaba información, quizás tenía que indagar con los investigadores que sabían del tema, y muchas veces esto se hacía por carta, por correo tradicional, en el mejor de los casos. Además, muchas investigaciones morían cuando los investigadores que trabajan con ellas morían también, o bien, quedaban dispersos sus datos y era difícil, muy difícil, encontrar información valiosa o relevante. Y aunque hubo proyectos para conservar el trabajo de los grandes científicos, pocos han tenido un completo éxito -como en el caso de la página sobre los trabajos de Albert Einstein, por ejemplo.

Hoy, sin embargo, las cosas han cambiado brutalmente. Ahora contamos con un gigantesco volumen de información que se captura todos los días, las 24 horas, y que en muchos casos esos datos ya pueden consultarse. La maravilla del Internet ha modificado radicalmente como interactuamos con el entorno, pero aún más, cómo hacemos investigación. Por ello, en este cuarto paradigma, de acuerdo con Jim Gray, a todo esto premio Turing (el Nobel del cómputo) y desaparecido en el mar en el 2007, podríamos definirlo en dos partes: la primera, una infraestructura para hacerse de herramientas para capturar, preservar y analizar los datos y la segunda parte, una infraestructura de comunicación y publicación.

Pero no basta con medir, guardar y analizar los datos, y tampoco se trata simplemente de ponerlos en una "nube" para que todos podamos acceder a la información. Además de esto, tenemos que hacer un enorme trabajo que nos permita ver los datos de los datos, los metadatos (que podría ejemplificarse con un genio nos concede un deseo y nosotros pedimos como deseo otros tres deseos. Claramente un metagenio puede lidiar con nuestra cuestión, es un genio de genios) pues, que de alguna manera nos arrojen información que está ahí pero que no hemos aprendido a leer "entre líneas" para decirlo de manera coloquial.

Es un hecho que el catalogar, clasificar, publicar y conservar la información es una tarea compleja debido al volumen de información que ahora se maneja. Van aquí un par de datos al respecto: Desde el inicio de la computación moderna, la cantidad de información ha crecido exponencialmente. Desde el 2003 el 90% de la información científica excede el equivalente impreso en artículos técnicos, Journals, etc. Hoy, el Gran Colisionador de Hadrones puede capturar unos 5 petabytes de información diaria (y para que se den una idea de cuántos son los petabytes, pensemos  que  1 gigabyte son 1000 megabytes, 1000 gigabytes son un terabyte, así que un millón de veces más grande es un petabyte, es decir 1000 terabytes). Necesitamos pues, nuevas herramientas que nos permitan visualizar la información como nunca antes podíamos haberlo hecho y esto es uno de los grandes retos del futuro cercano.

Desde luego que hoy como nunca la información tiene cada vez más valor, por lo cual, además de analizar los datos que se van alimentando día con día, tenemos que depurar y ver qué es lo superfluo, qué no es importante, porque finalmente, aunque no lo parezca, también hay limitaciones en el almacenamiento, entre otras, en lo que se refiere a la parte económica.

Esta es pues la propuesta de este libro, que en mi opinión, ya está echando un ojo al futuro, y en caso de que se piense que exagero, entonces véanlo como los grandes retos que tendremos que afrontar en los próximos años. No importa que la información sea para analizar ondas gravitacionales o datos sobre lo acontecido en el famoso tsunami de Asia, o bien para redefinir nuevos métodos de diagnóstico en medicina. Sin  importar el tema en que nos ocupemos, es evidente que este libro tiene mucho que decir y da a la reflexión.

Finalmente, me gustaría terminar con sacudirnos de una vez esa frase que decía "todo tiempo pasado fue mejor". Yo creo que no, el advenimiento del cuarto paradigma me parece que, a pesar de las dificultades por las que pasa el mundo, podría bien reformular la cita como "todo tiempo futuro (y por qué no, presente) será (y es), siempre mejor".

Gracias

2 comments:

MI Raúl Ocampo FIDE Trainer said...

Excelentes comentarios los que hiciste en la presentación del libro, te felicito sinceramente

Ernesto said...

Lástima del título.