viernes, 6 de abril de 2012

IBM trabajará en un Telescopio que generará 1 Exabyte de información al día

Astronomical_Data_Deluge

El otro día dedicamos unos minutos a hablar de DARPA y los planes del gobierno de Estados Unidos para sacar provecho del Big Data y los datos que circulan por la red para el entrenamiento de sistemas autónomos que pudieran tomar decisiones sin intervención humana. El Big Data, es decir, el procesamiento y análisis de enormes volúmenes de datos, es un reto al que se están sumando cada vez más empresas como, por ejemplo, IBM. El gigante azul, que se está convirtiendo en un referente en este campo, se acaba de embarcar en un proyecto a largo plazo que, cuando sea realidad, se va a convertir en un referente en el campo de la exploración espacial: la construcción de un complejo de telescopios que generarán más datos que los que circulan en Internet.

¿Más datos que los que circulan por la red? Pues sí porque según los planes del proyecto, este proyecto, de nombre DOME, manejará una cantidad de datos en el orden de un Exabyte, es decir, 1 millón de Terabytes. El proyecto, que ha sido anunciado hoy por IBM se realizará en asociación con ASTRON, el Instituto de Radioastronomía de Holanda, y tiene como horizonte el año 2024 para construir uno de los centros de procesamiento de datos más ambiciosos que se conocen y en el que se manejarán los datos recopilados por el futuro SKA (Square Kilometer Array), un complejo de radiotelescopios que se dispersarán en una línea de 3.000 kilómetros sobre el territorio de Estados Unidos y en el que participan, además, otros 18 países.

Uno de nuestros objetivos es averiguar qué ocurrió hace 13 mil millones de años con la explosión del Big Bang

Con este despliegue técnico, los gestores del proyecto estiman que cada día se generará 1 Exabyte de datos, es decir, el doble de información que circula por la red cada día y que, lógicamente, para procesarlos necesitarán un centro de datos especial que consumirá gran cantidad de energía y para el que, primero, IBM desarrollará arquitecturas especiales de procesamiento antes de que se comience a construir el telescopio en el año 2017.

Debemos ser muy creativos porque si quisiéramos usar los servidores de hoy en día necesitaríamos millones de ellos. Requerirían mucho espacio y mucha energía, factores que no permitirían asumir los costes de operación

Lo más sorprendente es que para almacenar toda esta cantidad de datos, que requerirán servidores especiales para su tratamiento, van a utilizar las clásicas cintas magnéticas además de dispositivos de estado sólido y también explorarán nuevos sistemas de almacenamiento (y aunque el grafeno está por venir, parece ser que apostarán por la tecnología CMOS también):

Estamos explorando nuevas tecnologías pero, al final, la mayor parte de los datos se almacenarán en cintas magnéticas porque, por ahora, siguen siendo los medios de almacenamiento más baratos y, seguramente, las cintas nos seguirán acompañando durante bastante tiempo

Concretamente, durante los primeros 5 años se invertirán 32,9 millones de euros (43,9 millones de dólares) en el desarrollo de nuevos procesadores, fuentes de alimentación mucho más eficientes, sistemas de almacenamiento y redes de comunicación capaces de cursar todo el tráfico de datos que se estiman.

Si tenemos en cuenta que el LHC, que es una de las infraestructuras científicas más complejas, necesita la décima parte de espacio de almacenamiento, la complejidad de este proyecto es enorme y, desde luego, es todo un reto tecnológico para el gigante azul que desarrollará este proyecto en su centro de investigación ubicado en Suiza.

Un proyecto impresionante que, seguramente, de como frutos nuevos sistemas de procesamiento de información que revolucionarán los centros de datos de muchas empresas y grandes players de la red.





No hay comentarios:

Publicar un comentario