Computación de Alta Capacidad: el esfuerzo europeo

AutorAgostino Mathis
CargoENEA

Asunto: La computación de alta capacidad `High Performance Computing¿ (HPC) es un asunto estratégico con aplicaciones cada vez más importantes no sólo en la ciencia y la tecnología, sino también en la industria. La simulación por ordenador, por ejemplo, se está convirtiendo en un medio potente de comprender la estructura y el comportamiento de sistemas muy complejos, tanto en las ciencias fundamentales como en un número creciente de campos relacionados con las ciencias aplicadas y la ingeniería.

Relevancia: La aportación de fondos a esta actividad en EE.UU. y Japón resalta la creencia de que las posibilidades de éxito en esta área se verán reforzadas por la inversión en la I+D puntera en el campo de las plataformas de computación paralela masiva. La competitividad de la investigación europea, y por ende de la industria europea, puede beneficiarse de la pronta disponibilidad de tales sistemas. En términos de las aplicaciones computacionales, Europa ya está presenciando la aparición espontánea de "redes de usuarios" de plataformas supercomputacionales que han demostrado su gran eficacia en determinadas áreas.

El nuevo entorno para la política de I+D

La política de I+D, en Europa y en todo el mundo, se está enfocando cada vez más sobre la "investigación estratégica" - la investigación con el potencial específico de beneficiar a la economía, la salud, el medio ambiente, la educación u otros objetivos importantes nacionales. Este nuevo enfoque sustituye a las metas puramente científicas y las prioridades militares, las cuales han prevalecido durante los últimos 40 a 50 años.

De una manera análoga, en la informática durante los '80 el reto era adelantar los conocimientos científicos, o afrontar las amenazas militares. En la década de los '90, en el nuevo contexto de la política, es fácil demostrar que la ciencia y las tecnologías de la informática son herramientas esenciales para las áreas estratégicas de investigación mencionadas más arriba.

Un desplazamiento en la política de I+D hacia investigaciones más estratégicas obliga a los científicos a prestar más atención a las aplicaciones de la investigación

En el pasado se ha calificado a veces de introvertida a la comunidad de la ciencia informática, debido a que muchos de sus integrantes han rehuido totalmente la aplicación práctica de esta disciplina. La nueva perspectiva debería obligar a los informáticos a dedicar más atención al mundo real.

Explotar el potencial de la computación de gran rendimiento para el beneficio científico y económico es un desafío que EE.UU., en particular, ha acometido con vigor. Hace unos años Europa parecía estar a punto de hacer otro tanto - pero desistió. No obstante aún quedan ventanas de oportunidad para que Europa vuelva a enfocar su atención sobre este gran reto.

Tendencias tecnológicas

El crecimiento de la potencia computacional sigue avanzando a un ritmo vertiginoso, y no da señales de aminorar el paso: durante las dos próximas décadas el crecimiento aumentará en un factor superior a 1000, y eso después de cinco décadas de rapidísima expansión. Se puede afirmar con confianza que para el año 2015, 10 megaflops de potencia computacional con 10 megabytes de memoria costarán sólo $5, y para cada ordenador que usamos hoy, cabe esperar que para ese año habrá, por el mismo coste, 999 máquinas más trabajando en paralelo con él para proporcionar un servicio mejorado.

Por otro lado, parece que hemos llegado al límite en términos de la máxima potencia computacional que puede obtenerse con un solo procesador basado en la tecnología actual del silicio. Por lo tanto la computación de gran rendimiento hoy a menudo es sinónima con la computación en paralelo.

Las arquitecturas paralelas obedecen a una diversidad de enfoques, según la forma en que se conecten los procesadores y cómo se sincronicen los cálculos. Desde el punto de vista del diseño, un ordenador paralelo puede considerarse como un "sistema de hardware/software dedicado a una aplicación específica", de una manera análoga a los dispositivos de computación empleados extensamente en los procesos de ingeniería o incorporados en los productos comerciales. Es evidente que el desarrollo de unos conocimientos unificados para el diseño y la fabricación de tales sistemas - un enfoque que ha llegado a denominarse el "codiseño del hardware/software" - sería de interés no sólo para las aplicaciones computacionales, sino más ampliamente para todo tipo de proceso de datos intensivo utilizado en el control automático, la monitorización y las aplicaciones de multimedia.

Si bien el uso de procesadores comerciales corrientes puede ser el camino más fácil para ampliar una red de estaciones de trabajo ....

.... un cambio a las plataformas paralelas personalizadas puede brindar enormes mejoras en eficiencia donde sólo se precisen unas operaciones específicas

El mayor rendimiento y disponibilidad de los ordenadores personales y las estaciones de trabajo, fáciles de entrelazar con equipos de hardware y software estándar, propicia la expansión de la computación distribuida y constituye una alternativa a las plataformas de computación paralela personalizadas. No obstante, la experiencia demuestra que la comunicación y coordinación entre procesos paralelos, cuando se realiza con mensajes que son enviados y recibidos específicamente por procesadores, conduce a una rápida disminución en eficiencia a medida que crece el número de procesadores. Además, los procesadores para usos generales ya hechos, si bien son la solución natural a la hora de ampliar una red existente de estaciones de trabajo, puede que no sean la elección más acertada para plataformas caracterizadas por un elevado grado de paralelismo, en las que cientos (y posiblemente miles) de procesadores pueden tener que realizar con gran eficiencia unas cuantas operaciones específicas. Tal procesador para usos generales precisaría una gran cantidad de espacio y potencia, pero utilizaría sólo una fracción muy pequeña de su silicio: los circuitos integrados concebidos para aplicaciones específicas son una solución mucho más atractiva.

El paralelismo masivo en la simulación informática está resultando ser una potente herramienta para comprender la estructura y el comportamiento de sistemas muy complejos (llamados corrientemente los "grandes retos"). Una forma especialmente potente de una simulación informática involucra la solución ab initio de las ecuaciones fundamentales de un sistema, para realizar "experimentos informáticos" autónomos que se compararán con los "experimentos físicos" y a los que en su día sustituirán.

Se está explotando actualmente el potencial de este entorno computacional para acometer no sólo los retos clásicos de las ciencias fundamentales, sino también un creciente número de campos relacionados con las ciencias aplicadas y la ingeniería. Algunos ejemplos típicos de estos "grandes retos" son: el pronóstico del clima y del tiempo; la gestión de la contaminación del aire y del agua; el diseño molecular de nuevos materiales y nuevas drogas; la bioingeniería; los túneles aerodinámicos numéricos para la optimización aerodinámica de los coches y los aviones; el diseño electromagnético para las telecomunicaciones y los sistemas de control; el diseño óptimo (respecto al ahorro energético y el control de la contaminación) de los motores, tanto para las centrales eléctricas como para los vehículos, etc.

En 1995, el gobierno federal de EE.UU. dedicó unos $1150 millones a la investigación de la supercomputación

El contexto internacional

En 1991, el Congreso estadounidense promulgó el 'High Performance Computing and Communications (HPCC) Act', mediante el cual se estableció un aumento significativo de los fondos federales destinados a las agencias principales ocupadas en la investigación de la supercomputación (ARPA, DOE, NASA y NSF). El presupuesto para 1995 era de unos $1150 millones. Muchas universidades y laboratorios nacionales establecieron programas complementarios y otras agencias se sumaron a las cuatro principales.

El Departamento de Energía (DOE) desempeña un papel único en la HPCC. Lleva más tiempo dedicado a la supercomputación que cualquier otra agencia federal. Los laboratorios del DOE son capaces de contribuir eficazmente a grandes proyectos innovadores, caracterizados por la complejidad de su cooperación interdisciplinaria y la concentración de recursos sobre un número limitado de problemas con una mayor probabilidad de éxito.

En 1995 el Congreso estadounidense definió nuevas pautas para los gastos en I+D, y en particular invitó a la National Science Foundation (NSF) a aumentar la concentración y la cualificación de sus centros de supercomputación, los cuales eran usados principalmente por los científicos académicos. Al mismo tiempo, el Presidente Clinton anunció la terminación definitiva de las pruebas nucleares, y ofreció a los tres laboratorios de armas del DOE (Livermore, Los Alamos, Sandia) un paquete de proyectos científicos valorados en $3 mil millones, en sustitución de las pruebas.

Entre estos proyectos, se ha lanzado la Accelerated Strategic Computing Initiative (ASCI), para la cual se han solicitado $910 millones para el año 2002 para desarrollar ordenadores que superarán a los sistemas de hoy en un factor de varias décadas en su velocidad de procesamiento y capacidad de memoria. La ASCI se inauguró el 7 de septiembre de 1995 cuando el DOE anunció una colaboración de un año de duración valorada en $45 millones con Intel Corp. para construir un superordenador 10 veces más rápido que cualquier otro en existencia. Nada menos que la cuarta parte de los fondos de la ASCI irá destinada al programa Superlab, en un esfuerzo por construir una red informática cuyas velocidades de transferencia de datos serán un millón de veces superiores a las de las redes existentes más veloces.

La potencia de computación desarrollada al amparo del proyecto ASCI en EE.UU. ayudará a hacer frente a los problemas más complejos (p.ej. el diseño de fármacos)

Es evidente que el proyecto ASCI ha sido instaurado también para promover el desarrollo tecnológico, al perfilar las tecnologías informáticas de vanguardia en colaboración con las universidades y la industria. Usuarios ajenos a la defensa también tendrán la posibilidad de aprovechar la potencia computacional desarrollada bajo la ASCI, para sus problemas más difíciles, tales como la predicción de los incendios forestales o la modelación del SIDA o la gripe para el diseño de fármacos apropiados.

Sobre este particular está claro que EE.UU. está a punto de dar un gran salto en las tecnologías informáticas y las metodologías computacionales, con respecto tanto a Europa como a Japón. No obstante, la industria japonesa ha consolidado su posición como un suministrador de plataformas supercomputacionales convencionales: un buen ejemplo al respecto es el contrato que Fujitsu ha conseguido recientemente para suministrar al Centro Europeo para el Pronóstico del Tiempo a Medio Plazo (ECMWF) un sistema de supercomputación paralela vectorial nuevo, en sustitución de los superordenadores existentes fabricados en EE.UU., y para el suministro del software y el mantenimiento durante un período de casi cinco años. Ante esta perspectiva internacional, entonces, la posición de Europa puede ser la más débil.

La necesidad de una política europea

Hace unos años había varias propuestas para iniciativas cuyo fin era impulsar la presencia europea en el mercado de la computación de gran rendimiento, tales como la Iniciativa Europea de Teraflops (ETI), promovida en buena medida por los científicos, y la Iniciativa Europea de Industrias e Instituciones (Ei3) que enfocaba más bien sobre las aplicaciones industriales.

Un destacado ejemplo del enfoque adoptado por un grupo de asesores de política de la UE apareció en un estudio por un comité encabezado por el físico de partículas y ganador del premio Nobel, Carlo Rubbia. El informe definitivo del comité Rubbia, terminado en Octubre de 1992, concedió una alta prioridad a la tecnología de la High Performance Computing and Networking (HPCN), esencial para la competitividad científica e industrial. El comité Rubbia propuso un programa de 10 años orientado hacia la industria e impulsado por las necesidades de los usuarios, en el que se asignaba mucho menos importancia a la identificación de los grandes retos computacionales y la promoción del desarrollo innovador asociado de tecnologías computacionales de gran rendimiento.

Durante los últimos años en Europa se han hecho grandes esfuerzos en la computación paralela orientados hacia el software de aplicación, y específicamente al traslado de los códigos industriales a las arquitecturas paralelas. Este enfoque ha obligado a los fabricantes del software a buscar soluciones "independientes de la arquitectura", o sea, a acercarse al modelo de la "transferencia de mensajes" utilizado en la computación paralela, mencionado más arriba - en el que, en la mayoría de los casos, los mensajes pasan entre microprocesadores fabricados en serie en otros lugares.

Esta énfasis puede que no haya propiciado la posición de los fabricantes europeos de ordenadores, ni el desarrollo de una actividad europea eficaz en el campo de los grandes retos (los cuales, como hemos visto, se asoman con cada vez más frecuencia en las áreas de la asistencia sanitaria, el medio ambiente y la ingeniería). Las posibilidades de éxito en esta área pueden verse reforzadas por la I+D puntera en el campo de las plataformas de computación paralela masiva, incluido el dominio del diseño y la fabricación del silicio (debido a que en la tecnología de la informática moderna una fracción cada vez más grande de las funciones de alto nivel pasa del software al hardware).

Europa podría explotar más y desarrollar su capacidad de diseñar, construir y utilizar plataformas de supercomputación de gama alta

El análisis anterior resalta la importancia de explotar y desarrollar la capacidad de diseño y construcción de plataformas de supercomputación de gama alta, y de promover el empleo de estos sistemas grandes en el campo. La competitividad de la investigación europea, y potencialmente de la industria europea, se beneficiará de la disponibilidad de tales sistemas.

Ya que los sistemas paralelos son todavía algo novedosos tanto para los fabricantes como para los usuarios, existe aquí una ventana de oportunidad para Europa (aunque sea de corta duración), máxime cuando la competencia europea en la materia no es nada despreciable. Por el lado de las aplicaciones computacionales, por ejemplo, es interesante notar la aparición espontánea de "redes de usuarios" de plataformas supercomputacionales con dotes especializadas en sus áreas respectivas. Mediante tales redes, es fácil propiciar el desarrollo colaborativo de "máquinas computacionales", o sea, plataformas integradas de hardware/software para la óptima solución coste/rendimiento de los problemas científicos e industriales más engorrosos. Ejemplos de este tipo ya empiezan a aparecer en el campo de la física y la química computacional, entre científicos alemanes, italianos y británicos, mediante el uso del superordenador paralelo italiano `Quadrics¿. Pronto podrían promoverse redes similares en los campos del medio ambiente (la meteorología, la climatología, etc.) y la ingeniería (la fluidodinámica, el electromagnetismo, etc.).

Frases clave

Supercomputación, computación paralela, tecnología de la información, redes de ciencia informática, sistemas complejos

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR