Buscar

Mostrando entradas con la etiqueta supercomputadora. Mostrar todas las entradas
Mostrando entradas con la etiqueta supercomputadora. Mostrar todas las entradas

2020/03/23

EEUU anuncia la creación del COVID-19 HPC Consortium: sus principales supercomputadoras se utilizarán para enfrentar al coronavirus

En un boletín oficial la Casa Blanca de los EEUU ha anunciado la formación de una alianza conformada por empresas, organizaciones académicas, federales y principales laboratorios nacionales de energía los cuales pondrán sus más poderosas supercomputadoras al servicio de investigadores de todo el mundo para desarrollar grandes avances en torno a la lucha contra el coronavirus COVID-19.


El anuncio lo hizo Michael Kratsios, Director en Jefe de Tecnología de los EEUU. El despliegue del poder de cómputo de sus equipos más sofisticados está destinado a académicos y empresas privadas con el fin de lograr tratamientos y la vacuna para el coronovirus.

Esta alianza se denominará COVID-19 High Performance Computing Consortium y está conformada por las siguientes organizaciones:

INDUSTRIA

- IBM: El cluster IBM Research WSC consiste de 56 nodos de cómputo cada uno de los cuales está conformado por 2 procesadores de 22 cores y 6 GPUs junto a 7 nodos destinados a tareas de gestión. Principalmente utilizado para tareas de colaboración con el cliente, investigación avanzada para proyectos gubernamentales, investigación avanzada en Sistemas Cognitivos Convergentes y Deep Learning.

- Amazon Web Services: Proveerá acceso ilimitado a proyectos previamente evaluados.

- Google Cloud: Facilitará el acceso a sus herramientas Cloud HPC a académicos acreditados.

- Microsoft.

- Hewlett Packard Enterprise.

ACADEMIA 

- Massachusetts Institute of Technology: A través del MIT/Massachusetts Green HPC Center (MGHPCC) dispondrá del MIT Supercloud, supercomputadora de 7 Petaflops con nodos Intel x86 y NVidia Volta para tareas que requieran infraestructura de Big Data, el cluster Satori de 2 Petaflops conformado por 64 nodos IBM Power9 con NVidia Volta y orientado a Inteligencia Artificial.

- Rensselaer Polytechnic Institute: Pone a disposición sus sistema AiMOS (Artificial Intelligence Multiprocessing Optimized System) con 8 Petaflops de potencia conformada por nodos IBM Power9 y NVidia Volta diseñado para explorar nuevas aplicaciones de Inteligencia Artificial.

DEPARTAMENTO NORTEAMERICANO DE LOS LABORATORIOS NACIONALES DE ENERGÍA

- Argonne National Laboratory: Dispone del Argonne Leadership Computing Facility (ALCF) puede ser utilizado para modelado y simulación con estrategias de machine y deep learning para examinar la estructura de capas de proteínas, clasificación de la evolución del virus, entender la mutación, descubrir las diferencias, y similitudes con el 2002-2003 SARS, búsqueda de potenciales vacunas y antivirales, componentes y simulación del contagio del COVID-19.

- Lawrence Livermore National Laboratory (LLNL): Tiene a las supercomputadoras Lassen (23 Petaflops, 788 nodos de cómputo IBM Power9 y NVidia Volta GV100), Quartz (3.2 Petaflops en 3004 nodos de cómputo Intel Broadwell Xeon E5), Pascal (0.9 Petaflops en 163 nodos de cómputo Intel Broadwell y NVidia Pascal P100), Ray (1 Petaflop en 54 nodos de cómputo IBM Power8 con NVidia Pascal P100), Surface (506 Teraflops en 158 nodos de cómputo Intel Sandy Bridge con NVidia Kepler K40m) y Syrah (108 Teraflops en 316 nodos de cómputo Intel Sandy Bridge)

- Los Alamos National Laboratory (LANL): Cuenta con Grizzly (1.8 Petaflops en 1490 nodos de cómputo Intel Broadwell), Snow (445 Teraflops en 368 nodos de cómputo Intel Broadwell) y Badger (790 Teraflops en 660 nodos de cómputo Intel Broadwell).

- Oak Ridge National Laboratory: Tiene al Oak Ridge Leadership Computing Facility (OLCF) que cumplirá un papel similar al ALCF.

- Sandia National Laboratories: Tiene al Solo (460 Teraflops en 374 nodos de cómputo Intel Broadwell)

AGENCIAS FEDERALES

- National Science Foundation: Las supercomputadoras que dispondrá para este objetivo son Frontera (operado por el Centro de Cómputo Avanzado de la Universidad de Texas), Comet (operado por el Centro de Supercómputo de la Universidad de San Diego), Stampede 2 (también operado por la Universidad de Texas), Bridges and Bridges-AI (operado por el Centro de Supercómputo de la Universidad de Pittsburgh) y Jetstream (operado por el Instituto de Tecnología Persuasiva de la Universidad de Indiana).

- NASA: Su sistema de supercómputo High-End Computing Capability (HECC) cuenta con una potencia de 19.13 Petaflops distribuidos en 15 800 nodos Intel x86.

Los campos de investigación beneficiados serán: bioinformática, epidemiología y dinámica molecular, se espera que los procesos terminen al cabo de horas o días frente a las semanas o meses que otros poderosos clusters de cómputo logran hasta ahora.

Más detalles en XSEDE.

2011/11/16

Mont-Blanc, el supercomputador europeo de bajo consumo energético

Nvidia y ARM Holdings están dispuestas a dar caza a Intel en el terriorio de la supercomputación. Prueba de ello es que la primera está desarrollando el primer superordenador híbrido que combina sus GPUs CUDA con CPUs quad-core Tegra 3, basadas en diseño de ARM.

¿Dónde? En Europa. Y es que organizaciones como el Barcelona Supercomputing Center se han marcado como objetivo disparar la eficiencia energética de los sistemas informáticos de alto rendimiento. Precisamente la mayoría de ellos cuentan en la actualidad con procesadores Intel en sus entrañas.
“En la mayoría de los sistemas actuales, las CPUs por sí solas consumen la mayor parte de la energía, a menudo el 40% o más”, comenta Alex Ramírez, líder del proyecto para España. “En comparación, la arquitectura de Mont-Blanc se basará en aceleradores de cálculo eficientes y procesadores de ARM para lograr un aumento de entre 4 y 10 veces la eficiencia energética para 2014″.
A través del bautizado como EU Mont-Blanc Project, los investigadores españoles desarrollarán arquitecturas de alto rendimiento y aplicaciones a nivel de exascala capaces de aprovechar las capacidades que ofrecen los chips para móviles y sistemas embebidos.
Junto al Barcelona Supercomputing Center colaboran otros centros de Alemania, Francia e Italia, que harán uso de sistemas OEM europeos así como de la tecnología de interconexión de Gnodal.

2011/11/07

El ordenador más rápido del mundo bate su propio record

El superordenador japonés “K Computer”, desarrollado por Fujitsu y Riken, ha vuelto a batir el record mundial de velocidad al lograr procesar más de 10 cuatrillones de cálculos por segundo.
El equipo, que cuenta con más de 88.128 procesadores centrales, superó con holgura su record anterior, que estaba en 8 cuatrillones de cálculos por segundo.
“K Computer” logró trabajar a una velocidad de 10,51 petaflops y sus creadores aseguran que su límite estaría en los 11,28 petaflops, por lo que todavía tiene margen de mejora.
El sistema tiene 864 racks para almacenar todas las CPUs y ofrece una tasa de eficiencia en su ejecución muy alta, alcanzando el 93,2%.
En las pruebas a las que fue sometido fue capaz de funcionar sin fallos durante un tiempo de 29 horas y 28 minutos.
En lo que se refiere a los usos que podría tener “K Computer”, los expertos apuntan hacía el análisis de nanomateriales, el desarrollo de semiconductores como los nanocables y los nanotubos de carbono o el perfeccionamiento de las celdas solares.
Por su parte, los americanos ya preparan Titán, un superordenador que como os informamos el mes pasado, promete superar todos los registros vistos hasta la fecha.

2011/11/04

El superordenador más rápido del mundo aumenta su velocidad

En junio pasado, el proyecto japonés “K Computer” de RIKEN y Fujitsu maravillaba a todos por sus dimensiones y era nombrado oficialmente el superordenador más rápido del mundo por la Conferencia Internacional de Supercomputación.

Capaz de realizar 8.162 billones de operaciones de punto flotante por segundo con sus 68.544 procesadores SPARC64 de 8 núcleos cada uno, era la primera máquina en superar los 8 petaflops. Y se situaba muy por delante de su más directo competidor, el chino Tianhe-1A y sus 2,6 petaflops.
Ahora, el supercomputador K se ha superado a sí mismo. Según han anunciado sus responsables, ha roto la barrera de los 10 petaflops hasta situarse en los 10,51.
Esto ha sido posible gracias a la adición de 19.584 nuevas unidades centrales de procesamiento. Aún así, la construcción de este monstruo no está finalizada y se esperan añadir más CPUs de aquí a junio de 2012.

2011/09/23

“Stampede”: nuevo supercomputador con chips Intel de 50 núcleos

El Texas Advanced Computing Center (TACC) y la Universidad de Texas han anunciado sus planes de construir una supercomputadora de 10 petaflops (o 10.000 billones de operaciones por segundo) llamada “Stampede”. Una máquina que, cuando se ponga en funcionamiento a principios de 2013, se convertirá posiblemente en una de las más poderosas del mundo para aplicaciones científicas y financieras.

En su interior esconderá un chip diseñado por Intel con nombre en código “Knights Corner”, que alberga más de 50 núcleos de procesador. De este modo, aparte de sumarse al ranking de superordenadores más potentes, se convertirá también en el primer modelo comercial basado en esta tecnología de Intel.
Y es que “Knights Corner” no es el típico chip de servidor fabricado por la compañía de Santa Clara, cuyas creaciones normalmente alcanzan un máximo de 8 núcleos. Sino que tiene sus raíces en un proyecto llamado Larrabee, que inicialmente estaba destinado para procesadores gráficos multicore de gama alta o GPUs para juegos y aplicaciones multimedia, y que fue cancelado en 2009.
Ahora Intel ha recuperado este diseño y lo describe como “un co-procesador destinado a cargas de trabajo en paralelo, construido con la vanguardista tecnología de 22 nanómetros 3D Tri-Gate“, tal y como recoge CNET.
Por su parte, el director del Centro de Geociencias Computacionales de la Universidad de Texas, Omar Ghattas, se muestra “entusiasmado con las oportunidades que Stampede ofrece a la hora de acelerar nuestro trabajo en cuantificación de incertidumbres para modelos computacionales de dinámicas relacionadas con capas de hielo polar, propagación de ondas sísmicas y placas tectónicas”.

2011/09/12

Una supercomputadora para predecir la revolución

Suele decirse que las noticias son el borrador sobre el que se escribe la historia, pero ¿qué tal si pudieran ser la materia prima para predecir el futuro?
Para eso haría falta un muy buen archivo periodístico, una supercomputadora y un equipo de técnicos que sepa leer curvas, mapas y tendencias, según el experimento realizado por un grupo de la Universidad de Illinois en Estados Unidos.

El equipo estadounidense se concentró en los procesos que desembocaron en la llamada Primavera Árabe.
Tras analizar millones de artículos de prensa, el estudio encontró cómo se iba deteriorando el ánimo popular en los días que precedió a las rebeliones en Egipto y Libia.
Y aunque se trató de un ejercicio en retrospectiva, los científicos aseguran que se podría usar para vaticinar eventos sociales futuros.
Los investigadores también aseguran haber determinado con gran precisión la localización del abatido líder de Al-Qaeda, Osama bin Laden.
Los responsables del trabajo consideran que por el tiempo que le tomó a Washington encontrar a Bin Laden y por el apoyo que le mantuvo hasta última hora al destituido presidente egipcio, Hosni Mubarak, en ocasiones el análisis de la información publicada puede dar mejores pistas que las altas fuentes de inteligencia.

Algunos requisitos

Acceder a ese conocimiento sólo le será posible a quienes tengan una supercomputadora. En este caso una SGI Altix -conocida como Nautilus- con un procesador 1024 Intel Nehalem con capacidad de procesar 8,2 teraflops (un billón de operaciones por segundo).
También hay que disponer del archivo del centro de monitoreo de prensa mundial de la BBC (BBC Monitoring) y del Open Source Center, un centro de documentación de información internacional del gobierno de EE.UU.

Con esas herramientas, Kalev Leetaru y su equipo del Instituto de Computación en Humanidades, Artes y Ciencias Sociales de la Universidad de Illinois procedieron al análisis de más de 100 millones de artículos de prensa, incluyendo todo el archivo del New York Times desde 1945.
Los reportes se concentraron en dos tipos de información: el factor ánimo (si los artículos reflejaban buenas o malas noticias) y ubicación (dónde ocurrían los eventos y la localización de otros participantes en la historia).
Para calibrar lo anímico crearon una función de "exploración automática de sentimiento" centrada en adjetivos calificativos como "terrible", "horroroso", "bueno" o "agradable"
En cuanto a la "geocodificación", se buscaron las menciones de lugares específicos, como El Cairo, y se convirtieron en coordenadas para ser trazadas sobre un mapa.

Mejor que la CIA

La Nautilus generó gráficos para los diferentes países que experimentaron la llamada Primavera Árabe.
En cada caso, los resultados mostraron una notable caída anticipada en el ánimo, tanto dentro de cada país, como en la manera en que era reportado desde el exterior.
En el caso de Egipto, el factor sentimiento mostró una dramática caída a principios del 2011, justo antes de que se produjera la renuncia de Mubarak.

Ya en el mes previo, el tono anímico de la cobertura mediática sobre Egipto descendió a un nivel que sólo se había visto en dos ocasiones en los últimos 30 años: en 1991, durante la primera guerra del Golfo, y en 2003, con la invasión estadounidense de Irak.
Los investigadores creen que eso habría dado indicios para predecir el desenlace egipcio.
"El solo hecho de que el que presidente de EE.UU. mantuvo su apoyo a Mubarak, sugiere fuertemente que incluso los análisis de más alto nivel indicaban que Mubarak se quedaría donde estaba", aseguró Leetaru a la BBC.
"Eso es posible si consideras que tienes esos expertos que han estado estudiando Egipto por 30 años, y en 30 años nada le había pasado a Mubarak", dijo Leetaru, quien indicó que los gráficos de su estudio sugerían que algo sin precedentes se estaba dando por aquellos dias.
"Si miras las curvas tonales te dirían que el mundo se está oscureciendo tan rápido y tan fuertemente contra él (Mubarak) que no luce posible que pueda sobrevivir".
Unas caídas similares se evidencian en los gráficos creados para analizar los eventos en Libia y el conflicto en los Balcanes en los años 90.

Bin Laden a 200 kilómetros

Según Leetaru, un análisis global de los reportes de los medios acerca de Osama bin Laden también habría aportado importantes indicios sobre su localización.
Mientras muchos creían que el jefe de Al Qaeda se escondía en Afganistán, la información geográfica sacada de los informes de prensa consistentemente lo ponían en el norte de Pakistán, donde finalmente lo encontró y mató un comando estadounidense.
Aunque sólo un reportaje previo a la operación realizada en abril de 2011 señalaba al pueblo de Abbottabad, donde fue encontrado, los análisis geográficos de la Nautilus crearon un mapa de posible ubicación de 200 kilómetros a la redonda.

Aunque el objeto del estudio fueron eventos del pasado, podrían usarse modelos computarizados para predecir sucesos importantes, basándose en las fluctuaciones anímicas o del sentimiento de las poblaciones.
"Ese es el próximo paso", dijo Leetaru, quien afirma estar desarrollando la tecnología necesaria para que el sistema, trabajando en tiempo real, provea elementos de predicción "muy similar a los que hacen los algoritmos económicos".
Leetaru lo imagina al estilo de los tableros de información bursátil, que permiten ver cómo se han comportado las acciones de las empresas, sólo que él quisiera poder usar esos datos para saber hacia dónde se dirigirán los procesos políticos o sociales.
En ese sentido, las predicciones basadas en información de prensa serían como los reportes meteorológicos, que, como todos sabemos, no son perfectos pero siempre son mejores que simplemente asomarse a la ventana para tratar de adivinar si salimos o no con el paraguas.

2011/07/06

IBM encabeza la lista de los superordenadores más eficientes del mundo

  La compañía IBM encabeza con el superordenador Blue Gene/Q la edición de junio de 2011 de Green500, el ranking de los superordenadores de mayor eficiencia energética que, como el ránking Top500 de los más potentes, se actualiza dos veces al año. El rendimiento por vatio, el ahorro en el consumo de energía y otros costes asociados como la refrigeración son clave en el diseño de los diferentes sistemas de IBM.
Según informa la compañía en una nota de prensa, está previsto que el nuevo superordenador Blue Gene/Q se instale en 2012 en dos laboratorios del ministerio de energía de Estados Unidos que han colaborado estrechamente con IBM en el desarrollo del hardware y software del nuevo Blue Gene. Asimismo, las Universidades de Columbia y Edimburgo también han participado en el diseño del chip, informa Europa Press.
Además, seis de los 10 primeros superordenadores más eficientes que integran la lista están desarrollados con tecnología de IBM. El ranking incluye superordenadores de China, Alemania o Estados Unidos que se están utilizando para aplicaciones tan diversas como la astronomía, la predicción del clima o las ciencias de la vida. En general, los mejor clasificados logran su puesto merced a agregar muchos microprocesadores de bajo consumo.
Más de la mitad de las 100 primeras posiciones del ranking las ocupan sistemas de IBM. Además, es la compañía que mayor representación tiene de su amplia gama de sistemas en la lista Green500, incluyendo Blue Gene, servidores Power, System x Idataplex, Bladecenter y clusters híbridos.

Libertad Digital

2011/06/24

El supercomputador más potente de España entra en el Top500

Recientemente se ha producido un cambio en el liderazgo de la lista Top500 ya que el supercomputador japonés “K” ha sido declarado como el más potente del mundo gracias a su capacidad para superar la barrera de los 8 Petaflop/s.
Pero en esta exclusiva lista de superordenadores no todos son equipos fabricados en países punteros en tecnología como Japón, España también tiene un hueco en el Top500 gracias a Magerit, el superordenador más potente de nuestro país.
Se trata de una supercomputadora basada en la arquitectura POWER7 de IBM que es capaz de proporcionar una potencia pico de cálculo de 103,4 TeraFlops sin utilizar tecnologías aceleradoras específicas.

Magerit, que está alojado en el Centro de Supercomputación y Visualización de Madrid perteneciente a la Universidad Politécnica de Madrid, alcanza una potencia sostenida de cálculo de 72,03 TeraFlops en el test Linpack, que es el patrón de referencia que se utiliza para ordenar la lista Top500.
Además, Magerit ha logrado colarse en la lista Green500, que agrupa a los supercomputadores más potentes y a la vez más respetuosos con el medio ambiente, gracias a sus 467,72 MFlops por vatio consumido.
“Los principales desarrollos en el ámbito de la ciencia están vinculados a la modelación y la simulación, áreas que precisan de una considerable capacidad de cálculo”, explica Juan Antonio Zufiría, presidente de IBM España, “es por ello que el progreso científico de un país está estrechamente relacionado con su capacidad de invertir en supercomputación”.


eWeek

2011/06/22

Así es Magerit, el supercomputador más potente de España

La lista Top500 está liderada por “K”, un supercomputador japonés, pero España también ha conseguido meter un superordenador dentro de este prestigioso ranking, se llama Magerit y vive en la Universidad Politécnica de Madrid.
Este supercomputador está basado en la arquitectura POWER7 de IBM y aunque sus capacidades distan bastante de lo que puede llegar a conseguir el japonés que lidera el Top500, Magerit ha conseguido hacerse un hueco en esta lista.
Este sistema alcanza una potencia pico de cálculo de 103,4 TeraFlops y es capaz de proporcionar una potencia sostenida de cálculo de 72,03 TeraFlops en el test Linpack (que es el que se utiliza para ordenar los supercomputadores del ranking Top500).
Este supercomputador “made in Spain” cuenta con un total de 3.920 núcleos y 7,84 TBytes de memoria RAM, lo que equivaldría según los cálculs de IBM a 4.000 PCs. Magerit dispone de 245 nodos IBM BladeCenter PS702, con 2 procesadores POWER7 de 8 núcleos cada uno.
Magerit está ubicado en el Centro de Supercomputación y Visualización de Madrid (CeSViMa), que perteneciente a la Universidad Politécnica de Madrid. El equipo de ingenieros de IBM ha trabajado en su puesta en funcionamiento, logrando un tiempo de instalación record de tan sólo un mes.
“La supercomputación es un área estratégica para el desarrollo técnico y científico”, asegura Javier Uceda, rector de la Universidad Politécnica de Madrid, que compara su importancia con “lo que fue en su día el microscopio o el telescopio”.


the INQUIRER

La japonesa K es la más veloz entre las supercomputadoras

Una supercomputadora de origen japonés, de nombre K y con capacidad de llevar a cabo miles de millones de cálculos en un segundo se convirtió en la más veloz del mundo según se dio a conocer en la Conferencia Internacional de Supercomputadoras (ISC, por sus siglas en inglés).
El nuevo modelo logró registrar un rendimiento hasta tres veces más rápido que su antecesora, la china Tianhe-1A, que "sólo" es capaz de alcanzar poco más de 2,5 petaflops.

Si un petaflop equivale a 10 elevado a la 15, (o un 1 seguido de 15 ceros) de operaciones por segundo, el rendimiento de la K Computer es similar al que se podría lograr con un millón de computadoras personales, según explicó el profesor Jack Dongarra, encargado de elaborar la lista de las 500 computadoras más rápidas del mundo en base a su habilidad por procesar simples ecuaciones matemáticas.
El tercer lugar de la lista lo ocupa la computadora apodada Jaguar, propiedad del Laboratio Nacional Oak Ridge de Tennessee, en Estados Unidos, que tiene una velocidad máxima de 1,75 petaflops.
Estados Unidos ocupa otros cuatro puestos entre las diez computadoras más rápidas, pero es el auge de China el que sigue llamando la atención al contar con dos representantes en esta lista.

Proporcional

Una de las claves del diseño de la firma Fujitsu para lograr el récord es que incorpora un procesador de creación propia que se aleja de la tendencia de otras supercomputadoras, que usan productos Intel y AMD.
Debido a su vasto tamaño, que consiste actualmente en 672 compartimentos y que se ampliará hasta los 800, la supercomputadora japonesa requiere de energía eléctrica equivalente a 10.000 hogares y su funcionamiento cuesta alrededor de US$10 millones.
"No se trata de un modelo ineficiente, pero su consumo es proporcional a su tamaño", comentó Hans Meuer, director general de la ISC.
Sin embargo, estas cifras generan dudas sobre su capacidad de evolución en el futuro.
"Tiene un rendimiento impresionante", elogió el director general de centro de datos de Intel, Kirk Skaugen. "Pero usa la mitad de la energía en 8 petaflops de lo que nosotros consideramos que necesitamos para alcanzar 1.000 petaflops (en 2018)".

BBC Mundo

2011/06/20

El superordenador más potente del planeta está ahora en Japón

Un superordenador japonés capaz de realizar más de ocho billones de cálculos por segundo (8 petaflop/s) es el nuevo 'rey' de los ordenadores más potentes del mundo. Destrona a Tianje-1A, la máquina china que logró batir a Jaguar (EEUU) el pasado mes de octubre.
Japón recupera así el primer lugar en la lista de los superordenadores TOP500, algo que no sucedía desde noviembre de 2004, cuando el Earth Simulator cayó al tercer puesto.
El nuevo sistema se llama Ordenador K y se encuentra en el Instituto RIKEN, en el Centro Avanzado para las Ciencias de la Computación (AICS), en Kobe. Construido por Fujitsu, combina 68.544 CPU tipo SPARC64 VIIIfx cada una con ocho núcleos, lo que arroja un total de 548.352 núcleos, casi el doble que cualquier otro sistema en el TOP500.
De hecho, el ordenador K también es más potente que los siguientes cinco sistemas en la lista juntos.
Este superordenador, a diferencia de muchos otros de la lista, no usa procesadores gráficos u otros aceleradores. Asimismo, aunque es el que más energía consume de toda la lista (9,89 MW), está considerado como uno de los más eficientes en consumo, debido a su enorme capacidad de cálculo.
La lista 37 de los ordenadores más potentes del mundo ha sido publicada en el marco de la Conferencia de Supercomputación que se celebra en Hamburgo.
Así, por primera vez, los 10 primeros ordenadores del mundo superan el petaflop por segundo en rendimiento -todo un hito hace apenas tres años-, y de ellos cinco se encuentran en EEUU, dos en Japón, dos en China y un en Francia.

El Mundo

2011/05/27

La supercomputadora Cray XK6 combinará chips AMD y Nvidia

Cray ha dado a conocer el primer superordenador multipropósito basado en tecnología GPU, Cray XK6, que combinan los últimos adelantos en chips de Advanced Micro Devices y Nvidia con su tecnología de interconexión de alto rendimiento Gemini. ¿El resultado?  Hasta 50 petaflops en poder de cómputo, o lo que es lo mismo, un cuatrillón de operaciones por segundo.

En concreto, utilizará el procesador que AMD tiene previsto anunciar próximamente: Opteron 6200 de 16 núcleos, con nombre en código “Interlagos”, que cuenta con gráficos integrados en la misma pastilla de silicio que la unidad central de procesamiento (CPU). En cuanto a la unidad de procesamiento gráfico (GPU), se trata de la Tesla 20-Series de Nvidia.
Este superordenador híbrido incluirá también el propio entorno Linux de Cray, “satisfaciendo de forma más productiva los desafíos científicos de hoy y de mañana”, de acuerdo con Barry Bolding, vicepresidente de la división de productos de Cray.
Y es que las organizaciones de computación de alto rendimiento (HPC) se inclinan cada vez más por sistemas que incluyen tecnologías GPU para aumentar las capacidades de procesamiento paralelo mientras se mantienen controlados los costes de energía y espacio. Proveedores de sistemas como IBM y Appro ya ofrecen servidores que funcionan con plataformas de programación x86/GPU unificadas.
Para los desarrolladores, el nuevo sistema Cray incluirá herramientas, librerías, compiladores y software de terceros, de acuerdo con la empresa. Se espera que esté disponible en la segunda mitad de 2011, y las organizaciones serán capaces de configurarlo en un sólo gabinete con decenas de miles de nodos de cómputo, o en un sistema de gabinete múltiple.

eWeek

2010/11/29

China empieza a construir tercer centro de supercomputación

La provincia de Hunan, centro de China, empezó a construir el día 28 el tercer Centro Nacional de Supercomputación (CNSC), donde se instalará la supercomputadora más rápida del mundo, la Tianhe-1A.

El CNSC de Changsha, diseñado para realizar un cuatrillón de operaciones de computación por segundo, se agregará a los centros de supercomputación y laboratorios nacionales del mundo que ya realizan ocho cuadrillones de operaciones, dijo Du Zhanyuan, viceministro del Ministerio de Ciencia y Tecnología.

El nuevo CNSC será albergado por la Univerisad de Hunan en Changsha, capital de Hunan, y se espera que la construcción sea completada para fines de 2011, dijo Du.
A principios de este mes, la Tianhe-1A en el CNSC de Tianjin, que es capaz de realizar 2,57 cuadrillones de operaciones por segundo, fue certificada como la supercomputadora más rápida del mundo.

Una vez concluida, la Tianhe-1A en el CNSC en Changsha será capaz de proporcionar servicios de supercomputación para pronóstico meteorológico, investigación científica, biofarmacéutica, diseño de animación y otro trabajo complejo en el centro de China, dijo Xu Shousheng, gobernador de la provincia de Hunan.

"El establecimiento del CNSC en Changsha elevará el nivel de innovación de la provincia de Hunan y del centro de China", dijo Xu.

Aparte de la construcción actual, China ha construido dos centros de supercomputación que están localizados en Tianjin y Shenzhen, respectivamente.

Pueblo en Linea

2010/11/15

El 'superordenador' más rápido del mundo está en China

La lista de ordenadores más rápidos del planeta TOP500, elaborada cada dos meses por universidades alemanas y estadounidenses, ha confirmado en su edición de noviembre que la supercomputadora china Tianhe-1A es la más rápida del mundo, lo que acaba con casi dos décadas de dominio estadounidense y japonés.
El 'ránking' indica que el ordenador, situado en el Centro Nacional de Supercomputación de la ciudad de Tianjin (norte) es capaz de desarrollar 2.670 billones de operaciones por segundo (2,67 petaflops por segundo), por encima de los 1,75 de la que hasta ahora ostentaba el primer lugar, el Cray Jaguar estadounidense.
El tercer lugar (desciende un puesto) en la lista también es para China, ya que en él figura el superordenador Nebulae, con 1,27 petaflops por segundo, situado en la ciudad de Shenzhen (sur), principal centro de la industria tecnológica china.
Con este logro, China consigue por primera vez tener el ordenador más rápido del mundo, un logro que sólo han alcanzado hasta ahora Alemania, Reino Unido, Japón, Italia, la antigua Unión Soviética y EEUU, y que desde principios de los años 90 sólo habían ostentado computadoras niponas y estadounidenses.
El Tianhe 1A ha supuesto una inversión de unos 90,4 millones de dólares y fue desarrollado por la Universidad de Tecnología Militar de Changsha, en la provincia central china de Hunan.
Utiliza, no obstante, un buen número de componentes estadounidenses, como 14.336 CPUs Intel Xeon X5670 y 7.168 GPUs NVidia Tesla M2050.
El TOP500 es elaborado bimensualmente por las universidades de Mannheim (Alemania), Tennessee y Berkeley (EEUU).

Dudas

Pese al logro chino, algunos expertos del país asiático han expresado dudas sobre el nuevo supercomputador, como caso de Cao Jianwen, del Laboratorio de Computación Paralela (ligado a la estatal Academia China de Ciencias), quien ha llegado a asegurar con ironía que la computadora sólo puede servir para jugar.
Otros expertos recuerdan que el Tianhe-1A muestra todavía graves incompatibilidades de 'software' y 'hardware', que impiden, por ejemplo, su uso con fines militares.
El petaflop por segundo equivale a mil billones (o 10 elevado a 15, o un 1 seguido de 15 ceros) de operaciones por segundo.
El rendimiento de las computadoras más rápidas se multiplica por 1.000 aproximadamente cada 11 años. El primer ordenador que superó el teraflop (un billón de flops) es del año 1996.

El Mundo

2010/11/03

Carrera de récords informáticos

La noticia de que en el próximo Top500 de los supercomputadores el primero de la lista será el chino Tianhe-1A y no una máquina estadounidense ha caído en algunos medios norteamericanos como un nuevo aviso del peligro amarillo. El consuelo es fácil: el supercomputador está en China, pero sus procesadores son estadounidenses. Con todo, las alarmas han sonado.
En la lista de junio de 2010 del Top500, que se actualiza semestralmente, Estados Unidos tenía el liderazgo y 282 máquinas en la misma. Reino Unido colocaba 38 y Rusia 11. China, como Alemania, tenía 24, pero dos de sus supercomputadores estaban entre los primeros 10 lugares. Nebulae en segunda posición y Tianhe-1A, en séptimo lugar. Europa solo tiene una máquina entre los 10 primeros y está en Alemania.
Este listado de la supercomputación se elabora desde 1993. "En aquellos años, los supercomputadores se dedicaban básicamente a cálculos de ingeniería. Los promotores de la lista diseñaron un test muy sencillo para evaluar la velocidad de ejecución de estas máquinas y así clasificarlas en el ranking del Top500. Es el test Linpack consistente en resolver un sistema de ecuaciones", explica Mateo Valero, director del Barcelona Supercomputing Center, catedrático de la Politécnica de Cataluña y una autoridad mundial en este terreno de los gigantes informáticos, cuyo rendimiento ha superado la barrera del petaflops (cuatrillones de operaciones matemáticas por segundo).
En 1993, el supercomputador campeón tenía una velocidad pico de 131 gigaflops (mil millones de operaciones por segundo) y el test lo resolvió a una velocidad de 59,7 gigaflops. El destronado rey de la supercomputación, el estadounidense Jaguar, ha dado en la lista de este año 2,3 petaflops de velocidad pico y 1,75 petaflops, resolviendo el test de Linpack.
Un factor que explica el aumento de la eficiencia de algunas de estas máquinas es la introducción de procesadores que funcionan como aceleradores. Y no son chips raros. Los Cell están en la PlayStation y Nvidia es una conocida marca de procesadores gráficos. "Son procesadores de propósito específico, orientados a optimizar la ejecución de una serie de programas. La ventaja que tienen, comparados con los procesadores de propósito general como los Pentium, es que son más rápidos y consumen menos energía. El inconveniente es que son más difíciles de programar", explica Mateo Valero con pedagógica paciencia. Según Valero, la tendencia en la supercomputación es ir trabajando con estos aceleradores al lado de los procesadores de propósito general (los IBM, Intel, AMD...). "El test Linpack es fácil de programar y ejecutar, porque se trata de una ecuación sencilla, pero los aceleradores exigen una labor de programación notable para programas más complejos como los ejecutados por los supercomputadores". En la lista de junio, el primero iba equipado con procesadores de propósito general, pero el segundo y el tercero ya iban acompañados de aceleradores. El supercomputador chino número 1 en noviembre, va con aceleradores de Nvidia. Pero no todo es velocidad.
En 2007 se empezó a publicar la lista Green 500. En su página explican por qué se necesitaba un hit-parade de la supercomputación que no midiera solo la velocidad de la máquina. Colocar el foco en ella, afirman, supone supercomputadores que consumen grandes cantidades de electricidad y producen tal cantidad de calor que extravagantes sistemas de refrigeración deben ser construidos para asegurar sus operaciones. La Green500 no mide la velocidad de procesamiento. Mide la eficiencia energética. ¿Qué supercomputador trabaja más rápido con menos gasto? Valero, comparando ambas listas, subraya cómo el supercomputador que estaba en junio encabezando la lista Top500 figura en el puesto 56 de la Green500 y las tres máquinas que lideran la Green500 ocupaban los puestos 131 y siguientes en el test Linpack. La máquina que ocupaba posiciones más similares en ambos rankings era Nebulae.
Para la curiosidad local, el barcelonés Mare Nostrum está en el puesto 87 del Top500 de junio. En noviembre de 2006 estaba en el quinto lugar. Un dato que evidencia la necesidad de mantener la inversión de estas máquinas si se quiere competir en la cima de la supercomputación. Los políticos, partidarios de las grandes inauguraciones, se olvidan muchas veces de ello.

2010/08/25

Convierten a Android en una plataforma de supercomputación

ITespresso

El Massachusetts Institute of Technology (MIT) se ha unido al Texas Advanced Computing para crear una aplicación móvil capaz de gestionar algunos de sus procesos de supercomputación, y han escogido la plataforma Android.
Los científicos han tomado un modelo existente y han sido capaces de reducir su tamaño para que cupiera en un dispositivo mucho más reducido del original. Con éxito consiguieron crear una aplicación para la plataforma Android que les permite ejecutar el mismo tipo de cálculos que el superordenador estaba realizando, informan en TG Daily.
David Knezevic, ingeniero del MIT, afirmaba rotundamente que no se necesita tener un ordenador de alta gama, y junto con su equipo confía en que los resultados conseguidos por el terminal basado en Android serán lo suficientemente exactos como para complementar el trabajo que está realizando el superordenador.
Según Knezevic, el experimento realizado podría cambiar la ciencia porque una vez creado el modelo reducido los cálculos se pueden hacer en un teléfono. El investigador del MIT también afirma que saben el grado de precisión que pierden con el modelo reducido, por lo que pueden decir con rigor que “estamos haciendo supercomputación con un teléfono”.

2010/08/14

El equipo de Hawking usa un supercomputador para explorar el espacio

eWeek

COSMOS está usando uno de los supercomputadores más potentes del mundo para analizar los datos en la investigación sobre los orígenes del universo.
Un equipo liderado por el renombrado profesor de astrofísica Stephen Hawking en el Computational Cosmology Consortium (COSMOS) del Reino Unido en Cambridge ha anunciado su elección del SGI Altix UV 1000 para apoyar sus investigaciones.
“Los progresos recientes hacia el completo entendimiento del universo han sido impresionantes, pero quedan pendientes muchos puzzles“, afirmaba Hawking.
Este científico continuaba afirmando que “la cosmología no es una ciencia exacta, y necesitamos supercomputadoras para saber cuáles de nuestras teorías sobre el Universo en estado prematuro permiten corroborar las observaciones del Universo actual”.

2010/08/09

Superordenador de la UV permite reducir coste medicamentos para países pobres

Canarias7

El supercomputador "Tirant" de la Universitat de València (UV) permite reducir el coste de la producción de medicamentos que tendrían precios "desorbitados" en los países pobres a través del aumento de la productividad de las investigaciones.

Según un comunicado de la UV, el "Tirant" resuelve en un día el trabajo que un ordenador personal realizaría en un año y cinco meses, una productividad que permite reducir el coste de las investigaciones farmacológicas y, en consecuencia, el de los medicamentos.

El superordenador se instaló en la UV hace dos años y se ha convertido "en el referente valenciano del mundo de la supercomputación y el cálculo científico".

En este tiempo, "Tirant" ha ofrecido a sus usuarios más de ocho millones de horas de cómputo, lo que equivale al trabajo de un ordenador de sobremesa durante 900 años "sin descansar ni un instante".

A pesar de ello, el director del Servei d'Informática de la UV, José Antonio Vázquez, ha señalado que después de estos dos años "se ha demostrado que hace falta una ampliación urgente para acelerar la obtención de resultados de las investigaciones que lo utilizan".

Entre los usuarios de Tirant hay científicos de institutos y grupos de investigación de la Universitat, grupos de la Universidad Politécnica de Valencia o de la Miguel Hernández, además de importantes colaboraciones con instituciones, fundaciones y otras entidades del tejido investigador valenciano.

Los 512 procesadores, el Terabyte de memoria RAM (más de mil veces el que tiene un ordenador convencional) y los cerca de catorce Terabytes de disco duro (unas cien veces el que tiene un ordenador convencional) que ofrece "Tirant" se aprovechan para diversos proyectos.

Entre ellos, destacan los estudios de la evolución de los agujeros negros en el Universo, las simulaciones que buscan vulnerabilidades en los virus más actuales para encontrar fármacos con mayor eficacia o las simulaciones en el mundo del motor, para optimizar la eficiencia de los coches del futuro.

El superordenador nació en 2008 fruto de una colaboración con el Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS), y entró a formar parte de la Red Española de Supercomputación (RES) como uno de sus ocho nodos distribuidos por todo el Estado.

Desde ese momento se situó entre los 500 computadores más potentes del mundo y empezó a ejecutar los primeros trabajos de simulación científica realizados por grupos de investigación de la UV.

2010/08/04

Formarse en supercomputación, totalmente posible

Silicon News

Las Universidades de Santiago de Compostela y de A Coruña, junto con el Centro de Supercomputación de Galicia (CESGA), acaban de presentar el máster en Computación de Altas Prestaciones (HPC), que arrancará el próximo curso 2010-2011.

El máster de las dos universidades gallegas se suma al Máster en Tecnologías de la Información de la Politécnica de Cataluña o al de Computación Avanzada de la Politécnica de Madrid en la formación de expertos en computación de altas prestaciones, un perfil cada vez más demandado por las empresas.

Según la información facilitada por el CESGA, cada vez las compañías demandan profesionales con estas competencias, con conocimientos de alto nivel en administración de sistemas y especializados en la gestión de infraestructuras de computación científica. Los sectores que reclaman estos perfiles son cada vez más variados, como el financiero, el aeronáutico, la automoción, el eólico, el naviero, el farmacéutico o el electrónico.

Y frente a la demanda elevadísima sólo existen en toda España unos diez centros de supercomputación, lo que permite imaginar lo difícil que puede resultar cubrirla.

El máster de las Universidades de Santiago de Compostela y de A Coruña está patrocinado por Bull y por HP, que dará, esta última, acceso a los titulados a su bolsa de trabajo.

2010/06/11

Cinco países europeos invertirán 500 millones en supercomputación

Fuente: Cinco Dias.

El secretario de Estado de Investigación, Felipe Pétriz, presidió ayer la inauguración de la infraestructura europea de supercomputación Prace, que constará de cinco superordenadores conectados entre ellos, ubicados en España, Alemania, Francia, Italia y Holanda. Cada uno de estos países se ha comprometido a realizar una inversión de 100 millones de euros en un supercomputador (en total 500 millones en los próximos cinco años), "un apoyo esencial a la ciencia europea".
A esa financiación se sumarán 70 millones procedentes de la Comisión Europea, que se destinarán a I+D y a organización y puesta en marcha de la infraestructura, informó Europa Press.
Estas máquinas, que se pondrán en marcha de forma escalonada, permitirán sumar una capacidad de computación que situará a Europa en una posición apta para competir con Japón y EE UU. También China anunció hace unos días que entra en la carrera de la supercomputación. Los impulsores de esta asociación sin ánimo de lucro detallaron que a medio plazo cada supercomputador ofrecerá una potencia de cálculo que alcanzará los petaflops (1.000 billones de operaciones por segundo), y a largo plazo, los usuarios de Prace accederán a equipos con una potencia de Exaflops, un trillón de operaciones por segundo.
La primera inversión la hará este año Alemania y le seguirán Francia en 2011 y España en 2012. En el caso español, se ha alcanzado un acuerdo de cofinanciación entre la Generalitat de Cataluña y el Ministerio de Ciencia e Innovación para albergar una de estas máquinas en el Centro Nacional de Supercomputación en Barcelona.