Buscar

Mostrando entradas con la etiqueta supercomputadora. Mostrar todas las entradas
Mostrando entradas con la etiqueta supercomputadora. Mostrar todas las entradas

2008/11/19

Nvidia anuncia el primer "supercomputador" disponible para el mercado

Fuente: emol.

Hoy, NVIDIA anunció un “supercomputador” personal, basado en una GPU Tesla, de este fabricante de procesadores. La particular máquina tiene la potencia equivalente de un nodo computacional, pero por un centésimo del precio y en el formato de un computador de escritorio normal.

“Todos hemos escuchado del supercomputador de escritorio en el pasado, pero esta vez es real”, dijo Burton Smith, técnico asociado de Microsoft. “NVIDIA y sus socios ortorgarán un rendimiento inédito y una amplia aplicabilidad al mercado. La computación heterogénea, donde las GPU trabajan en línea con las CPU, es lo que hace tal avance posible”.

Con el precio de un PC convencional, pero que entrega 250 veces el poder de procesamiento, los investigadores tienen el poder para realizar cómputos complejos en su mismo computador, procesando más datos más rápido, y acortando su tiempo para lograr más descubrimientos, según explicó la empresa en un comunicado.

“Las GPU han evolucionado al punto donde muchas aplicaciones del mundo real pueden ser fácilmente implementadas en ellas, y correr de forma significativamente rápida en sistemas de múltiples núcleos”, dijo el profesor Jack Dongarra, director del laboratorio de computación innovadora en la Universidad de Tennesse, y autor de LINPACK. “Las arquitecturas de la computación futura serán sistemas híbridos con núcleos paralelos en la GPU, trabajando en línea con CPU de multi-núcleos”.

En el núcleo del Tesla Personal Supercomputer, está el procesador GPU Tesla C1060, basado en la arquitectura paralela NVIDIA Cuda. Cuda permite a los desarrolladores e investigadores aprovechar el gran poder de Tesla a través del estándar industrial C.

“Dell ha liderado en la categoría de las estaciones de trabajo por casi una década, y la computación GPU representa un gran salto hacia adelante en el desempeño que traerá a las masas el poder de los supercomputadores”, dijo Antonio Julio, director del grupo de productos de Dell. “El Dell Precision R5400 y el T7400 permitirán a la comunidad científica aprovechar las capacidades de la GPU NVIDIA Tesla C1060 con más de dos teraflops de poder computacional”.

2008/05/19

Supercomputadora se ocupará de la crisis del arroz

Fuente: RPP.

Ante la creciente preocupación por la crisis mundial de alimentos, IBM y los investigadores de la Universidad de Washington lanzaron hoy un nuevo programa para desarrollar cepas de arroz más fuertes que podrían producir cultivos con rendimientos mayores y más nutritivos.

Con una potencia de cómputo de 167 teraflops, equivalente a la supercomputadora numero tres del mundo, la red World Community Grid de IBM aplicará la potencia no utilizada y donada de casi un millón de PCs individuales a una nueva iniciativa, "Arroz Nutritivo para el Mundo", un proyecto que estudiará el arroz a nivel atómico y luego lo combinará con técnicas tradicionales de cruce de variedades utilizadas por agricultores a lo largo de la historia.

El proyecto puede completarse en menos de dos años, en comparación con los 200 años que hubiera tardado utilizando la potencia de sistemas más convencionales.

"El mundo experimenta tres revoluciones simultáneas: en biología molecular y genética; en potencia de cómputo y capacidad de almacenamiento, y en comunicaciones. La revolución computacional permite a los científicos del mundo entero encarar problemas de una complejidad casi inimaginable con un enfoque de comunidad, en tiempo real," comentó el Director General, Robert Zieglier, del Instituto Internacional de Investigación del Arroz, con sede en Filipinas. "Si bien no hay soluciones mágicas, es posible revitalizar la producción de arroz con la ayuda de nuevas tecnologías. La comunidad mundial debe invertir ahora y por mucho tiempo más."

World Community Grid ejecutará un programa de modelado tridimensional creado por biólogos computacionales de la Universidad de Washington para estudiar las estructuras de las proteínas que componen el arroz. Comprender la estructura es necesario para identificar la función de las proteínas y permitir a los investigadores discernir cuáles podrían ayudar a producir más granos de arroz, evitar pestes, resistir la enfermedad o contener más nutrientes. En definitiva, este proyecto creará el mapa más grande y completo de las proteínas del arroz y sus funciones relacionadas, ayudando a los agricultores a identificar las plantas que deben seleccionarse para realizar cruces, con el objetivo de obtener mejores cultivos.

"El tema es que hay entre 30.000 y 60.000 estructuras de proteínas distintas para estudiar," comentó el Investigador Principal, Dr. Ram Samudrala, Profesor Adjunto del Departamento de Microbiología de la Universidad de Washington. "Utilizar enfoques experimentales tradicionales en el laboratorio para identificar la estructura y función detallada de proteínas críticas llevaría décadas. Ejecutar nuestro programa de software sobre World Community Grid acortará el tiempo de 200 años a menos de dos años".

En definitiva, este proyecto, impulsado inicialmente por un subsidio de U$S 2 millones otorgado por la Fundación Nacional de Ciencia de EEUU, podría permitir a los países productores de arroz ser más inmunes a los cambios climáticos futuros al permitir encontrar rápidamente las plantas correctas para cruzarlas y crear "súper-híbridos" que sean más resistentes a patrones climáticos cambiantes.

La importancia de la investigación en EEUU y en otros países también reside en el hecho de que el conocimiento obtenido gracias a la creación de modelos 3D puede transferirse fácilmente a otros cultivos, como maíz, trigo y cebada.

World Community Grid se aproxima raudamente a su propio hito, esperado para la semana próxima, cuando la red alcance un millón de computadoras adheridas a la promoción de la investigación científica. Cada semana, miles de personas se incorporan a la iniciativa, que ha logrado avances importantes en varios proyectos de investigación de enfermedades como el cáncer y el SIDA. El proyecto de arroz nutritivo es el último que utiliza la red, y podría tener un importante impacto en la salud mundial.

"Este proyecto tiene el potencial de ayudar a los agricultores del mundo entero a plantar mejores cultivos y a paliar el hambre de una parte de la población," manifestó Stanley Litow, Vicepresidente de Ciudadanía Corporativa y Asuntos Públicos y Presidente de la Fundación Internacional IBM. "La gente que desea formar parte de una iniciativa grande puede dar un pequeño paso hoy donando su tiempo de computación no utilizado. Los voluntarios pueden afectar la velocidad con que se procesa la investigación y marcar una gran diferencia para los agricultores y las personas que sufren grandes necesidades".

Cualquier persona con una computadora y acceso a Internet puede formar parte de la solución. Para donar el tiempo ocioso de cómputo, hay que registrarse en www.worldcommunitygrid.org e instalar un pequeño programa de software seguro y gratuito en la computadora. Cuando las computadoras están ociosas, el servidor de World Community Grid solicita datos. Estas computadoras luego realizan los cálculos y devuelven los resultados al servidor, pidiéndole más trabajo. Un protector de pantalla avisa a los usuarios que sus computadoras están siendo utilizadas.

2007/11/15

India entra en la carrera de los superordenadores

Fuente: Barrapunto.

Sale publicado en la BBC la noticia de que un nuevo superordenador llamado EKA, desarrollado por el grupo Tata, ha posicionado por primera vez a la India en el ranking de los ordenadores más rápidos del mundo (cuarto puesto). Las aplicaciones para EKA son muy variadas, tanto en campos de ingeniería automovilística (simulación de cruces) como en nanotecnología, etc. Se trata de un HP Cluster Platform 3000 BL460c que ha costado casi unos 30 millones de dólares, usa arquitectura CLOS y corre bajo sistema operativo Linux. EKA tiene 1800 nodos, y soporta picos de 170 teraflops.

Lo han anunciado oficialmente esta semana en el SC07 (the International Conference for High Performance Computing, Networking, Storage and Analysis). La lista aparece en el "Top 500 Supercomputer List". El Marenostrum de Barcelona ya no aparece entre los principales puestos pese a que en junio de 2007 era el noveno en todo el mundo y en noviembre de 2006 ocupó el quinto puesto. En la lista de "Top 500 Supercomputer list", IBM's BlueGene/L continua figurando como el ordenador más rápido del mundo, mientras que el segundo lugar se va para la nueva versión del BlueGene/L de IBM llamado BlueGene/P. Las 10 máquinas más rápidas salen en Top10 noviembre 2007.

2007/10/17

Astrofísico sustituye supercomputadora por ocho PS3s

Fuente: the INQUIRER.

Con una estructura de cluster, las PlayStation 3 de Sony resuelven complicados cálculos sobre gravedad teórica. Una de sus ventajas respecto a otros sistemas de supercomputación es que funcionan sobre una plataforma de código abierto.

Las consolas dejaron de ser un juego de niños desde hace mucho. Pero de ahí a convertirse en herramienta científica…Para Gaurav Khana, astrofísico y profesor de la Universidad de Massachusetts, las consolas son ideales para sus proyectos de investigación gravitatoria. Por dos razones: “Una de ellas es que Sony acertó al hacer de la PS3 una plataforma abierta, de esta forma uno puede hacer correr Linux con ella y así nadie controla lo que haces”, comenta Khanna.

La segunda razón por la que Khanna se decidió a utilizar las consolas es el procesador Cell, desarrollado entre Sony, IBM y Toshiba. Según el científico, este procesador proporciona una potencia extraordinaria, comparable incluso a la de los supercomputadores, “siempre y cuando sepas optimizar el código y tengas unas cuantas consolas de repuesto a mano”.

Por supuesto, Khanna también tuvo en cuenta el dinero que se ahorraba. Al principio, Khanna montó su centro de investigación con ayuda de una beca de la universidad. Utilizó para ello los supercomputadores que la National Science Foundation (NSF) tiene desplegados por todo Estados Unidos. Pero el funcionamiento de cada uno de ellos tenía un coste de 5.000 dólares, dinero que pagaba con la beca. Khanna averiguó que ocho PS3s de 60 GB sólo le costarían 3.200 dólares, aunque nunca pudo convencer a la universidad de que le diera dinero para comprar las consolas. Fue la misma Sony la que al final le echó una mano con el proyecto.

2007/09/17

Super ordenador… a pedales

Fuente: the INQUIRER.

Que se trate de un super computador y que vaya a pedales parecen cosas opuestas, pero SiCortex ha demostrado que se puede tener gran rendimiento cuidando el consumo.

La clave de todo era demostrar que se puede mirar un poco más al medio ambiente por mucho que se quieran soluciones de alto rendimiento, y para ello SiCortex presentó este ordenador basado en Linux, que funcionaba gracias a la energía generada por un grupo de entre 8 y 10 bicicletas.
Cada una de estas bicicletas produce unos 260 W, energía suficiente para hacer funcionar el ordenador mientras realizaba complejos análisis genéticos y para mantener funcionando el sistema de refrigeración, vital en estos casos.
Como dijo la propia compañía en la presentación, “Hace 10 años estos análisis no eran posibles ni con el ordenador más grande, ahora se esta haciendo con una máquina impulsada por bicicletas”.

2007/09/01

Microwulf, el supercomputador portátil de 2500 dólares

Fuente: Barrapunto.

Un estudiante del Calvin College llamado Tim Brom ha construido junto a Joel Adams --uno de sus profesores-- un supercomputador muy especial. Microwulf ha costado tan solo 2500 dólares y alcanza los 26,25 GFLOPs, una marca que lo sitúa como la máquina de estas características con la relación rendimiento/precio más baja de la historia. Para que os hagáis una idea, es más rápida que Deep Blue, la supercomputadora creada por IBM que derrotó a Gary Kaspárov al ajedrez en 1997. Y además, cabe perfectamente en tu mesa ya que su tamaño es casi el de un PC tradicional.

2007/07/31

Un superordenador hecho con consolas PS3

El Dr. Frank Mueller construyó un cluster homogéneo de alto rendimiento utilizando ocho unidades de Playstation 3.

Una Playstation 3 puede hacer algo más que reproducir juegos de alta calidad, como crear un superordenador por un costo relativamente bajo, algo que descubrió Frank Mueller, profesor asociado de Ciencia Informática en la Universidad del estado de Carolina del Norte. Según Mueller, cada PS3 contiene 6 núcleos operacionales especializados en procesamiento de números y un núcleo general, que - alineados en su configuración de dos vías en el cluster que armó con 8 unidades – resultaron en 64 procesadores. El resultado se traduce en alta capacidad de procesado de datos además de poder correr los últimos juegos de ordenador.

Mueller nos dice “Los cluster no son nuevos en el mundo de la informática. Tanto Google, como el mercado de valores y las compañías de diseño de automóviles usan clusters, pero este sería el primer cluster de uso académico construido con PS3”. El cluster de Mueller logra el poder de un pequeño superordenador a un costo de unos US5.000 (€3.648), lo que es menor al precio de algunos ordenadores de escritorio actuales que sólo tienen una fracción del poder computador de este cluster.

Aunque la Playstation 3 es muy buena en el procesado de números, algo esencial de la ciencia informática, Mueller reconoce que al momento están limitados por los 256 MB de memoria RAM de las máquinas. De todas maneras, considera que sería posible agregarle más RAM ya que todavía no se han zambullido del todo en el caso y explorado las distintas opciones.

El cluster de PS3 creado por Mueller, aunque realmente poderoso, no llega a entrar dentro de los 500 ordenadores más rápidos del mundo (siendo el BlueGene/L quien encabeza la lista con sus 130.000 procesadores) pero el profesor estima que con unas 10.000 PS3 cualquiera podría crear el ordenador más rápido del mundo (con ciertas limitaciones de red y precisión)

El conglomerado de máquinas creado por Mueller nació el 3 de Enero y está siendo utilizado con propósitos educacionales y de investigación.“Estamos trabajando con científicos para determinar las distintas necesidades y cómo nuestro cluster puede ser usado para beneficio de todos en la Universidad” comenta Mueller. El cluster se está utilizando para dar clases de sistemas operativos, y planean aplicarlo en la enseñanza de sistemas paralelos, compiladores y juegos a futuro.


Fuente: NeoTeo.

2007/06/21

“Se quema” la supercomputadora de la UNAM

A menos de cuatro meses de inaugurada, la supercomputadora Kan Balam “se quemó” y sólo funciona el 25 por ciento de la capacidad originalmente instalada, denuncian funcionarios, trabajadores, académicos y usuarios de la DGSCA. La máxima casa de estudios del país ha tenido que desconectar la máquina por la que erogó más de 3 millones de dólares en una compra a HP que por lo menos debería de ser investigada.
La “máquina repatriadora de cerebros” –como la Universidad Nacional Autónoma de México (UNAM) denominó a su más reciente supercomputadora– “se quemó”. A cuatro meses de inaugurada, el 75 por ciento de la máquina no funciona y desde el pasado 26 de mayo permanece apagada. Trabajadores, a marchas forzadas, instalan un “sistema de enfriamiento” para acondicionar el “cuarto frío” que la alberga y las autoridades puedan reiniciarla en la segunda mitad de junio.
Funcionarios, académicos, empleados y usuarios de la Dirección General de Servicios de Cómputo Académico (DGSCA) –quienes se han identificado plenamente pero solicitan mantenerse en el anonimato por temor a represalias– detallan que el equipo comprado a Hewlett Packard (HP) nunca funcionó a más del 50 por ciento de su capacidad anunciada, adoleció siempre de fallas lógicas (que lo mantenían “pasmado” hasta por 15 días) e incluso, al menos una vez, se incendió.
El 17 de febrero, sólo un mes y un día después de haber sido puesta en marcha por el rector de la UNAM, Juan Ramón de la Fuente, la supercomputadora Kan Balam –llamada así oficialmente en honor al gobernante maya que vivió de 635 a 702 y mandó construir gran parte de los edificios de Palenque– se sobrecalentó e inició un incendio que fue sofocado por el área de vigilancia de la DGSCA y el cuerpo de bomberos de la UNAM.
El percance ocurrió durante la madrugada. Ante el incendio, los vigilantes llamaron a los responsables directos de la supercomputadora, la arquitecta Genevieve Lucet, directora de Cómputo para la Investigación, y el maestro en Ciencias José Luis Gordillo, jefe del departamento de Supercómputo. Los funcionarios nunca contestaron el teléfono y los trabajadores decidieron cortar la corriente eléctrica, lo que, a decir de especialistas, resulta contraproducente para los sistemas de cómputo.
“Los trabajadores cortaron de tajo la corriente eléctrica para que no se dañara más el equipo”, explican las fuentes consultadas. Agregan que, con ello, el equipo estuvo “a punto de quemarse completamente”. Desde entonces quedaron inservibles más de 100 nodos (o 400 procesadores) y el 50 por ciento de la máquina se dañó. No se repararon las averías y sólo se cubrieron con pintura los rastros del incendio en el techo del “cuarto frío” que la alberga.
Una nueva “falla lógica” ocurrida durante la primera semana de mayo afectó los discos duros y dejó sin funcionar otra cuarta parte de la supercomputadora. Infructuosamente, matemáticos, biólogos, ingenieros, físicos y, entre muchos otros científicos, vulcanólogos, solicitan el equipo Kan Balam sin éxito. Las autoridades universitarias niegan el servicio aduciendo “alta demanda”.
Los solicitantes son enviados a una lista de espera o a las otras supercomputadoras compradas con anterioridad por la UNAM y que se encuentran saturadas, como la Alpha Server SC. Los científicos terminan por desistir de realizar su proceso computacional.
“Quienes solicitan Kan Balam son apenas unas decenas de personas; por ello es ilógico que se les esté negando el servicio cuando supuestamente podrían estar trabajando al mismo tiempo en ella hasta 350 científicos”, dicen los denunciantes.
Fraude contra la UNAM
Los especialistas exponen lo que consideran un “fraude contra la UNAM”, en el que estarían involucradas tanto las autoridades universitarias encargadas de la compra como la compañía HP, que vendió el equipo.
“La máquina nunca trabajó siquiera al 60 por ciento. Siempre se mantuvo entre el 20 y el 30 por ciento. Y cuando alcanzó a trabajar al 50 por ciento, se sobrecalentó y se incendió.”
Agregan que a los defectos de configuración de la Kan Balam, se sumó el inadecuado espacio destinado para albergarla. Se trata de un antiguo sótano de aproximadamente 120 metros cuadrados donde se encuentran 16 muebles que contienen mil 368 procesadores AMD de 2.4 Gigahertz; 768 discos duros equivalentes a 160 Terabytes de memoria en disco duro y 3 mil 16 Gigabytes de memoria RAM. Además de dos muebles de switches para interconectar la máquina.
“Cualquier ingeniero de hardware sabe que se tienen que calcular las áreas en donde se instalarán los equipos, el tipo de ventilación, la corriente, potencia y los aparatos que la soportan, además de las áreas libres para el trabajo de mantenimiento.”
A decir de las fuentes consultadas, el sistema de enfriamiento de la supercomputadora no tiene la capacidad para mantener el ambiente a una temperatura inferior a los 18 grados centígrados. Por ello, agregan, se sobrecalienta aunque trabaje al 20 por ciento de su capacidad. De hecho, el incendio del 17 de febrero fue provocado por el sobrecalentamiento al que llegó cuando alcanzó a trabajar al 50 por ciento.
“La máquina ya había operado algunas semanas con varias fallas de hardware. Y a pesar de que personal de la DGSCA reportó a las autoridades que la Kan Balam estaba trabajando con temperaturas altas, las advertencias no fueron atendidas ni por el jefe de Supercómputo, José Luis Gordillo, ni por la directora de Cómputo para la Investigación, Genevieve Lucet.”
A los especialistas les resulta extraño que el método de adquisición de esta supercomputadora, cuyos nombres técnicos son clúster o granja de servidores, haya sido una subasta descendente, donde la ganadora HP dejó atrás a las empresas IBM y SUN.
Informan que, meses antes, HP había “donado” un equipo para cálculo científico con procesadores Itanium 2. Reconocen que no es la primera vez que la UNAM compra a HP un equipo de cómputo. “Por supuesto que no es la primera. Casi siempre gana en los proyectos en los que está involucrado directamente el director (de la DGSCA) Alejandro Pisanty”.
Les sorprende que hasta el momento, y luego de meses de fallas, ningún técnico de HP se haya presentado a revisar la supercomputadora, cuando “toda licitación marca garantía de partes, mantenimiento por un número determinado de años, cartas legales, condiciones de entrega y calendario de actividades desde la mudanza del equipo, instalación y capacitación, hasta condiciones de estabilidad y reproducción de pruebas técnicas”.
Señalan que HP no debió haber celebrado el contrato si la UNAM no daba garantías de destinar un inmueble adecuado para la supercomputadora. “Desde ahí, vemos que se trató de un acuerdo turbio, en el que, por decir lo menos, se actuó irresponsablemente. Lo malo es que se jugó con más de 30 millones de pesos que provienen del erario público”.
Compra “a ciegas”
En febrero de 2006 la Cámara de Diputados determinó asignar un presupuesto extraordinario a la UNAM y al Instituto Politécnico Nacional. La Universidad decidió utilizar de ese presupuesto 30 millones de pesos para “fortalecer la infraestructura de supercómputo”.
La Universidad anunció con una intensa campaña en los medios de comunicación la puesta en marcha de Kan Balam el 16 de enero de 2007, cuatro meses después de haber sido recibida en las instalaciones de la DGSCA.
Entonces, la UNAM destacó que la nueva supercomputadora permitía a los científicos mexicanos “estar a la altura de los mejores del mundo” y que la máquina era una auténtica “repatriadora de cerebros”.
En el discurso de inauguración, el rector Juan Ramón de la Fuente dijo que “con un adelanto como ése se avanza en generar conciencia social respecto a la importancia de la ciencia, la tecnología y la investigación como palancas ineludibles del desarrollo”.
Por su parte, el titular de la DGSCA, Alejandro Pisanty, consideró que “con esta herramienta se atiende la necesidad de la comunidad universitaria y nacional al actualizar las capacidades de cálculo que requiere para participar en el ámbito global del quehacer científico de manera competitiva y equilibrada”.
En el boletín realizado por la Dirección de Comunicación Social de la UNAM se señaló que la Kan Balam ocupaba el lugar 126 dentro de la clasificación de las 500 supercomputadoras más rápidas del mundo y el 28 entre las instaladas en universidades. Además, se dijo que tenía la capacidad de realizar 7 billones de operaciones aritméticas por segundo.
Sin embargo, “la UNAM dio por hecho todas las aseveraciones sin siquiera probar el equipo. Cuando se compra una máquina de este tipo se hacen pruebas rigurosas que llevan meses. Y aquí sólo se compró. No sabemos por qué se aceptó en tales condiciones”.
Los universitarios señalan que HP pospuso hasta en tres ocasiones la entrega de la supercomputadora “y se clasificó como la máquina 126 de entre las 500 más veloces del mundo sin haber corrido nunca la prueba que lo determina. Y una vez que fue instalada nunca se pudo estabilizar para correr la prueba de todos los procesadores con los que cuenta”.
Incluso, el día en que la DGSCA –representada por Genevieve Lucet y José Luis Gorillo– aceptó y firmó la recepción del equipo comprado a HP, la máquina “nuevamente se colapsó; y de todas maneras ellos firmaron”.
Esto ocurrió en los primeros días de febrero, 15 días después de la inauguración oficial hecha por el rector Juan Ramón de la Fuente.
Además de Pisanty, Lucet y Gordillo, la responsabilidad de la adquisición de la máquina también recayó en el Comité Académico de Supercómputo, el cual, según la página electrónica de la DGSCA, “tiene como funciones primordiales dar seguimiento a las actividades relacionadas al supercómputo, dictar políticas y emitir recomendaciones sobre la adquisición de nuevos sistemas de cómputo numérico intensivo. Asimismo es el organismo encargado de valorar y aprobar la calidad académica de los trabajos que solicitan el uso de recursos de supercómputo”.
Al momento de la adquisición de Kan Balam, el Comité estaba integrado por el doctor Carlos Bunge Molina, del Instituto de Física; el doctor Emilio Orgaz Baqué, de la Facultad de Química; el doctor Lukas Nellen, del Instituto de Ciencias Nucleares; el doctor Francisco Sánchez Sesma, del Instituto de Ingeniería; el doctor William Henry Lee Alardin, del Instituto de Astronomía; el físico Jesús Cruz Guzmán de la Facultad de Estudios Superiores Cuautitlán, y el doctor Ariel Valladares, del Instituto de Investigación en Materiales.
Según las fuentes consultadas, el doctor Valladares fue obligado a renunciar al Consejo una vez que se inició el proceso de adquisición de la supercomputadora. Previamente se habían separado del cargo los doctores Enrique Vázquez Samadeni y Jaime Lagunes, del Instituto de Astronomía con sede en Morelia y del Instituto de Química, respectivamente.
La página electrónica donde se informaba de la situación de Kan Balam fue retirada de la internet. El último reporte en línea tuvo lugar el 23 de abril. El informe gráfico, titulado “Kan Balam. Distribución térmica”, cuya dirección electrónica es htp://132.248.202.196:2030/cgi-bin/kanbalam-temp.cgi, a decir de los especialistas, demuestra que la máquina laboraba en ese momento a un 50 por ciento de su capacidad, antes de que otro cuarto de capacidad se dañara.
Según los académicos, trabajadores y funcionarios, las autoridades universitarias han iniciado “una cacería de brujas” para identificar a quien denuncia lo que ocurre al interior de la DGSCA.
“Las autoridades pueden decir a los medios que está todo normal y que no pasa nada; pero nosotros nos damos cuenta, no nos engañan. Y aunque digan que trabaja al 90 o ciento por ciento, no lo demuestran. Por ello, es necesario un peritaje independiente, que podría realizarlo la Secretaría de la Función Pública, para que se informe de la verdadera la situación en la que se encuentra parte del patrimonio de la UNAM y del país”, señala uno de los científicos denunciantes.
Se solicitó a la UNAM copia de los contratos celebrados entre la Universidad y HP y de los reportes de evaluación y estatus de la supercomputadora. Hasta el cierre de edición, la Universidad no había ofrecido ninguna respuesta.
Fuente: Contralinea.