Buscar

Mostrando entradas con la etiqueta computacion. Mostrar todas las entradas
Mostrando entradas con la etiqueta computacion. Mostrar todas las entradas

2010/09/24

La computación a nivel atómico, más cerca

eWeek

Mientras la industria tecnológica sigue exprimiendo la Ley de Moore y los componentes electrónicos se fabrican con arquitecturas cada vez más diminutas, la marcha sigue inevitable hacia un objetivo que podría ser definitivo, la computación a nivel atómico.
En IBM parece que lo tienen muy claro, y han apostado por esta investigación nanotecnológica desde hace años. Sin embargo, ahora parece que han dado un importante paso a nivel atómico, ya que, según un artículo publicado en la revista Science, los investigadores del Gigante Azul han conseguido cuantificar el tiempo que un átomo es capaz de mantener almacenada la información.
Lo han conseguido gracias al uso de un Microscopio STM (Scanning Tunneling Microscope, Microscopio de Efecto Tunel), una suerte de videocámara ultra-rápida con la que los investigadores son capaces de estudiar el comportamiento de los átomos a velocidades un millón de veces superiores que hasta ahora. Serán capaces, por ejemplo, de cambiar el comportamiento de los átomos para conseguir los resultados deseados.
De esta forma, es posible añadir en los complejos cálculos de sus experimentos la variable Tiempo como una nueva dimensión. La consecución de sus objetivos podría tener un importante impacto en áreas como las células solares, computación cuántica o capacidades de almacenamiento de datos a nanoescala.
Durante dos décadas, IBM ha estado utilizando estos microscopios STM. Con la nueva técnica utilizada, los investigadores son capaces de estudiar ese comportamiento atómico a nivel de nanosegundos, en vez de milisegundos. Para hacernos una idea, la diferencia entre un nanosegundo y un segundo es equivalente a la diferencia entre un segundo y 30 años.

2010/05/12

Una molécula de yodo puede calcular miles de veces más rápido que un PC

Fuente: the INQUIRER.

Un experimento realizado por investigadores japoneses ha mostrado que una sola molécula de yodo puede realizar cálculos complejos miles de veces más rápido que un ordenador personal actual. Ya ‘sólo’ resta unas cuantas décadas para que esta computación molecular atraviese las paredes del laboratorio y llegue al mundo real.
Para el experimento, los investigadores japoneses probaron el tiempo empleado en el cálculo de una transformada discreta de Fourier, un algoritmo con multitud de aplicaciones en ciencia e ingeniería.
El cálculo fue rapidísimo con una simple molécula de yodo aunque su manipulación “fue compleja y desafiante” según los científicos, que reconocieron no tener ni idea de cómo utilizar este tipo de tecnología para crear algo parecido a un PC convencional con el silicio como protagonista.
La computación molecular está en pañales, más retrasada incluso la computación cuántica, que necesitarán aún décadas para pasar del laboratorio a los escritorios de los hogares.

2010/04/17

El cerebro del gato, modelo para un ordenador biológico

Fuente: Canarias7.

Un gato puede reconocer un rostro más rápido y más eficientemente que un superordenador. Esa la razón por la que el cerebro del felino ha sido elegido como modelo para un proyecto informático de inspiración biológica con participación de la Universidad de Michigan.

  El equipo del ingeniero Wei Lu ha dado un paso hacia el desarrollo de este tipo de máquina revolucionaria que podría ser capaz de aprender y reconocer, así como tomar decisiones más complejas y realizar más tareas al mismo tiempo que los ordenadores convencionales.

  Lu había construido previamente un 'memristor', un dispositivo que sustituye a un transistor tradicional y actúa como sinapsis biológica, recordando tensiones a las que ha sido sometido. Ahora, él ha demostrado que este memristor puede conectar circuitos convencionales y apoyar un proceso que es la base para la memoria y el aprendizaje en los sistemas biológicos. Un documento sobre la investigación se publica en Nano Letters.  

  "Estamos construyendo un equipo de la misma manera que la naturaleza construye un cerebro", dijo Lu, profesor asistente en el Departamento de Ingeniería Eléctrica e Informática. "La idea es utilizar un paradigma completamente diferente en comparación con los ordenadores convencionales. El cerebro del gato establece un objetivo realista porque es mucho más simple que un cerebro humano, pero todavía muy difícil de replicar en complejidad y eficiencia."

  Los superordenadores más sofisticados de hoy pueden lograr ciertas tareas con la funcionalidad del cerebro de un gato, pero es una enorme máquina con más de 140.000 unidades de procesamiento central y una fuente de alimentación dedicada. Y todavía realiza el trabajo 83 veces más lento que el cerebro de un gato.

  En el cerebro de un mamífero, las neuronas están conectadas entre sí por las sinapsis, que actúan como interruptores reconfigurables que pueden formar las vías que unen a miles de neuronas. Lo más importante es recordar estas sinapsis sobre la base de la fuerza y la sincronización de las señales eléctricas generadas por las neuronas.

  En un ordenador convencional, la lógica y funciones de la memoria se encuentran en diferentes partes del circuito y cada unidad de cálculo sólo está conectado a un puñado de neuronas vecinas en el circuito. Como resultado, las computadoras convencionales ejecutan el código de forma lineal, línea por línea, dijo Lu. Son excelentes para realizar tareas relativamente simples con variables limitadas.

  Pero un cerebro puede realizar muchas operaciones simultáneamente, o en paralelo. Así es como podemos reconocer una cara en un instante, pero incluso un superordenador necesita mucho, mucho más tiempo y consume mucha más energía en hacerlo.

  Hasta el momento, Lu ha conectado dos circuitos electrónicos con un memristor. "Demostramos que podemos utilizar un momento de tensión para aumentar o disminuir gradualmente la conductividad eléctrica en este sistema basado en memristor. En nuestros cerebros, cambios similares en la conductancia de la sinapsis fundamentalmente dan lugar a la memoria a largo plazo", dijo Lu.

  El siguiente paso es construir un sistema más amplio, dijo Lu. Su meta es lograr la sofisticación de un superordenador en una máquina del tamaño de un envase de bebida de dos litros. Eso podría quedar a  varios años de investigación.

  Lu dijo que un análogo electrónico de un cerebro de gato sería capaz de pensar con la inteligencia propia del felino. Por ejemplo, si la tarea es encontrar el camino más corto desde la puerta principal hasta el sofá en una casa llena de muebles, y el equipo sólo conoce la forma del sofá, una máquina convencional podría lograr esto. Pero si usted mudó el sofá, no se daría cuenta de la adaptación y encontraría un nuevo camino. Eso es lo que los ingenieros esperan que el equipo del cerebro del gato sería capaz de hacer.

2009/01/05

Crece la computación en nube de Google

Fuente: CNN.

Recientemente, Todd Pierce hizo una apuesta arriesgada que pudo haber puesto en riesgo incluso su empleo.

A fin de satisfacer las necesidades informáticas de 16,300 empleados y contratistas en Genentech Inc., Pierce corrió el riesgo y decidió no depender totalmente de los programas empresariales de Microsoft, IBM u otro proveedor tradicional, un modelo convencional en el que la empresa compradora se convierte en propietaria de licencias de uso.

En vez de eso, Pierce, quien es director de tecnología de Genentech Inc., decidió arrendar esos productos indispensables a Google Inc.

Google, el gigante de la búsqueda de información y de la publicidad en Internet, se haría cargo del sistema de correo electrónico de Genentech, así como de los programas usados en la oficina, como el procesador de palabras, la hoja de cálculo y el calendario, y haría todo eso mediante una conexión "online", una estrategia novedosa llamada "computación en nube".

La decisión ha convertido a Genentech, pionera de la biotecnología, en un conejillo de Indias para Google y otros servicios alternativos de software, que tratan de convencer a los escépticos ejecutivos de las corporaciones de que la "nube" es un concepto válido y conveniente.

En el proceso, Google Inc. espera quitarle ingresos a Microsoft Corp. y rebasar a su rival acérrima en la lucha por apoderarse del control de los programas más usados en cómputo.

El director general de Genentech, Arthur Levinson, forma parte del consejo directivo de Google, pero Pierce insiste en que esos nexos no fueron el motivo principal para la transición a la computación en nube.

Después de largos ensayos internos, Pierce se convenció de que Google era fiable para proporcionar a Genentech programas informáticos cruciales, con tanta precisión como la que muestra esa misma empresa al descifrar las peticiones de búsqueda hechas en la Web y anexarles anuncios.

"Uno no quiere quedarse atrapado en el pasado", dijo Pierce, director general de informática en Genentech. "Creo que estamos a la vanguardia respecto de esta tendencia".

La computación en nube ha crecido, para formar un mercado de aproximadamente 36,000 millones de dólares este año, o aproximadamente 13% de las ventas de software en el mundo. La gran pregunta es ahora si esto puede transformarse en una gran tendencia tecnológica que vuelva obsoletos los modelos de negocios de Microsoft y de otras empresas de programas para computadora.

Pese al revuelo que ha causado esta modalidad, resultará difícil romper los hábitos viejos, especialmente dado que las potencias del software empresarial - Microsoft, IBM Corp., Oracle Corp. y SAP - han reaccionado para proteger sus negocios existentes y lucrativos de programas informáticos, mientras crean sus propios servicios en línea para competir contra las compañías incipientes.

Ni siquiera Genentech, la mayor empresa que ha comprado hasta ahora el paquete de aplicaciones informáticas de Google, está lista para abandonar totalmente a Microsoft. Todavía adquiere licencias para usar programas como el procesador de textos Word y Excel para crear hojas de cálculo.

Típicamente, las empresas son dueñas de licencias de software, las cuales requieren de instalar los programas en cada computadora, a lo que siguen años de mantenimiento costoso para que la tecnología siga funcionando.

En contraste, la computación en nube permite que alguien más se encargue de los programas empresariales, a distancia y a cambio de una tarifa mensual o anual. Los usuarios ingresan a los programas mediante conexiones a la internet.

La idea ha agradado a los dueños de pequeñas empresas, agencias gubernamentales y escuelas. Ahora, las compañías más grandes comienzan a mostrarse interesadas, particularmente en medio de la recesión, mientras buscan formas de ahorrar dinero.

"Casi todo el mundo ha puesto una buena parte de su vida personal en la Internet y no hay duda de que los programas empresariales futuros estarán también ahí", dijo Zachary Nelson, jefe de NetSuite Inc., especialista en informática. "Sólo hay que ver cuándo están listas las compañías para hacer esta mudanza".

Los aspectos económicos convencieron a Genentech. Con base en el número de empleados que tienen cuentas de software con Google, la empresa del sur de San Francisco paga al menos 800,000 dólares al año, por usar el paquete basado en la Internet.

La compra y mantenimiento de un sistema similar de Microsoft, Oracle o IBM habría costado mucho más, aunque Genentech se negó a decir cuánto ha ahorrado al suscribirse al paquete de oficina de Google.

Independientemente de la cifra, el ahorro no cesa ahí. Pierce considera que la empresa tendría que invertir al final entre 70 y 80 millones de dólares para construir un centro de datos, repleto de servidores, a fin de que su software funcionara, y habría tenido que contratar a más ingenieros y especialistas en tecnología.

"Es un gran costo que no generará un millón de dólares en ventas para mi compañía", razonó Pierce.

2008/11/14

Un modelo computacional puede predecir el comportamiento y aprendizaje humanos

Fuente: webogs mi+d.

Un modelo computacional que puede predecir como las personasl podrán completar una serie de tareas predeterminadas, y como el conocimiento necesario para completar esa tarea se desarrolla sobre el tiempo, es el producto de un grupo de investigadores conducidos por un catedrático del Penn State's College of Information Sciences and Technology.

Frank Ritter, un profesor asociado de Informática y Psicología, y su equipo de investigadores, usaron el lenguaje de programación Soar, que está diseñado para representar el conocimiento humano, en una tarea de reconocimiento de 20 circuitos de prueba, realizada por 10 estudiantes de la Universidad de Nottingham. Cada participante tenía que memorizar la organización de los componentes del circuito y, posteriormente, detectar errores en su diseño. Este proceso se repitió 20 veces por cada persona, con las series de tests elegidas de forma aleatoria. Sus elecciones y tiempos de reacción fueron almacenados y comparados con los resultados del modelo computacional.

Como la mayoría de los estudiantes, el modelo computacional, llamado Diag, aprendió según iban pasando las distintas fases del test, y desarrolló el conocimiento para completar la tarea de la forma más rápida y eficiente. En la mayoría de los casos, el modelo tardaba de 2 a 4 segundos en predecir cuánto tiempo tomaría cada participante en resolver el problema, con una precisión del 80%.

"El proyecto muestra que podemos predecir el aprendizaje humano con un grano muy fino de detalle", dijo Ritter. Todo el mundo piensa que eso es posible, pero aquí presentamos un modelo que lo hace. El modelo prevé una representación detallada de como funciona el proceso de transferencia, que es en lo quie se basa la educación.

2008/10/29

Microsoft batalla "en las nubes"

Fuente: BBC Mundo.
Microsoft reveló una "nube computacional", en el que la información y las aplicaciones no estarán almacenadas en los computadores de los individuos.
La nueva plataforma, conocida como Windows Azure, fue anunciada en una conferencia en Los Angeles, EE.UU.
La plataforma fue descrita por el arquitecto jefe de software de Microsoft, Ray Ozzie, como "Windows para la nube".
Será ofrecida junto a la siguiente versión de Windows, Windows 7.
La iniciativa muestra a Microsoft enfrentándose a jugadores establecidos como Google y Amazon en el rápidamente creciente negocio del software en línea.
El objetivo es permitir a los creadores construir nuevas aplicaciones que viven en Internet, en vez de en sus propios computadores.
Microsoft cree que los consumidores también querrán almacenar mucho más de su información, desde cartas, pasando por fotos y videos, en los servidores de su "nube" de centros gigantes de datos alrededor del mundo, para que puedan ser revisados en cualquier parte, desde cualquier instrumento.
La decisión, vista por Microsoft como un cambio importante en su estrategia corporativa, fue revelada en frente de 6.000 desarrolladores de software de todo el mundo.
Nuevo software
El termino "nube computacional" se ha puesto de moda, a medida que empresas con centros de datos grandes empiezan a rentar espacio a compañías que quieren construir aplicaciones en línea de rápido crecimiento sin necesidad de invertir en más servidores cuando el tráfico crece.
Para los consumidores está el prospecto de un futuro en el que buena parte de sus datos y muchas de las aplicaciones que usan podrían ser almacenadas en línea "en la nube".
Microsoft, que todavía obtiene enormes utilidades de sus productos Windows y Office, está moviéndose ahora a territorio en donde hasta ahora ha tenido dificultades para lograr un impacto.
Google, que domina en motores de búsqueda y en publicidad en línea, ya tiene un grupo de aplicaciones en línea viviendo en "la nube".
Sam Schillache, administrador de Google Docs, dice no estar preocupado por la llegada de un nuevo rival de gran tamaño.
"La competencia, incluso la dura competencia de Microsoft no nos preocupa porque hará que internet en su conjunto sea mejor, o de lo contrario será irrelevante para hacerlo mejor".
Sin mencionar a Microsoft, Schillace estableció un contraste entre el viejo modelo de software "voluminoso" y un futuro más abierto en el que las aplicaciones en línea serían actualizadas virtualmente cada semana.
"La manera en que la gente trabaja y se comunica; apertura, velocidad, agilidad y enfoque son mucho más valiosos y creo que es un desplazamiento muy grande" agregó.
Nubes veloces
Amazon, con grandes centros de datos que manejan millones de transacciones de e-comercio, ha sido otro pionero en el campo, con su Servicio Elástico de Nube.
Utilizando la capacidad ociosa en sus servidores, permite que un rango de clientes grandes y pequeños, desde desarrolladores de aplicaciones de Facebook hasta el Washington Post, construyan aplicaciones que pueden afrontar un aumento súbito en la demanda.
En su discurso en Los Angeles, Ray Ozzie dijo que se "quitaba el sombrero" ante Amazon por su trabajo en ese campo, diciendo que todos estamos "parados en sus hombros".
Microsoft está tomando un camino distinto al de algunos de sus rivales, insistiendo en que sus clientes todavía quieren la opción de mantener el software en sus propios computadores, así como en línea en la nube de la red. Es una estrategia que los rivales dirán está diseñada para proteger las utilidades derivadas de sus productos de software existentes.
Pero está planteada una batalla en las nubes entre las pocas grandes empresas con los recursos suficientes para construir los enormes centros de datos sobre los cuales dependerá está nueva forma de computación.

2007/09/14

El cifrado de clave pública, inútil: llega la computación cuántica

Fuente: the INQUIRER.

Dos estudios independientes han demostrado que la computación cuántica - cuya realidad palpable cada vez está más cerca - podría amenazar muy pronto la validez de los algoritmos de cifrado de clave pública, debido a la gran potencia de cálculo de estos sistemas.

La Universidad de Queensland en Brisbane (Australia) y la Universidad de Ciencia y Tecnología de Hefei, en China han construido cada una por su lado dos computadoras cuánticas capaces de una potencia de cálculo asombrosa, que aplicada a problemas específicos supera a todo lo conocido hasta la fecha.
El problema precisamente aparece cuando estas computadoras cuánticas han sido diseñadas para ejecutar el denominado algoritmo de Shor, un método que permite descifrar las claves públicas de los mecanismos de cifrado actuales.
En la revista New Scientist explican cómo funciona el algoritmo, que factoriza números de forma ultrarápida y que por tanto amenazaría el mecanismo de seguridad que se utiliza actualmente en infinidad de transacciones y sistemas tanto empresariales como de investigación, gubernamentales y bancarias.

2007/09/12

Más cerca de la computación atómica

Fuente: La Nacion.

Si lo que acaban de descubrir los investigadores del laboratorio Almadén de IBM, en California, Estados Unidos, resulta apto para la fabricación en serie, en la próxima década se producirá un salto cuántico en la capacidad de almacenamiento de los dispositivos digitales. Dicho de modo sencillo, los científicos del Almadén están ahora más cerca de lograr almacenar datos en átomos individuales.

El trabajo, publicado en la revista Science , tiene un título atemorizante: Large Magnetic Anisotropy of a Single Atomic Spin Embedded in a Surface Molecular Network , pero significa que ahora es posible usar las propiedades magnéticas de los átomos de hierro incrustados en una superficie de cobre para guardar unos y ceros.

También conocidos como bits (apócope de binary digit , dígito binario), los unos y ceros son las únicas cifras que en última instancia componen toda la información digital de las computadoras, cámaras, reproductores de música y celulares modernos. "Uno de los mayores desafíos de la industria tecnológica hoy es reducir al máximo el tamaño que ocupan los bits usados para almacenar información -dijo Gian-Luca Bona, gerente de ciencia y tecnología del Almadén-. Aquí trabajamos en el borde mismo de lo que es posible, y con este descubrimiento estamos un paso más cerca de averiguar la forma de almacenar datos en el nivel atómico."

Si el hallazgo conduce a una técnica práctica para reemplazar los circuitos de silicio que se usan en la actualidad, la densidad de información de los chips aumentaría mil veces. Así, se podrían tener 30.000 largometrajes en un aparato del tamaño de un celular. Eso equivale a todas las películas que podría ver una persona en su vida si fuera al cine todos los días. Tal avance cambiaría por completo el paradigma de la tecnología de la información, tal como el transistor en 1947 y el microprocesador en 1971.

Además, el laboratorio de IBM en Zurich, Suiza, dio con la forma de construir interruptores basados en dos moléculas de hidrógeno sobre una molécula de naftalocianina, en lugar de los circuitos de silicio que se usan actualmente.

Los interruptores electrónicos, el ladrillo básico de la electrónica moderna, podrían reducirse tanto con esta tecnología que toda una computadora podría caber en un grano de polvo, especula IBM.

2007/08/16

Comenzó la construcción de la computadora más rápida del planeta

Fuente: urgente24.

IBM se encuentra desarrollando la computadora de uso público más rápida del planeta: con un costo de US$ 208 millones y una capacidad de mil trillones de cálculos por segundo, la Blue Water estará terminada en el 2011.

Parece que IBM busca desafiar los límites, siempre y como sea. Cómo ya siente que su ordenador Blue Gene/L ya no es lo suficientemente rápido, ha decidido crear un nuevo equipo, de nombre Blue Water, que superará el rendimiento de petaflop de la versión anterior.

La Universidad de Illinois será la afortunada que podrá albergar a la computadora más grande y rápida del mundo, la Blue Water. Esta supercomputadora será contruida por IBM en poco tiempo y su desarrollo costará unos US$ 208 millones.

Al parecer este monstruoso equipo tendrá un poder de procesamiento de un petaflop, algo así como mil trillones de operaciones por segundo, con lo cual desbancaría a su hermana menor, la Blue Gene/L que posee un tercio de capacidad de proceso.

En cuanto a su utilización, la Universidad ya tiene en vista sus posibles finalidades. Una es destinada a operaciones que realiza la agencia de proyectos e investigaciones avanzadas de Defensa. Aunque también se la utilizará para el modelado del clima, biofísica, bioquímica y proyectos de ingeniería informática.

Según los planes, el proyecto debería estar terminado para el año 2011, siempre y cuando se solucionen los problemas de espacio y el edificio para comenzar su construcción. La razón por la cual tardarán todo ese tiempo es que los técnicos y encargados del proyecto deberán encontrar la manera de abastecer a este gigante pues su alimentación requiere grandes dosis de electricidad. Ni hablar de los problemas de ubicación de este enorme equipo.

Al parecer, el Blue Water se utilizará en distintas operaciones que realiza la Agencia de Proyectos e Investigaciones avanzadas de Defensa aunque también hay noticias de que recurrirían a él para el modelado del clima, biofísica, bioquímica y proyectos de informática.

2007/08/06

Intel Larrabee y AMD Fusion: La nueva era de la computación

Las GPUs actuales son auténticos monstruos en el procesamiento paralelo de coma flotante, alcanzando rendimientos de hasta medio teraflop. Como ejemplo véanse las estadisticas del proyecto folding@home en el que la version del cliente optimizada para las últimas gpu de ATI da un rendimiento de 42 teraflops con solo 708 GPUs mientras que gpgpu) esta cobrando cada vez mas interés. Nvidia lanzo apenas hace un mes una nueva generación de GPUs dedicadas al calculo científico conocidas como Tesla. Tras la adquisición de ATI por parte de AMD, este esta trabajando en un nuevo procesador llamado AMD Fusion que integrara una potente GPU dentro el propio procesador.

El problema de programar para las GPUs es que hay que usar una serie de librerías e instrucciones específicas, y hay que reescribir el código existente para aprovechar su potencial. En este punto es donde promete en lo que está trabajando Intel, se trata de un procesador multinúcleo que lleva el nombre en clave de Larrabee, que consta de 16 núcleos con 4 hilos de ejecución cada uno. Estará basado en la arquitectura x86 aunque incluirá instrucciones especificas de las GPUs por lo que el software actual seria compatible con el sin apenas modificacion. Se espera que cada chip alcance rendimientos de 1 TeraFlop y se espera comercializar en 2009-2010. En el proyecto esta colaborando la UPC.

Se acerca el fin de las tarjetas gráficas como tales. Primero será la integración de la GPU y la CPU en un chip (AMD Fusion) y luego vendrá la combinación de ambas en una CPU+GPU masivamente paralela que será conocida como GCPU (Intel Larrabee). No sé cuáles son los planes de Nvidia pero tiene que ponerse las pilas ya que sus competidores (AMD e Intel) pisan fuerte.

Fuente: Barrapunto.