Buscar

Mostrando entradas con la etiqueta maquinas. Mostrar todas las entradas
Mostrando entradas con la etiqueta maquinas. Mostrar todas las entradas

2011/02/21

¿Puede una máquina resumir un texto?

No son los primeros en intentarlo. Hace un par de años, Stephen Wolfram quiso revolucionar la búsqueda de información en la red con tecnología dinámica y computación semántica. Lanzó Wolfram Alpha, que ofrece datos concretos en lugar de páginas que contienen palabras clave. Es capaz, por ejemplo, de indicar exactamente cuántos habitantes tiene Barcelona, incluso cuando se formula la pregunta en catalán o español. Pero es difícil hacerle sombra a Google.
En Topicmarks, también apuestan por las posibilidades de la tecnología semántica y el análisis textual, aunque el producto que han desarrollado va por otros derroteros. De hecho, están tan convencidos de que éste es un buen momento para lanzar aplicaciones de tecnología semántica que han conseguido una nueva ronda de financiación de 500.000 dólares en Silicon Valley.
Su punto de partida: ¿Por qué leerse un montón de páginas cuando algo puede resumirse en 10 líneas? Su propuesta: una aplicación que entiende textos de todo tipo y extrae de ellos una decena de hechos clave que presenta también en forma de resumen ejecutivo, es decir, un servicio con posibilidades de conseguir fans y clientes en un momento en el que casi todo parece poder reducirse a 140 caracteres.
Su funcionamiento es sencillo. Basta con conectarse a la página de Topicmarks, registrarse (gratuitamente), subir un documento (en inglés) en formato .doc, .PDF o HTML o pegar la URL del texto a resumir en la casilla indicada.  En sólo unos segundos, Topicmarks ofrece lo que la compañía llama knode, o sinopsis inteligente, que incluye el peso del documento en Kb, el tiempo de lectura que se ahorra el usuario, el recuento de frases y palabras que contiene, una nube de tags y un pequeño resumen que, al parecer, está lo suficientemente bien escrito como para que lo copien los estudiantes.
O eso cuenta Ronald Siebelink, CEO de Topicmarks, que dice haber recibido quejas de varios profesores en este sentido. Los ejemplos que tiene en la web le dan la razón. Las pruebas realizadas por esta periodista con varios textos (en inglés) se lo discuten. Hay escritos que la máquina no procesa. Con otros, los resultados no son perfectos, aunque es cierto que las frases tienen sentido.
Siebelink cuenta en varias publicaciones que la actual versión de la aplicación, que también tiene plug-in para Firefox, es producto de más de cuatro años de investigación en inteligencia artificial y que su objetivo a largo plazo es conseguir que su tecnología de resumen esté disponible en “todos los dispositivos en los que se pueda leer información digital.”
De momento, para este año, se conforma con conseguir mejorar la web e integrarse en servicios de almacenamiento de documentos online como Dropbox o Scribd. Después, dice, habrá que atacar otros idiomas, los feeds RSS y los Social Media. Porque Twitter también se puede resumir...

La Vanguardia

2011/01/07

La máquina que fabrica arcoiris

Los arcoiris, esos espectáculos majestuosos con los que a veces nos sorprende el cielo, han sido hasta ahora potestad de la naturaleza: sólo ella podía decidir cuándo y cómo.
Ya no. Un profesor de la Universidad Commonwealth de Estados Unidos creó una máquina que genera arcoiris utilizando agua y materiales reciclados.
Michael Jones McKean lleva desde 2002 trabajando en el denominado "Proyecto Arcoiris". Dice que el aparato puede crear el fenómeno en cualquier momento y lugar, a gusto del consumidor, con la única condición de que sea en un día soleado.
La máquina funciona de la siguiente manera: se utilizan bombas de chorro de alta presión y aspersores para pulverizar el agua en la atmósfera y simular el efecto de la lluvia, lo que reproduce las condiciones en las que se genera un arcoiris.
El dispositivo de irrigación está cronometrado para crear un denso muro de agua, de forma que sólo sea necesaria la acción de los rayos solares en la ecuación: la refracción natural de la luz a través de las gotas de lluvia hace el resto.

Ecológica

La máquina es, como no podría ser de otra forma, ecológica y tiene un bajo impacto en el medio ambiente, ya que todos los elementos que se utilizan son reciclados.
El agua utilizada procede de los restos que las lluvias dejan en los tejados, se vuelve a recapturar y es reutilizada a través de cañerías. La electricidad para impulsar las bombas de chorro se obtiene de paneles fotovoltáicos que capturan la energía solar.
Jones McKean, que tiene una formación artística y posee una beca de la fundación Guggenheim, expondrá su trabajo en el Centro de Arte Contemporáneo Bemis en Omaha, Estados Unidos, en la que recreará la magia del arcoiris dos veces al día durante sesiones de 15 minutos.
Aunque queda por saber si eso no le resta un poco de la gracia: en el fondo, el placer de observar el fenómeno reside en saber que es un premio inesperado, que se nos ofrece como un espectáculo especial que ocurre en el momento y que no debemos dejar escapar, porque no sabemos cuando volverá a suceder.


BBC Mundo

2010/12/29

Las máquinas que controlan la economía

Sergei Aleynikov ha sido declarado culpable de robar un algoritmo. Y le pueden caer 10 años de cárcel. Un algoritmo es, según el Diccionario de la Real Academia, "un conjunto ordenado y finito de operaciones que permite hallar la solución de un problema". Y, también, "un método y notación en las distintas formas del cálculo". Nadie conoce los detalles del algoritmo que robó Aleynikov. Pero sí hay una cosa clara: es una herramienta matemática que permite a su propietario, el banco de inversión Goldman Sachs, ganar millones de dólares al año.
Aleynikov no era un 'trader' de Goldman Sachs, sino un programador de ordenadores del banco, en el que cobraba 400.000 dólares brutos anuales (300.000 euros). En 2009 este ciudadano estadounidense emigrado de Rusia en 1991, recibió una oferta de 1,15 millones de dólares brutos (875.000 euros) para irse a trabajar a Teza Technologies, en Chicago. Aleynikov aceptó y decidió llevarse el algoritmo con él, transfiriéndolo a un servidor en Alemania. Goldman Sachs le descubrió. Y acabó en la cárcel.
Teza Technologies quería el algoritmo de Goldman porque es una empresa que hace 'trading de alta frecuencia'. O, como se le conoce en Estados Unidos, 'HTF' ('High Frequency Trading'). Es un tipo de operación en mercados financieros basado en el uso de ordenadores y programas informáticos que compran y venden en literalmente milisegundos todo tipo de activos financieros. Es un sistema prácticamente desconocido por el gran público, pero que se ha convertido en el rey de los mercados.
Así, mientras la opinión pública sigue pensando en las viejas mesas de contratación atendidas por jóvenes con camisa y corbata mirando una pantalla mientras chillan "compra" o "vende", la gran mayoría de las transacciones financieras del mundo las hacen ordenadores programados y almacenados en edificios como el nuevo centro de datos por valor de 76 millones de euros que Atlantic Metro Communications está construyendo cerca de Wall Street, para acomodar fundamentalmente ordenadores, técnicos y programadores.
Cada una de esas máquinas rastrea permanentemente el mercado, analizando las diferentes plataformas de contratación—sean éstas bolsas, mercados de renta fija o materias primas, prácticamente a la velocidad de la luz. Su objetivo es encontrar tendencias en la evolución de los precios de los activos, o anormalidades en el mercado.

Operando a 0,0025 segundos

Por ejemplo, una acción de una empresa puede cotizar durante unos segundos un céntimo más cara en Frankfurt que en Londres. En ese caso, el ordenador compra esas acciones en Londres y las vende en Frankfurt. O puede estar lanzando constantemente órdenes de compra y venta, buscando infinitesimales diferencias de precios con las que hacer beneficio. En el fondo, es el clásico 'comprar barato y vender caro', pero con márgenes de decimales y en tiempos que no superan los 0,0025 segundos.
Los márgenes son minúsculos. Pero el volumen de las operaciones, inmenso, como demuestra que los alquileres del edificio de Western Union en el número 60 de la calle Hudson -el centro de comunicaciones más próximo a Wall Street— se hayan disparado.
Pero con el HTF también han crecido las incertidumbres. Porque no hay que olvidar que el mercado queda, así, en manos de máquinas. Según la revista Institutional Investor, nada más y nada menos que entre el 50% y el 70% de todas las transacciones en todas las Bolsas de Estados Unidos se realizan por medio de 'trading de alta frecuencia', a pesar de que esta técnica sólo empezó a popularizarse a partir de 2004.
En el mercado de divisas su presencia es aún más reciente: llegó en 2007, y ya supone el 25% del mercado 'spot' (al contado), de acuerdo a este estudio del Banco de Pagos Internacionales de Basilea (BIS, según sus siglas en inglés). Eso significa que 283.000 millones de euros en monedas cambian de manos cada día por medio de este sistema.
Los expertos afirman que las cifras son más pequeñas. "El HTF emplea muy poco capital. Si, por ejemplo, dicen que un banco invierte un millón de dólares en 'trading de alta frecuencia', puede ser en realidad que un ordenador haya comprado y vendido 20 veces acciones por 50.000 dólares", ha explicado a ELMUNDO.es Irene Aldridge, autora del libro 'High Frequency Trading' y socia del Able-Alpha Trading, una consultora especializada en estas operaciones.
Eso explica aparentes paradojas como que, según la consultora británica TABB, el 'trading de alta frecuencia' supusiera el 60% de los intercambios de títulos en EEUU y el 40% en el Reino Unido en 2009, pero sólo alcanzara un volumen de negocio de 16.000 millones de euros. La mayor parte de las operaciones de este tipo son de autocartera, o sea, realizadas con fondos propios —no de los clientes— por los bancos y fondos.

Las ventajas

Las ventajas de este trading son evidentes. Con el 'análisis fundamental', que se basa en examinar los estados financieros de una empresa, "se puede lograr una rentabilidad del 5%, pero se tarda dos semanas", explica Aldridge, ya que hay que analizar la información y dar las órdenes de compra. Con el HFT el margen es del 0,1%, pero se repite muchas veces a lo largo del día. Además, en este segmento del mercado, los costes están cayendo constantemente. El ordenador que valía 2 millones de euros en 1984 cuesta hoy 1.000, aunque eso no incluye programarlo, algo que es mucho más caro.
El HFT, está transformando de arriba abajo la operativa de los mercados financieros. Sus consecuencias son cuatro:
  • La transformación de los brokers en una especie en peligro de extinción. "Los bancos están reemplazando a todos esos intermediarios que les cuestan millones de dólares al año con ordenadores", explica Aldridge. Un ordenador como los utilizados en HFT no cuesta más de 1.000 euros. A su vez, programarlo no sale por menos de 225.000 euros, si bien normalmente la cifra real es mucho más alta. En todo caso, esas cantidades son inferiores a las de un 'broker' que cobra fácilmente 2 ó 3 millones de euros cada año;
  • La destrucción del análisis técnico, es decir, del examen de los 'charts' y gráficos de bolsa. En realidad, el HTF sólo ha acelerado una tendencia desatada con la llegada de los 'quants', es decir, de expertos —a menudo físicos, astrónomos o matemáticos— capaces de desarrollar modelos de análisis de los valores cada día más sofisticados. El 'trading de alta frecuencia' no puede sobrevivir sin este tipo de sistemas, por lo que su demanda es cada día mayor. Así, el hedge fund Renaissance Technologies, probablemente el más rentable del mundo, tiene 300 empleados, y ni un solo economista. Su fundador, Jim Simons, era uno de los matemáticos más prestigiosos de EEUU, con una amplia carrera en el mundo académico y en el de la Defensa, hasta que a los 40 años decidió que ya estaba bien de investigar y que iba a aplicar sus conocimientos matemáticos a buscar tendencias en el mercado y diferencias imperceptibles en precios. El resultado: una fortuna de 6.500 millones de euros, según 'Forbes';
  • La creación de una nueva generación de instituciones financieras, desconocidas por el gran público, pero que están entre las más rentables del mundo y que, además, frecuentemente no tienen sus cuarteles generales en Nueva York o el Londres. Renaissance—que está cerca de los Hamptons, una zona turística a 200 kilómetros de Nueva York—es sólo una de ellas. Otras destacadas son Getco —en Chicago—y Tradebot—en Kansas City—, las 'número uno' y 'dos' del sector, respectivamente, con un volumen de transacciones diario superior en cada una de ellas a los mil millones de acciones. En total, entre 200 y 400 bancos, brokers y fondos realizan ‘trading de alta frecuencia’ de forma regular en EEUU, aunque los activos con los que operan son de lo más normal: Citigroup, Bank of America, General Electric e Intel han sido los cinco valores más negociados por estos traders entre abril de 2008 y abril de 2010, según la consultora Woodbine Associates;
  • La explosión del mercado. Hasta hace apenas tres o cuatro años, la mayor parte de las operaciones de cambio de divisas, por ejemplo, se hacían por teléfono. Ahora, cada día se utilizan más ordenadores y HTF. La consecuencia, según el BIS, es que el volumen del mercado de divisas ha crecido un 20% en tres años, hasta rozar los 4 billones de dólares diarios (3 billones de euros) "a pesar de la crisis financiera de 2007 a 2009 y de las recientes turbulencias en el mercado de bonos soberanos europeos".
Ahora bien, el 'trading de alta frecuencia' también es controvertido. Como ha señalado el senador por Delaware Ted Hauffman "tenemos todos esos gorilas, y ¿sabes qué? los metemos en zoos con gente que no tiene ni la autoridad ni la información para manejarlos".
Y es que el 'high frequency trading' tiene muchos enemigos. Por varios motivos. El más obvio, como señala Hauffman, es que no está regulado. Para complicar las cosas, estas operaciones se llevan a cabo a menudo en los llamados 'dark pools', es decir, mercados en los que el comprador y el vendedor no se identifican, con lo que la opacidad de la operación es total. En tercer lugar, los 'traders de alta frecuencia' suelen operar con muy poca liquidez, con lo que, "pueden caer como dominós si un acontecimiento inesperado les obliga a mantener posiciones en las que registran minusvalías por poco más de unos segundos", como han explicado Nicholas Paisner y Edward Hadas en el boletín 'online' Breakingviews.
También está el hecho de que los algoritmos no tienen en cuenta la calidad de la gestión de una empresa o la situación política de un país que acaba de realizar una emisión de bonos: a ellos sólo les interesa el precio y la marcha del mercado. Para los ordenadores, los bonos de Portugal, España, Grecia, Francia o Bélgica no son deuda de países con Gobiernos, sindicatos y situaciones políticas diversas, sino simplemente activos financieros que comprar y vender. En ese contexto, los ordenadores refuerzan de forma dramática las tendencias del mercado.
Así se pueden producir aberraciones como las sucedidas durante el 'flash crash', es decir, el famoso derrumbe de Wall Street del 6 de mayo, cuando el parqué neoyorkino perdió 998 puntos en cinco minutos y los recuperó en otros quince. En aquella ocasión, el operador de alta frecuencia Tradervox llegó a vender, en un claro ejemplo de cómo pueden reaccionar los ordenadores en un contexto de caos, acciones del gigante de la consultoría Accenture por un centavo de dólar, a pesar de que la empresa cotizaba a cuarenta dólares antes de que el mercado, literalmente, se volviera loco.
Pero ésa es sólo la parte negativa del HTF. Los defensores de este sistema usan casi los mismos argumentos para ensalzar sus ventajas. Afirman, en primer lugar, que los algoritmos "no ven la televisión ni oyen la radio, así que no son proclives a pánicos ni a euforias especulativas", como señala Aldridge. Es decir: estabilizan el mercado. Al mismo tiempo, su operativa incrementa, al menos en teoría, la liquidez del mercado.
Lo cierto es que, mientras el debate continúa, el high frequency trading sigue creciendo. Los esfuerzos de los demócratas del Senado de EEUU por regularlo están virtualmente paralizados después de que en las elecciones del pasado 2 de noviembre los republicanos, que se oponen de plano a cualquier control, lograran una minoría de bloqueo lo suficientemente grande como para impedir cualquier reforma. Y, al fin y al cabo, hay que tener en un cuenta que, por mucho que se eche la culpa a los ordenadores, los programadores son siempre seres humanos. De hecho, el 'flash crash' del 6 de mayo no empezó con ningún ordenador, sino complemente con un operador que dio una orden de venta de Accenture tan monstruosamente alta que tumbó él sólo el mercado.
Lo cual puede ser bueno o malo. Como afirma en sus memorias 'My Life As a Quant? Emanuel Derman, un físico sudafricano que fue uno de los pioneros de los métodos cuantitativos en Wall Street, y que hoy da clase en la Universidad de Columbia, "a capacidad de provocar tremenda destrucción con tus modelos es una fuente de enorme responsabilidad". Por ahora, sin embargo, a quien han traído más destrucción los algoritmos del ‘trading de alta frecuencia’ es a Sergei Aleynikov.

Entrevista a Sebastian Mallaby

La historia del los hedge funds 'More Money Than God' ('Más dinero que Dios'), de Sebastian Mallaby, fue derrotada por 'Fault Lines', del ex economista jefe del FMI Raghuram Rajan, en la lucha por el Premio al Libro Financiero del Año de Goldman Sachs y Financial Times. Aún así, la obra de este ex periodista de 'The Economist' y actual investigador del Consejo de Relaciones Exteriores, que también ha sido finalista dos veces al Pulitzer, se ha convertido en uno de los libros del año en EEUU.
Pregunta: ¿Está la crisis de la deuda de España, como dicen algunos, generada por ordenadores que usan HFT captando diferencias diminutas en el precio y el interés de los bonos? Respuesta: Al contrario. Todas las operaciones en Europa son ahora fruto del análisis de la situación política. Eso se debe a que en el ‘macro trading’ [operaciones basadas en acontecimientos macreoconómicos, como la supervivencia del euro o la recesión en España] los Gobiernos tienen un poder enorme. Si un hedge fund llegara a la conclusión de que el BCE no va a seguir comprando deuda española indefinidamente o que no va a haber un rescate del país si la situación empeora, podría atacar a España. Pero sólo lo haría para acelerar un colapso que ya se iba a producir por sí solo.
P.- Algunos fondos cuantitativos han detectado una relación entre el buen tiempo y las subidas de la bolsa, y otros entre la cotización de la aerolínea United Airlines y la papelera International Paper. Hasta el verano, el precio del petróleo y del cobre iban de la mano, igual que los de la energía y las materias primas agrícolas. ¿No dispara eso la volatilidad del mercado, al conectar activos que no tienen nada que ver entre sí, máxime usando HFT?
R.- Yo creo que los sistemas cuantitativos no generan más volatilidad. Por ejemplo, en 1980, la plata y el precio del ganado tenían una correlación del 100% [es decir, sus precios evolucionaban exactamente igual] cuando los Hermanos Hunt [dos inversores especializados en oro y en materias primas preciosas] tuvieron que cerrar sus posiciones en ambos mercados. Así que pueden producirse correlaciones sin sentido sin necesidad de usar 'Quants'.
P.- Los primeros 'grandes' de los hedge funds —como Alfred Winslow Jones o Soros— usaban mucho el análisis técnico. Ahora utilizan más el análisis cuantitativo y el HFT.
R.- Sí, Robertson [uno de los gestores de más éxito de los ochenta y noventa con su fondo Tiger, es decir, Tigre] se basaba mucho en análisis cuantitativo, pero también analizaba factores como la moral del equipo gestor de las empresas en que invertía. Y esa tradición se mantiene con los 'cachorros del Tiger0 [los fondos herederos de Tiger]. Pero Jim Simons [el fundador de Reinassance] es más cuantitativo y propenso al trading de alta frecuencia. Éste es un tipo de 'trading' que no existía en los 80, pero que está ganando importancia, sin duda.

El Mundo

2010/11/15

Una máquina que recomienda las bebidas según el aspecto del cliente

Para usted señor, un café de máquina. Y para la señora, quizás un rico té helado. Una nueva máquina dispensadora japonesa usa tecnología de reconocimiento facial para "recomendar" bebidas basándose en la edad y el género del comprador, y como resultado se triplicaron las ventas respecto a las máquinas regulares desde agosto.
La dispensadora, desarrollada por JR East Water Business (una filial de la firma de ferrocarriles JR East), usa grandes paneles con pantallas digitales y sensores que permiten a la máquina determinar las características de un posible cliente.
La sugerencia aparece entonces como una serie de bebidas específicas. Los productos recomendados también pueden cambiar dependiendo de la temperatura ambiental y el momento del día.
"Si el cliente es un hombre, es muy posible que la máquina le recomiende un café, dado que los hombres tienden a preferirlos. Si el cliente tiene unos 50 años, sin embargo, aquella recomendación podría variar a un té verde", dijo una portavoz de la compañía.
Una mujer de unos 20 años recibirá sugerencias de beber un té o un producto levemente azucarado, dado que la investigación de mercado demuestra que estas son sus preferencias.
"Pensamos que sería mucho más divertido para los clientes tener este tipo de interacción con nuestras máquinas, lo que mejoraría toda la experiencia de compra", agregó la portavoz.
Hasta ahora la compañía ha probado una dispensadora en una estación de trenes de Tokio, pero planea agregar cinco más, con una red que se expandirá a otros lugares de alta rotación y zonas suburbanas para inicios del 2011.
Está previsto que unas 500 dispensadoras de este tipo estén disponibles en Tokio y sus zonas aledañas para marzo del 2012.

El Mundo

2010/11/01

Máquinas que obedecen a la mente

Comunicarse mentalmente con las máquinas, manejarlas sin mover un dedo, ha sido uno de los sueños de la ciencia-ficción. Ahora, un grupo de investigadores en Suiza ha demostrado que esa fantasía va camino de cumplirse. Aunque José del R. Millán, el español de 48 años al frente del proyecto, prefiere ser cauto: "Trabajamos duro, pero sin prisas; no queremos alimentar falsas expectativas".
Él y su equipo de 20 investigadores de la Escuela Politécnica Federal de Lausana (EPFL, Suiza), uno de los centros tecnológicos más prestigiosos de Europa, han creado un programa que conecta el cerebro a máquinas y ordenadores para manejarlos con el pensamiento. Un casco repleto de electrodos capta las órdenes mentales, el software las interpreta y luego transmite comandos capaces de operar un portátil o un electrodoméstico de forma remota. Todo en cuestión de milisegundos.
En los últimos años ha habido numerosos intentos de dar con esta tecnología. Algunos, incluso, ya están a la venta. Pero el EPFL ha conseguido algo nuevo: descifrar señales cerebrales al instante. "Hasta hace poco había que repetir la orden mental cada medio segundo, constantemente. Esto fatigaba a la persona", dice José. "Hemos sido los primeros en dar con un sistema de bajo coste que reconoce a la primera el pensamiento".
Su objetivo es emplear esta tecnología para mejorar la vida de los discapacitados. Y la aplicación más potente la han probado en una silla de ruedas. La equiparon con sensores de espacio, la interconectaron al software y este a la cabeza de un paciente. Funcionó. Al pensar "hacia adelante", "izquierda" o "derecha", la silla obedecía. En total, seis años de trabajo para llegar a este punto. Ahora quieren ir más allá. Cuatro líneas de investigación en las que cooperan varias universidades europeas indagan cómo controlar con la mente ordenadores para navegar por Internet o enviar correos, electrodomésticos del hogar, juegos en móviles, prótesis y hasta robots. "Imagine una persona inmovilizada en la cama que pueda controlar mentalmente un robot y desplazarlo hasta la cocina para acompañar en la cena a su familia. Esto llegará", dice Millán. "Y ese es exactamente nuestro deseo: conectar la inteligencia de las máquinas con la de los humanos".
Como siempre, hay obstáculos. El tibio interés de las grandes compañías por comercializar el programa es uno. "Quienes más se beneficiarían serían los discapacitados y es un mercado muy pequeño". El número limitado de comandos cerebrales que el software reconoce (no más de cuatro) y la incomodidad de tener que llevar casco, aunque sea inalámbrico, son otras dudas en el horizonte.
¿Será el control de las máquinas con la mente algo cotidiano en 2020, como vaticinan algunos futurólogos? José suelta una risa incrédula. "Ya me gustaría. Tardaremos mucho más. De momento, el cuerpo, lo físico, sigue siendo el mejor intermediario". Pero señala situaciones más allá de la asistencia a incapacitados donde estos interfaces ayudarían. "En el espacio, la movilidad de los astronautas es muy limitada y el control mental de equipos sería un gran avance. Hemos probado el software en vuelos parabólicos con ingravidez y funciona".
Millán, que ha desarrollado su carrera académica entre España, Italia, Suiza y EE UU (Universidad de Stanford), calcula otros dos años más hasta que esta tecnología madure. Bajo su mando seguirán trabajando investigadores de universidades de media Europa aunque, curiosamente, ninguna española.
"Escojo a los mejores centros y los españoles no están entre ellos". ¿Qué falla? "Medios. Los políticos se llenan la boca diciendo que la innovación es el futuro del país, pero a la hora de la verdad siempre recortan del mismo sitio, del I+D".

2010/07/26

¿Máquinas capaces de soñar?

Fuente: El Pais.

¿Cuándo deberemos considerar inteligente a un ordenador? ¿Cuando lo parezca? Ese es el famoso test de Turing para máquinas presuntamente pensantes, formulado en los años cincuenta por el matemático británico Alan Turing, uno de los grandes pioneros de las ciencias de la computación. Pero a todo el mundo le parecían inteligentes los jugadores de ajedrez hasta la aparición de Deep Blue. Y que este ingenio de IBM igualara a Gary Kaspárov ha hecho más por empeorar la imagen de los ajedrecistas que por mejorar la de los ordenadores.

Sin embargo, las máquinas ya hacen ciencia en varios sentidos. Un especialista en cáncer no podría seguir la literatura relevante para su campo ni aunque no hiciera otra cosa en todo el día: ahora mismo son dos millones de papers (artículos en revistas científicas revisadas por pares) y 200 millones de webs. Los ordenadores llevan tiempo siendo esenciales para analizar esos datos.
Pero los nuevos programas utilizan los avances de la inteligencia artificial y empiezan a trascender del análisis a la hipótesis. Las máquinas sí pueden leer toda la literatura relevante, y la integran con los datos experimentales, buscando pautas y relaciones lógicas.
Los científicos han utilizado estas ayudas computacionales en la investigación de fármacos, la asignación de funciones a los miles de nuevos genes que salen a diario de los secuenciadores de ADN, la identificación de todos los elementos de una ruta de reacciones metabólicas, y la detección de inconsistencias lógicas en un argumento.
Los ordenadores ya se hacen preguntas como: ¿qué idea no se les ha ocurrido a los especialistas en este campo? A veces el concepto clave está en otra disciplina científica distinta. Los últimos programas utilizan los avances de la inteligencia artificial para formular nuevas hipótesis sobre el sistema.
La mera idea de que las máquinas puedan formular hipótesis habría hecho derramar todos los cafés del Círculo de Viena, el selecto grupo de científicos y filósofos de la ciencia -Carnap, Gödel, Ayer, Reichenbach- que formuló en los años veinte el empirismo lógico, o neopositivismo. Su nombre completo era Círculo de Viena para la Concepción Científica del Mundo.
Según uno de sus miembros más destacados, el filósofo Hans Reichenbach -que murió cuando se descubrió la doble hélice-, se pueden formular reglas que permitan descartar o confirmar una hipótesis, pero no reglas que permitan formularla. Lo que le llevó a esa concesión fueron los descubrimientos debidos a golpes súbitos de imaginación y, muy en particular, la hipótesis de Kekulé.
Kekulé estaba seguro de que los compuestos orgánicos se basaban en cadenas de carbono, pero el benceno no le cuadraba en el esquema. Faltaban dos átomos de hidrógeno. Después de meses de desesperación, se quedó traspuesto junto a la lumbre y soñó con una serpiente que se mordía la cola, ¡lo que resolvió el enigma! El benceno no era una cadena lineal, sino un anillo, y los dos átomos de hidrógeno ausentes no eran más que el precio químico de juntar los dos cabos. ¿Puede un ordenador soñar algo así?
"No hay duda de que la imaginación científica puede basarse en lógicas aparentemente externas a la ciencia, como la serpiente que se muerde la cola de Kekulé", responde en una entrevista por correo electrónico el sociólogo James Evans, de la Universidad de Chicago. "Nuestras mentes son sistemas semipermeables, y la investigación psicológica y social indica que es muy probable que tome patrones prestados de la política y la religión, de la estructura física de su entorno, de sus pautas de acción, de sus metáforas y compromisos culturales. Esto hace posible para los científicos considerar de forma fructífera una amplia gama de patrones".
Evans y su colega Andrey Rzhetsky publican en el último número de Science un análisis titulado Machine science (ciencia de máquina), que sostiene que los ordenadores van a generar pronto "muchas hipótesis útiles con poca ayuda de los humanos". La especialidad académica de Evans es investigar cómo la lógica institucional y sus redes con la industria y el Gobierno conducen a una evolución desigual de la frontera y los beneficios de la ciencia.
"Pero supongamos", prosigue el sociólogo de Chicago, "que al ordenador no solo le alimentamos con una serie de patrones -como el anillo del benceno-, sino también con la lógica para descubrir nuevos patrones. Por ejemplo, la persistencia del patrón dentro de un dominio, o su frecuencia a través de varios dominios. Entonces el ordenador puede identificar una amplia gama de tipos de patrones, muchos de ellos no previstos por el programador".
En este sentido, Evans cree que incluso Kekulé se quedó corto. "Imaginemos que Kekulé, después de descubrir el anillo del benceno, hubiera dedicado un esfuerzo similar para generalizar su descubrimiento. No solo a considerar otras clases de moléculas con una estructura similar, sino también cualquier tipo de estructuras arbitrarias de la que se conocen los ingredientes pero no la geometría".
Si los ordenadores están listos para trascender el sueño de Kekulé -y con él la última concesión de Reichenbach a la intervención humana en la investiga-ción-, ¿qué van a hacer los científicos a partir de ahora? "La generación de hipótesis por ordenador", dice Evans, "invita a los científicos a reconsiderar su filosofía de la ciencia: ver cuáles son las reglas de descubrimiento más fructíferas, y explotarlas a fondo si son robustas. Van a cambiar el papel del científico de buscar relaciones concretas a buscar cuáles son los métodos de descubrimiento más fructíferos, los que podrían revelar automáticamente dichas relaciones concretas".
¿Cómo puede una máquina encontrar una pauta que no está buscando? "Hay dos clases de generación automática de hipótesis", responde Evans. "El primero supone una lógica preestablecida de los conceptos y las relaciones dentro de un campo concreto. El científico conoce el patrón que busca (por ejemplo, un gen se activa o inhibe otro), y luego usa la computadora para ayudarle a rastrear a través de una gran base de datos en busca de descubrimientos. Este tipo de descubrimiento se asemeja a la búsqueda de un nuevo elemento para llenar los agujeros en la tabla periódica de Mendeléiev".
Las levaduras sintetizan tres compuestos esenciales (aminoácidos) mediante una red de 25 reacciones químicas interconectadas, cada una catalizada por una proteína. Cada proteína está codificada por un gen, y cada gen se puede inactivar mediante una mutación. Una levadura mutante es incapaz de multiplicarse en un medio de cultivo, a menos que se le facilite el producto de la reacción química que le falta (o de una reacción posterior).
Un robot programado por Ross King, de la Universidad de Gales, resuelve este tipo de rompecabezas con la misma eficacia que los mejores licenciados humanos en biología y ciencias de la computación. Basta suministrar al robot los reactivos, las 25 cepas mutantes y unos conocimientos básicos sobre el metabolismo de las levaduras para que la máquina descubra la función de los 25 genes.
"Huelga decir que ese enfoque puede descubrir muchas cosas nuevas", admite Evans, "pero por lo general es algo que los investigadores ya estaban buscando. Hay, sin embargo, un segundo tipo de generadores automáticos de hipótesis. Las estrategias de este segundo tipo han supuesto el descubrimiento -o invención- de conceptos nuevos de alto o bajo nivel. Por ejemplo, en vías metabólicas y sistemas sociales".
Evans explica que los nuevos conceptos trabajan juntos por la integración en un sistema más amplio, "y en su correlación con otras clases importantes de conceptos, como la enfermedad. El término más utilizado actualmente es el de grano grueso y las unidades descubiertas pueden ser bastante nuevas y a menudo inesperadas".
El grano grueso es un concepto tomado de la física. La temperatura de un cazo de agua es una descripción de grano grueso. La de grano fino consistiría en censar la agitación de todas las moléculas de agua que contiene el cazo (lo que tiene el inconveniente de ser imposible). La temperatura mide el promedio de todas esas agitaciones individuales: una descripción de grano grueso, no sólo posible sino también muy útil, y tan precisa como se quiera.
Los programas actuales pueden identificar la estructura de grano grueso de un sistema, o de cualquier conjunto de cosas. Por ejemplo, el conjunto de conceptos establecidos en medicina interna. De cerca, no es más que una lista de conceptos. Pero vistos con cierta perspectiva -a grano gordo-, la lista puede tener estructura, con grumos de conceptos, o "agregados que forman conceptos de mayor nivel", como escriben en Science los dos investigadores.
En patología y epidemiología, los nuevos programas han podido identificar parecidos regulares entre algunos de esos grumos de conceptos. Aun sin saber a qué se deben esas similitudes de grano grueso, su mera existencia ha resultado un criterio muy útil para restringir drásticamente el número de hipótesis viables sobre la causa de una enfermedad o la evolución de una epidemia.
Evans ve más interesantes "los enfoques automatizados para el descubrimiento de nuevas relaciones, a veces en forma de ecuaciones. Estos sistemas revelan las complejas relaciones que hay entre los elementos dentro de un sistema. Estos enfoques empiezan rastreando al azar las relaciones posibles, pero luego restringen las que deben considerarse más a fondo a aquellas relaciones que integran todo el sistema físico, biológico o social. Creo que el descubrimiento computacional de nuevos conceptos y relaciones pueden permitir a los científicos descubrir algo incluso cuando no lo están buscando".
El año pasado, la Asociación para el Avance de la Inteligencia Artificial reunió a una élite de científicos de la computación para discutir la necesidad de poner límites a la investigación en inteligencia artificial y robótica. Una de sus preocupaciones es que puedan conducir a la pérdida de control humano sobre las máquinas. Algunas son de guerra, como los zánganos predadores, unas avionetas autónomas que sobrevuelan y atacan por su cuenta; otras abren puertas y buscan enchufes para recargarse a sí mismas o rastrean un territorio como las abejas.
Otra preocupación es precisamente que el avance de la inteligencia artificial transforme de modo drástico el mercado laboral, dado que los robots ya no solo se encargan de tareas rutinarias, como las cadenas de montaje, sino también de quehaceres intelectuales como la ciencia.
Los robots actuales no solo incorporan dispositivos avanzados de visión, oído y tacto, sino que también pueden seguir un rastro olfativo, y ello pese a que las pistas olfativas del mundo real no forman trayectorias continuas, sino que el viento las fragmenta, las esparce y las desordena. Las trayectorias de estos rastreadores artificiales recuerdan mucho a una polilla buscando pareja. Las polillas buscan pareja siguiendo el rastro de las feromonas.
La computación blanda y la lógica borrosa introducidas por el matemático azerbaiyano iraní Lofti Zadeh, de la Universidad de Berkeley, utilizan redes neuronales (programas que aprenden de la experiencia) y algoritmos genéticos (programas que evolucionan en el tiempo) para diseñar máquinas capaces de aprender a manejar conceptos difusos, como hacemos los humanos.
El lingüista William Labov, fundador de la moderna socio-lingüística, demostró en 1973 que las categorías taza y cuenco son difusas en nuestro cerebro: se solapan una con otra, y su uso depende más del contexto y la experiencia del hablante que del tamaño real del recipiente. Por ejemplo, muchos sujetos del experimento consideraron el mismo recipiente como una taza (si se les decía que contenía café) y como un cuenco (cuando un rato después se les sugirió que servía para comer). La decisión entre los dos nombres depende a la vez de otros factores: tener un asa, ser de cristal, llevar un plato debajo y exhibir un diámetro creciente de base a boca restan puntos a cuenco y empujan al hablante hacia taza.
En los dispositivos controlados por el cerebro -como las actuales prótesis mecánicas-, las señales emitidas por las neuronas deben ser interpretadas, o descodificadas, por un ordenador antes de poder ser leídas por el miembro artificial. La función del ordenador es predecir los movimientos que el usuario quiere ejecutar. Los fallos en esos sistemas de predicción suscitan problemas similares a los que se plantea la industria del automóvil respecto a los dispositivos automáticos de conducción, y que son una de las mayores barreras prácticas a su desarrollo industrial: en caso de accidente, ¿tuvo la culpa el hombre o la máquina?

2010/03/08

La rebelión de las máquinas

Fuente: La Vanguardia.

No hace demasiado veíamos al presidente de Toyota, Akio Toyoda presentarse ante la entera comunidad de sus consumidores y clientes para pedir disculpas por un defecto de fabricación en sus vehículos. No quedó ahí la cosa, puesto que Toyoda-San incluso compareció -no sin ciertas reticencias iniciales- ante una comisión del congreso de los EEUU para dar allí explicaciones ante los representantes del pueblo estadounidense (Toyota es la marca líder en ventas en ese país).

Se hizo, en ambos casos, directamente responsable de los problemas que pudiese haber causado este error inexcusable por parte de la compañía y detalló los planes que Toyota tenía pensado emprender para subsanar lo antes posible un problema que era responsabilidad enteramente suya: no le quedaba otro remedio.

Sorprende, por el contraste punzante, comparar este caso con todo lo que tenga que ver con la aparente indiferencia de los fabricantes de consolas hacia sus productos, cuya actitud ante la preocupante falta de fiabilidad de sus últimos lanzamientos oscila siempre entre la despreocupada negación y el alegre juego del despiste de los usuarios.

2010/02/12

Hacia una guerra real entre máquinas

Fuente: La Nacion.

¿Se puede pelear una guerra con máquinas que se portan bien y hacer el conflicto más "seguro para los humanos"? Ésa es la seductora visión, y la esperanza, de quienes investigan y trabajan en el futuro de la robótica militar.

De hecho, ya se está trabajando en modelos que se alimentan de material orgánico (¿cadáveres incluidos?) y en Estados Unidos una oficina del gobierno pidió que se realice un estudio sobre la ética de los robots.

Con 8000 robots en uso, algunos creen que se puede generar una revolución militar.

Actualmente la mayoría de los que están presentes en el terreno tienen por delante tareas que no implican combatir, como desactivar bombas, a diferencia de los letales aviones no tripulados .

Pero Bob Quinn, que trabaja para la filial estadounidense de QinetiQ , una compañía británica que fabrica robots, asegura que el futuro promete más robots armados en el campo de batalla, incluidos vehículos sin conductor.

"Cuanto más cerca se está de recibir un disparo, más se entiende el valor de tener la capacidad de usar armas a distancia", explica.

Cualquiera que haya visto las películas de Terminator puede encontrar esta idea un tanto tenebrosa. Quinn admite que entre militares de alto rango "las películas de ciencia ficción causaron gran angustia".

É insiste en la necesidad de asegurarse "de que los robots armados sólo funcionen bajo el control de los soldados y nunca de forma independiente".

Pero la velocidad de la guerra moderna puede hacer que el control humano directo sea difícil, dice Peter Singer, autor del libro Wired for War .

Singer pone como ejemplo el sistema automatizado de artillería desplegado en Afganistán. "Este sistema reacciona y dispara. Podemos apagar el sistema, podemos activarlo, pero nuestro poder no es realmente de decisión. Es poder de veto ahora", dice.

Vehículos vegetarianos

Pero, si sistemas automatizados están tomando las decisiones, ¿cómo podemos estar seguros de que están atacando los blancos correctos y obedeciendo las leyes de la guerra?

El académico estadounidense Patrick Lin recibió recientemente la tarea de estudiar la ética de los robots, un trabajo encomendado por la oficina de investigaciones navales de las Fuerzas Armadas de Estados Unidos.

"Cuando hablamos de robots autónomos", argumenta, "una respuesta natural podría ser la de programarlos para que sean éticos. ¿No es eso lo que hacemos con las computadoras?".

El Pentágono, a través de su agencia de investigación de defensa, está gastando miles de millones de dólares en el desarrollo de la robótica.

Un ejemplo sorprendente es el robot EATR , que precisa una cuidadosa programación para ser utilizado como un vehículo sin conductor, un desarrollo realizado a pedido del Pentágono.

Puede recargar combustible por sí mismo en viajes largos, tras recolectar materia orgánica. Esto plantea la inquietante situación de una máquina consumiendo cadáveres en el campo de batalla.

Su inventor, el doctor Robert Finkelstein, de Robotic Technology, insiste en que consumen "material orgánico, pero en su mayoría vegetal". "El robot sólo puede hacer lo que está programado para hacer, tiene un menú", agrega.

Todo esto preocupa a los escépticos, como el profesor Noel Sharkey , co-fundador del Comité Internacional del Control de Robots Armados, quien dice que la decisión de matar tiene que permanecer en manos humanas.

"Uno lo puede entrenar todo lo que quiera, darle toda las reglas éticas del mundo. Si el aporte no es bueno, no es bueno en absoluto. Los seres humanos pueden ser considerados responsables, las máquinas no".

Si uno no puede confiar en un robot para distinguir entre fuerzas enemigas y no combatientes inocentes, Lin sugiere otra solución.

"Si hay un área de combate tan intensa que se puede asumir que alguien no es un combatiente", argumenta, "entonces liberen a los robots en este tipo de escenario. Algunas personas llaman a eso una caja asesina. Cualquier objetivo (en una caja asesina) se supone que es un blanco legítimo".

Sin emociones

Otros investigadores sugieren que los robots podrían evitar los fallos de los soldados.

"Es menos probable que los robots que están programados correctamente cometan errores y maten no combatientes, inocentes, porque no son emocionales, no van a tener miedo, ni actuar irresponsablemente en algunas situaciones", dice Finkelstein.

Pero Christopher Coker, de la London School of Economics, testigo de guerras pasadas y presentes, no está de acuerdo.

"Tenemos que poner nuestra confianza en el factor humano", señala.

"Desafortunadamente los militares en sus reportes suelen ver el factor humano como el eslabón más débil. No creo que sea el eslabón más débil. Es el eslabón más fuerte", asegura.

Las computadoras nunca serán capaces de simular la "esencia del guerrero", la mentalidad y las perspectivas éticas del soldado profesional.

La revolución militar en la robótica ya ha avanzado rápidamente en el aire, donde los aviones no tripulados dirigidos por control remoto son fundamentales para los conflictos como Afganistán.

En el terreno, el uso de robots hasta ahora ha sido más limitado.

Sin embargo, dada la preocupación política y popular por las bajas entre las fuerzas de la OTAN, el discurso para la venta del fabricante de robots Bob Quinn es probable que sea convincente.

"Vamos a mantener seguros a nuestros muchachos, y matar al enemigo. Desafortunadamente, ese es el cuadro de situación en la que estamos cuando hay un conflicto".

2009/11/02

"Veo poco probable que una máquina empiece a pensar"

Fuente: Publico.

Rumano de etnia húngara y triple nacionalidad (a las dos anteriores hay que unir la estadounidense), Albert-László Barabási (Karcfalva, Transilvania, 1967) es el padre de la moderna teoría de redes. Hace 10 años defendió que todos los sistemas complejos comparten una serie de características comunes. Según el modelo de Barabási, convertido ya en un paradigma aceptado por la comunidad científica, una red compleja está formada por nodos que enlazan entre sí de forma no aleatoria. En esa red, ya se trate de las conexiones neuronales, el metabolismo celular, el tráfico aéreo o Facebook, existen una serie de supernodos favoritos (la minoría) que concentran o atraen las conexiones de los demás. Barabási dio recientemente una conferencia sobre redes y propiedades emergentes dentro del ciclo Diez conceptos que están cambiando el futuro que celebra la Fundación Telefónica.

Defiende que todas las redes complejas comparten una misma estructura y una misma dinámica pero, ¿qué tiene que ver una red como Internet con un grupo de amigos o las interacciones intercelulares?

De entrada parece que no hay mucho en común entre ellas. De hecho, tienen diferencias evidentes, unas se apoyan en routers, otras en filias y fobias y otras en reacciones electroquímicas. Pero hay un algo que comparten todas, como una firma, y son los hubs, los concentradores o supernodos, por los que pasan muchas conexiones. Piense en el tráfico aéreo donde hay grandes aeropuertos, como el de Barajas, al que se conectan los demás.

Pero, ¿quién o qué hace de supernodo en una red social, en el cerebro, en algo vivo?

Los biólogos han estudiado cómo se relacionan las proteínas y están mapeando esa red. Por lo que han mapeado hasta ahora, ahí también existen los supernodos. En cuanto a las personas, en las redes personales también vemos que hay algunas que, por ejemplo, reciben muchos correos electrónicos o llamadas telefónicas.

¿Hay redes que no sigan ese patrón?

La red eléctrica no lo sigue. Ni siquiera hay consenso entre nosotros para definirla. La corriente pasa de una casa a otra sucesivamente. Quizá la explicación podría estar en la forma en que nacieron las redes eléctricas. En sus orígenes estas redes fueron locales.

Su teoría sostiene que una red compleja crece con la adhesión de nuevos nodos. ¿Qué ocurre si dejan de unirse nodos? ¿Colapso?

Depende. Es fácil encontrar casos de redes que murieron, como la de la telegrafía o la red ferroviaria de EEUU, y ambas fueron muy grandes. Si una red deja de crecer puede colapsarse, pero si sigue añadiendo enlaces, profundizando las relaciones entre los nodos existentes, no tiene por qué morir pero sí se estancaría.

Un segundo punto de la teoría de redes complejas es el de las relaciones preferenciales entre nodos. Usted pone a Google como ejemplo para Internet. En las relaciones personales, ¿siempre nos sentimos atraídos por el chico o la chica más guapa de la fiesta?

Por supuesto, aunque cada situación social es distinta, los seres humanos nos fijamos en el más atractivo o buscamos el método más rápido o la situación más cómoda; eso son enlaces preferenciales.

Si un nodo sin relaciones deja de serlo o una página web sin enlaces se muere, ¿qué pasa con las personas solitarias?

La realidad es que hay unos pocos supernodos que concentran la mayoría de los enlaces pero, a la vez, hay miles y millones de nodos muy pequeños dentro de la red, esos solitarios, que también forman parte de ella. No dejan de ser seres sociales por ello.

Por definición, ¿las redes son jerárquicas, no democráticas?

Hay estudios, incluyendo el nuestro, que han encontrado pruebas de la existencia de esta jerarquía. Tanto en las redes sociales como en las biológicas existen elementos jerárquicos. Pero pueden convivir y, de hecho, conviven con elementos democráticos.

¿Los gobiernos, los partidos políticos o las empresas pueden organizarse en red, de forma horizontal, o no les queda otra opción que distribuir el poder de forma vertical, de arriba a abajo?

Hoy tenemos ejemplos del nuevo uso que hacen las organizaciones políticas de las redes. La campaña de Obama es un ejemplo de esto último. Pero el concepto de la red y su uso por parte de los partidos políticos es muy reciente. El primero en aprovechar su fuerza fue el senador demócrata Howard Dean en la carrera por la nominación para las elecciones de 2004. En cuanto a los gobiernos, no vemos muchos ejemplos claros. Quizá la actual política de mi país en Irak, cediendo protagonismo a las comunidades y organizaciones locales. La diferencia hoy es que cada vez tenemos más datos sobre las actuaciones políticas y podemos tomar decisiones en tiempo real. Las organizaciones no tienen por qué estructurarse en red y menos las políticas. Las redes horizontales son casi por definición pequeñas. Realmente sólo pueden funcionar con un máximo de 150 personas. Si superan ese número es casi imprescindible que haya un mínimo de jerarquía.

¿Qué opina del fenómeno de las redes sociales en Internet que, como Facebook, han atraído a millones de personas?

La clave del éxito de Facebook ha sido que ha acabado con el anonimato. A diferencia de otras redes sociales como MySpace, al exigir que los usuarios dieran sus nombres y apellidos reales, ha dado con lo que buscaban los usuarios. Estaban preparados para aceptar este cambio. Las personas no quieren conocer personajes imaginarios o mundos virtuales sino fortalecer las relaciones que tienen en su vida real.

Pero, ¿no está Facebook acabando con la privacidad?

No creo que Facebook nos quite intimidad. De hecho, en este tipo de redes es imposible hacer amigos nuevos. Lo que hace es fortalecer esos lazos que ya existen.

Durante su conferencia en la Fundación Telefónica ha hablado de que la convergencia entre las distintas redes sociales y máquinas en el futuro podría generar una especie de inteligencia colectiva.

Wikipedia ya lo es. Pero la idea de que una máquina empiece a pensar me parece poco probable en el futuro cercano. No hay investigadores ni inversión en aplicaciones o máquinas de múltiple uso. Están diseñadas con una utilidad determinada. En la vida real, nuestras neuronas pueden hacer mucho más de lo que hacen. Nadie se ha planteado hacer máquinas así.

2009/09/18

Las máquinas juegan a ser humanas

Fuente: Publico.

HAL 9000, el ordenador de 2001: Una odisea en el espacio, inició una lucha contra los humanos cuando fue consciente de que estos iban a desconectarlo. HAL 9000 no hubiera tenido problemas para superar la prueba desarrollada por Alan Turing en 1950, que consideraba que se podría hablar de inteligencia artificial cuando un humano no fuese capaz de distinguir si el interlocutor con el que hablaba, sin verlo, era otra persona o un robot. El concurso BotPrize, cuya final ha tenido lugar en Milán (Italia), parte de la prueba de Turing y la adapta al mundo de los videojuegos con el objetivo de mejorar la inteligencia artificial que se emplea en los mundos virtuales.

El reto para los participantes consiste en desarrollar un programa que sea capaz de controlar a un personaje del videojuego Unreal Tournament 2004 y que los jueces designados no puedan distinguir si lo que hay detrás del enemigo en cuestión es una persona o un ordenador.

En la final del concurso, cada uno de los cinco jueces inicia una partida contra dos contrincantes: una persona y un programa informático o bot. Tras unos 15 minutos de juego, el juez debe identificar a sus oponentes.

En esta segunda edición de BotPrize, al igual que ya sucediera en la primera y con el test de Turing original, ninguna de las máquinas presentadas ha logrado engañar al 80% de los jueces del concurso. En todo caso, todos los bots finalistas sí consiguieron convencer de su humanidad al menos a uno de ellos.

Los expertos consideran que uno de los mayores triunfos del juego on-line reside en que los aficionados prefieren enfrentarse a jugadores reales que a la inteligencia artificial del videojuego. Un estudio de la Universidad de Birmingham (Reino Unido) destaca que las posibilidades de juego on-line y la inclusión de aspectos sociales son más relevantes al elegir un título que los gráficos.

Participación española

El profesor de Ciencias de la Computación e Inteligencia Artificial de la Universidad Carlos III de Madrid Raúl Arrabales pertenece a uno de 15 equipos que ha participado en esta edición de BotPrize. "Concursos como este permiten comprobar los avances realizados en inteligencia artificial de forma empírica", explica.

El investigador destaca la complejidad a la hora de generar comportamientos humanos, ya sea en el trabajo con robots o con videojuegos. "Es necesario combinar diferentes capacidades cognitivas: emociones, atención o la capacidad que tienen los humanos para atribuir modelos del yo al otro (la teoría de la mente)".

Explorar nuevas fórmulas de inteligencia artificial mediante videojuegos supone para esta industria la creación de rivales más interesantes e inesperados, que no cuentan con una forma de juego predefinida ante las mismas circunstancias. En este sentido, Arrabales considera que parte del éxito de un juego está en crear un programa equilibrado: "Algunos bot pueden aburrir al contrincante humano, porque son demasiado tontos, o bien excesivamente listos".

Creadores y participantes de BotPrize añaden que los trabajos realizados tienen aplicación más allá de los videojuegos, que servirían como un entorno de simulación para investigar proyectos de inteligencia artificial.

2009/08/03

Una máquina que recarga todo tipo de baterías en lugares públicos

Fuente: El Mundo.

¿Quién no se ha quedado alguna vez sin batería en el móvil? Dos hermanos, Branco y María Calleja, jóvenes emprendedores, han creado Punto Bilë que distribuye puntos de recarga rápida de batería para espacios públicos. Los denominados puntos Bilë cubren la práctica totalidad del mercado en cuanto a baterías de móviles se refiere, un 99%, sin importar la marca o modelo.

Los tres modelos de dispensadores disponibles, dotados de una gran diversidad de conectores, permiten al usuario recargar simultáneamente no sólo móviles, sino también PDA, MP3 y cámaras de fotos. De forma rápida y segura.

Lo vieron en China, donde hay 60.000 máquinas de este tipo distribuidas por el país. Se informaron y vieron que en otros lugares, como en Estados Unidos o varios países de Europa, su implantación había tenido éxito. Así que ocuparon el nicho de mercado que tenían en España. Empezaron en Barcelona, pero 'las cabinas del siglo XXI' ya se han extendido por la geografía española. Madrid, León o Vizcaya son algunos de los puntos donde puede encontrarse esta útil máquina. Hoteles, gasolineras, o centros comerciales son los sitios donde suelen instalarse. Así hasta 250 ejemplares.

Bilë instala las máquinas, pero la gestión es diferente en cada caso. Si generalmente los hoteles ofrecen el servicio de forma gratuita a sus clientes, en el caso de las máquinas instaladas en los centros comerciales se cobra un euro por una recarga de 15 minutos, con una potencia superior a la de los cargadores caseros.

Todo sea por estar conectados en la actual sociedad de la información a todas horas y en cualquier lugar.

2009/06/29

La interfaz 'cerebro-máquina', cada vez más cerca

Fuente: Publico.

El Centro de Colaboración BSI-Toyota ha desarrollado un sistema que permite dar órdenes a un robot sólo con el pensamiento en 125 milisegundos, y que será aplicable al campo de la medicina, por ejemplo en sillas de ruedas, informó hoy Toyota.

Se trata de la tecnología de Interfaz Cerebro-Máquina, conocida como BMI, que permite dar órdenes a máquinas y robots con tan sólo pensarlas. Según un comunicado de Toyota, el avance más significativo de su equipo en materia de BMI es que permite que la ejecución de las órdenes tenga lugar 125 milisegundos después de pensarlas, frente a otras tecnologías similares que requieren de varios segundos de tiempo de reacción.

La tasa de éxito de esta nueva tecnología, que se pretende utilizar en el campo de la medicina y la rehabilitación -especialmente en pacientes con alguna discapacidad-, es del 95%, una de las más altas del mundo, según Toyota.

Por el momento se ha probado en sillas de ruedas, que pueden avanzar o girar a la derecha y a la izquierda con tan sólo pensarlo. Según el comunicado, el dispositivo, que es capaz de adaptarse a las características de cada usuario de la silla de ruedas, recibe y ejecuta las órdenes tan deprisa que casi "no se percibe ningún retraso" entre la orden y el movimiento.

Las investigaciones sobre este tipo de tecnología continúan para lograr que las máquinas sean capaces de reconocer y ejecutar un mayor número de órdenes y con mayor acierto.

Robots más humanos

En marzo de este año las compañías japonesas Honda y Shimadzu presentaron sus últimos avances en este tipo de tecnología de Interfaz Cerebro-Máquina (BMI) con Asimo, el robot humanoide más avanzado del mundo.

El usuario podía transmitir a través de la mente a Asimo cuatro órdenes diferentes -mover la mano izquierda, la derecha, los dos pies o la boca - con un desfase de más de un segundo.

2009/03/30

Los chefs italianos están atónitos con la máquina de hacer pizza

Fuente: Reuters.

Una máquina expendedora que hornea pizza fresca en cuestión de minutos por unos euros tiene a los cocineros italianos revolucionados, antes de que la invención llegue a la calle en las próximas semanas.
El color rojo brillante de la máquina "Let's Pizza" utiliza rayos infrarrojos y una tecnología desarrollada en la Universidad de Bolonia para convertir la harina y el agua en una masa, cubrirla con salsa de tomate y una selección de relleno, y cocinarlo todo en menos de tres minutos.

Su creador, Claudio Torghele, dice que la máquina ha demostrado ser muy popular en pruebas realizadas en dos regiones italianas, pero los gourmets dicen que es una afrenta a los métodos tradicionales de la cocina típica.

"Esta no es solo una máquina expendedora, es una mini-pizzería", dijo Torghele, de 56 años. "Tiene ventanas desde las que se puede ver el proceso de elaboración de la pizza. A los niños, incluido el mío, les encanta: cuando la máquina funciona, siempre hay una multitud", apuntó.

La maquina ha sido desarrollada por el grupo angloholandés Unilever y se ha probado en Alemania, dijo Torghele. Su creador espera lanzar la máquina en toda Europa y en Estados Unidos, con ingredientes variando según los gustos locales.

Italia es famosa por su cocina y en el país se ha creado un movimiento en contra de la comida rápida, denominado "Comida lenta". Sin embargo, tiene más máquinas expendedoras que ningún otro país europeo, según un organismo de la industria, la mayoría distribuidoras de bebidas de café caliente.

Los puristas dicen que la pizza italiana - inventada en el siglo XVIII en la ciudad de Nápoles - no se puede hacer a la carrera: una vez mezclada la masa se debe dejar 12 horas, los ingredientes deben mantenerse frescos, y el horno debe ser precalentado a unos 300 grados centígrados.

"Esta máquina es un juguete", dijo Pino Morelli de la Asociación de Pizzerias italiana. "Quizá encuentre un nicho en el extranjero, pero los italianos han nacido con la pizza: sus madres les han criado con ella", apuntó.

En la Pizzeria Brandi, casi en el centro de Nápoles, la reacción al invento de Torghele fue fría.

El restaurante inventó la pizza Margherita en 1889 en honor de la reina del recién unificado país, su tomate, queso y albahaca simulaban la bandera italiana.

"Desafortunadamente, hoy la gente inventa muchas cosas, pero no se puede comparar, especialmente en términos de calidad", dijo el chef Marcello. "El único beneficio es el precio", apuntó.

"Debemos descartar la 'máquina de pizzas' y traer de vuelta las viejas cajas de música: por lo menos eran encantadoras", dijo Paolo Pagnani, propietario del histórico restaurante.

2008/11/17

Inventan una máquina que es capaz de generar sangre universal

Fuente: 20minutos.
  • En principio fue un desarrollo militar.
  • En breve podría tener aplicaciones civiles.
  • La sangre es obtenida del cordón umbilical.

Podrá suplir la escasez de sangre de tipos poco comunes en los hospitales. Una empresa norteamericana, Arteriocyte, ha llevado a cabo el desarrollo del Proyecto de generación de glóbulos rojos. La tecnología usada ha sido diseñada por John Hopkins y se llama 'Nanex'. En un principio fue un desarrollo militar, pero dado su prometedor alcance, tendrá aplicaciones civiles.

El sistema productor de sangre es el resultado de dicho desarrollo que, a partir de la sangre del cordón umbilical, puede generar glóbulos rojos de donantes universales. La Agencia de Investigación Militar de EE UU, DARPA, ha premiado con 1.950.000 dólares a la empresa por su logro.

Para lograr su misión, el sistema hace uso de una estructura de nanofibras que reproducen la médula ósea, lugar donde se producen los glóbulos rojos. El objetivo inicial de la máquina era completamente militar para evitar el transporte y almacenaje de unidades de sangre, informa theenquirer.com.

Pero visto el alcance que tiene el desarrollo se usará también de forma civil, lo que implicará menor necesidad de donaciones y evitar posibles muertes en hospitales por no disponer de sangre en un determinado momento.

2008/01/07

Los bugs increíbles de las máquinas de votar: no arrastre el dedo que se cuelga

Fuente: Blog de Ricardo Galli.
Vía Joel on software veo el artículo Can You Count on Voting Machines?. En él relatan un bug descubierto en las Diebold AccuVote-TSX después que el estado de California se quejase en 2005 de que las máquinas se colgaban cada pocos cientos de votos.
Luego de bastantes estudios han descubierto que al momento de poner el voto si el usuario arrastraba el dedo el sistema operativo lo consideraba un drag&drop, como el programa no trataba ese evento directamente se colgaba. ¿Cuál era el sistema operativo? Windows CE.
El tema es alucinante y preocupante a la vez. Por un lado esos programas de votaciones, además de simples y pequeños (poco más de 50.000 líneas en C++ en 2002), pasaron por todas las etapas formales de especificaciones, diseño, programación, aduitorias y certificaciones. Además asumimos que los programadores deben ir con mucho cuidado y no deben ser los más tontos de la profesión. Igualmente se cometen errores graves aunque muy estúpidos.
Lo que alucino en primer lugar es en cómo el sistema operativo y sus herramientas de desarrollo porculeen de esta manera. El programa está en C++. Aunque no conozco el sistema de desarrollo del Windows CE supongo que debía ser muy similar a las MFC que se usaron al menos hasta el Visual Studio 6. En estas los eventos se tratan en clases, donde cada programa deriva esas clases para tratamientos específico. Si el programa no crea subclases el comprotamiento debe, o debía, ser un “noop”, o sea no hacer nada.
Sin embargo en este caso parecía que se llamaba a una rutina inexistente y el programa se colgaba. ¿Fallos de las librerías o fallos de los programadores?
En todo caso parece culpa de ambas partes. En 2002 por un error de empleados de Diebold el código fuente llegó a manos de Avi Rubin, profesor de la universidad John Hopkins. Enseguida encontró muchos errores: se podían emitir varios votos, un usuario normal podía realizar operaciones administrativas, etc. etc., incluso algunas tan absurdas como que los votos eran almacenados cifrados localmente –con algo tan débil como el DES–, pero cuando se enviaban a la “autoridad central” por la red se enviaban en texto plano.
Además encontró que se usaban librerías de audio de otras empresas, que también pueden introducir problemas de seguridad. Y un largo etcétera de chapuzas que fueron fácilmente detectadas cuando unas pocas personas tuvieron acceso al código.
¿Todavía alguien duda de que los mejores programadores cometen errores estúpidos aún en programas relativamente simples? ¿todavía alguien duda que no te puedes ni fiar de las librerías de desarrollo de un sistema privativo?
A mí también me impresiona, aunque era de esperar, cómo es que esos programas pasaron procesos de certificación con auditorias “profesionales” de empresas independientes sin que hayan detectado ninguno de estos problemas que detectó un profesor universitario en poco tiempo y sin que nadie le haya pedido.
Para aquellos que no están convencidos del software libre, vale, pero después de ver estas chapuzas encadenadas desde el SO hasta las “auditorías oficiales”, ¿todavía les queda dudas de que hay software que sí debe ser libre y estar publicado para que todos los interesados puedan analizarlo?
Con tantas evidencias ni siquiera sirve la manida excusa de que se “contratan auditorías externas”. Ninguna consultora o auditora podrá igualar a los buenos programadores que están interesados y motivados en analizar el programa. Y eso porque no quiero suponer que haya corrupción en todo el sistema de “auditorías-certicaciones”…