Buscar

Mostrando entradas con la etiqueta algoritmos. Mostrar todas las entradas
Mostrando entradas con la etiqueta algoritmos. Mostrar todas las entradas

2011/12/19

Crean un algoritmo para predecir el éxito de una canción

Científicos de la Universidad de Bristol afirman haber creado una fórmula que puede predecir el potencial de éxito de una canción. El algoritmo explora en cada tema 23 características diferentes entre las que se encuentran la intensidad, la capacidad para el baile, el tempo, el compás y la complejidad armónica. Entrenado con las 40 canciones de mayor éxito de los últimos 50 años, el resultado es una ecuación con la que, según sus creadores, es posible predecir el éxito de un tema con un 60% de precisión.
Reconociendo que el programa no es perfecto, los científicos explican que existen unos elementos que no se pueden añadir al algoritmo y que, sin embargo, tienen una elevada influencia en el éxito de un tema, como los componentes sociales. Los investigadores han observado cómo han evolucionado los gustos musicales en función de la década que se estuviera analizando. Antes de la década de 1980, el hecho de que una canción fuera bailable no era relevante para triunfar, algo que cambió en esa época. Las baladas también eran más propensas a la fama.
Otra de sus conclusiones es que las canciones de éxito suenan de forma más estruendosa en los últimos años y que su ritmo es más repetitivo. Los investigadores aclaran que su programa no es una guía para detectar si merece la pena escuchar una canción. En la web www.scoreahit.com, puede encontrarse un listado de los éxitos esperados y los que resultaron una sorpresa. Entre los primeros, No Scrubs, de TLC (1999), o Crazy, de Gnarls Barkley (2006). Entre los inesperados destaca Man in the Mirror de Michael Jackson (2009). 

2011/08/24

Los algoritmos que controlan nuestro mundo


Si estaba esperando que alguien le avisara cuando las computadoras se volvieran más inteligentes que nosotros, ponga cuidado.
No va a existir ninguna suave voz, como la de HAL 9000 (el ordenador de la nave espacial de la película "2001: Odisea del Espacio"), que nos informe que nuestros servicios humanos ya no son necesarios.

En realidad, nuestros amos electrónicos ya están tomando el control; y lo están haciendo de un modo mucho más sutil que el que sugiere la ciencia ficción.
Su arma: el algoritmo.
Detrás de todo ingenioso servicio web hay un aun más ingenioso código web: desde mayoristas en línea (que calculan qué libros y películas podríamos estar interesados en comprar) hasta el buscador de amigos Facebook y su servicio para etiquetar imágenes, pasando por los motores de búsqueda que guían nuestros pasos en la web.
Son estos procesos computacionales invisibles los que cada vez controlan el modo en que interactuamos con nuestro mundo electrónico.
En la conferencia TEDGlobal del último mes, el experto en algoritmos Kevin Slavin dio una de las charlas más impactantes del evento, en la que advirtió que "las matemáticas que las computadoras usan para decidir cosas" se estaba infiltrando en todos los aspectos de nuestras vidas.
Entre otros ejemplos mencionó los de un robot limpiador que mapea el recorrido óptimo para asear una casa y de los algoritmos financieros utilizados en los intercambios bursátiles en línea, que cada vez más se hacen con el control de Wall Street.
"Estamos escribiendo estas cosas que ya no somos capaces de leer", dijo Slavin.
"Lo hemos vuelto ilegible. Y hemos perdido la noción de qué es exactamente lo que sucede en este mundo que hemos creado".

El libro de los millones

Los algoritmos pueden ser más ingeniosos que los humanos, pero no necesariamente comparten nuestro sentido de la perspectiva: una falla que se hizo evidente cuando el código que asigna precios en Amazon fue a la guerra consigo mismo a comienzos de este año.
"The Making of a Fly" ("La Creación de una Mosca"), un libro sobre la biología molecular de una mosca, desde que es larva hasta que se convierte en un insecto completo, puede ser una lectura interesante, pero ciertamente no merece un precio de US$23,6 millones.
Esa es la cifra que alcanzó por unos instantes, debido a que los algoritmos que Amazon utiliza para fijar y actualizar los precios comenzaron a competir entre sí.
Es una pequeña muestra del caos que puede causar el hecho de que un programa se vuelva lo suficientemente inteligente como para operar sin supervisión humana, cree Slavin.
"Son algoritmos en conflictos, sin un adulto que los supervise", dijo.
A medida que el código se vuelve más sofisticado sus tentáculos van alcanzando todos los aspectos de nuestras vidas, hasta nuestras elecciones culturales.
Los algoritmos del sitio de alquiler de películas Netflix ya son responsables del 60% de las películas que son pedidas por sus clientes, a medida que nos volvemos menos dependientes de nuestras propias capacidades críticas y del boca a boca y más de lo que Slavin llama la "física de la cultura".

¿Cuánto vale esa película?

La empresa británica Epagogoxi está llevando este concepto hacia su lógica conclusión: utiliza algoritmos para determinar si una película será exitosa.
Toma una serie de variables (el guión, la trama, las estrellas que actúan en ella, la ubicación) y las cruza con datos sobre las ventas de otras películas similares para determinar cuánto dinero generará.
El sistema, de acuerdo con el director ejecutivo de la empresa Nick Meany, ha "ayudado a los estudios a decidir si hacer o no una película".
En el caso de un proyecto, al que se le había asignado un presupuesto de casi US$300 millones, el algoritmo estimó que sólo recaudaría unos US$50 millones, por lo que sencillamente no valía la pena iniciar la producción.
Para otra película, determinó que la cara estrella que el estudio había preseleccionado para el rol protagónico no redituaría más que si convocaban a una figura menos conocida.
Este enfoque más bien clínico ha fastidiado a quienes creen que se opone a su idea de que sus películas favoritas han sido hechas de una forma más creativa, orgánica.
Meaney se apura en mencionar que los algoritmos no tienen un rol tan protagónico en Hollywood.
"Las películas se hacen por muchos motivos y se nos asigna más influencia de la que en realidad tenemos cuando se dice que nosotros decidimos qué filmes se producen".
"No les decimos cómo tiene que ser la trama. El estudio utiliza nuestros datos como una valiosa información de negocios. Ayudamos a la gente a tomar decisiones difíciles, ¿y por qué no?", dijo.
A pesar de esto, el estudio con que Epagogix ha trabajado por los últimos cinco años pidió no ser mencionado. Meaney dice que es un asunto "delicado".

Una memoria en la red

Si los algoritmos tuvieran un salón de la fama, la principal estrella sería Google.
Su famoso código secreto ha lanzado al gigante de los buscadores a su actual posición como una de las compañías más poderosas del mundo.
Nadie duda de que su sistema ha hecho el acto de buscar algo mucho más fácil, pero sus críticos se preguntan desde hace tiempo a qué costo.
En su libro "The Filter Bubble" ("La Burbuja del Filtro") Eli Pariser se pregunta en qué medida el algoritmo de Google recolecta nuestros datos personales y da forma, consecuentemente, a la web que vemos.
Por su parte, psicólogos de la Universidad de Columbia, Estados Unidos, presentaron recientemente un estudio que muestra que el uso cada vez más frecuente de motores de búsqueda está cambiando el modo en que los humanos pensamos.
"Desde que aparecieron los buscadores estamos reorganizando la forma en que recordamos las cosas. Nuestros cerebros se apoyan en internet como una fuente de memoria, del mismo modo en que nos apoyamos en la memoria de nuestros amigos, familiares o colegas", dijo la autora del trabajo, Betsy Sparrow.
Ella dice que cada vez más recordamos dónde puede encontrarse cierta información en vez de la información misma.

Desplome repentino

En los mercados financieros, los programas informáticos se están volviendo los actores protagónicos, con sus algoritmos que procesan datos para decidir qué comprar y qué vender.
Hasta el 70% de los intercambios de Wall Street son ejecutados por las llamadas black box (cajas negras) o algo-trading (intercambios basados en algoritmos).
Esto implica que junto a los sabios muchachos de la bolsa, los bancos y empresas bursátiles emplean a miles de sabios físicos y matemáticos.
Pero hasta la precisión de las máquinas, alimentada por los humanos magos del código, es incapaz de garantizar que las cosas funcionen sin sobresaltos.
En el llamado Flash Crash (Desplome Repentino) del 6 de mayo de 2010, una caída de cinco minutos en los mercados generó un momento de caos generalizado.
Un operador deshonesto fue acusado de una caída del 10% en el índice Dow Jones, pero en realidad el culpable fue un programa informático que el operador estaba utilizando.
En tan solo 20 minutos el algoritmo vendió 75.000 acciones por un valor de US$4.300 millones, haciendo que otros algoritmos lo siguieran.
Al igual que un miembro biónico puede extender la fuerza y resistencia humanas, el mercado electrónico exhibió su capacidad de exagerar y acelerar pequeñas variaciones.
Nadie ha sido capaz de determinar exactamente qué sucedió, y el mercado se recuperó minutos más tarde.
El caos obligó a los reguladores a introducir interruptores para detener la actividad bursátil en caso de que las máquinas comiencen a portarse mal.
Los algoritmos de Wall Street pueden ser el equivalente cibernético de los yuppies de los '80, pero a diferencia de los humanos no exigen gemelos de plata, cigarros y champagne. Lo que quieren son conexiones veloces.
Spread Networks ha estado construyendo una de esas conexiones de fibra óptica, capaz de reducir en 3 microsegundos el intercambio de información entre las bolsas de Chicago y Nueva York, distantes 1.327km.
Por su parte, un cable de fibra óptica transatlántico, que va desde Nueva Escocia, en Canadá, hasta Somerset en el Reino Unido, está siendo desplegado para que puedan operar los algoritmos bursátiles y será capaz de enviar acciones de Londres a Nueva York en 60 milisegundos.
"Estamos recorriendo Estados Unidos con dinamita y sierras para cortar roca, así un algoritmo puede cerrar un trato tres microsegundos más rápido, todo para un sistema de comunicación que ningún humano jamás tocará", dijo Slavin.
A medida que los algoritmos extienden su influencia más allá de las máquinas y se vuelven capaces de transformar su entorno, puede que se vuelva hora de determinar exactamente cuánto saben y si todavía estamos a tiempo de domesticarlos.

2011/03/11

Google reconoce haber utilizado 'listas blancas' para compensar su algoritmo

Google ha admitido que utilizó 'listas blancas' para modificar manualmente sus algoritmos de búsqueda. En una conferencia en el SMX (Search Marketing Expo) Matt Cutts, ingeniero de 'software' del buscador, habló del uso de "listas de excepciones", después de que Google negase que tuviera este tipo de trato para determinadas webs, siendo éste uno de sus argumentos para defenderse contra la acusación de monopolio de la Unión Europea.
Google siempre ha defendido que no retoca manualmente sus resultados sino que deja que dependan únicamente de su algoritmo. Sin embargo, según explicó Matt Cutts, el buscador utilizó 'listas de excepciones' que impiden que ciertos algoritmos afecten a determinados sitios.
Según explica Search Engine Land, el buscador aclaró que no existe una 'lista blanca' global, sino que, para algunos algoritmos, Google hace excepciones con algunos sitios que cree que han sido degradados en el posicionamiento erróneamente. Además, en cualquier caso, el buscador aseguró que, tras el cambio de algoritmo para penalizar el contenido copiado, actualmente no hay ninguna 'lista blanca'.
La última actualización del algoritmo de Google está enfocada a acabar con las granjas de contenido y ha modificado sensiblemente las búsquedas. Ha habido páginas web que han salido beneficiadas, pero ha habido otras cuyo posicionamiento se ha hundido. En este caso se trata de un cambio en las estructuras, pero según las declaraciones de Cutts se puede deducir que la compañía tiene la capacidad para retocar las búsquedas manualmente.
La negación de las listas blancas fue uno de los principales argumentos de Google para defenderse de la acusación de monopolio de la Unión Europea. Según el Financial Times, Google negó que utilizase estos sistemas.
Bing, por su parte, también ha admitido el uso de estas 'listas de excepciones'.

El Mundo

2009/08/19

Inventan un algoritmo capaz de reducir la factura de la luz

Fuente: ITespresso.
Un estudio recientemente publicado en el Technology Review sugiere que las grandes compañías de Internet podrían ahorrarse un 40% en su factura de electricidad utilizando algoritmos para enviar el tráfico de Internet a los centros de datos, donde la electricidad es menos costosa.
Los centros de datos consumen mucha energía, que cuestan operadores como Google o Amazon millones de dólares anualmente. Y ahora que la información digital se virtualiza y es accesibles a través de la nube, los centros de datos centralizados se hacen cada vez más grandes y consumen cada vez más energía.
De hecho, se espera que la energía utilizada en los centros de datos se cuadruplique durante la próxima década si no se hacen esfuerzos serios por mejorar su eficiencia. El artículo también estima que algunas de las grandes compañías de Internet gastan más de 30 millones de dólares al año en costes de energía.
Pero parece haber surgido una esperanza para reducir estos costes. Utilizando un algoritmo desarrollado y probado por investigadores del MIT, las compañías podrían seguir la pista de los precios de la electricidad que fluctuan dependiendo de la localización y la hora del día y después calcular la mejor opción dependiendo del precio de la electricidad y la distancia que tenga que viajar el dato, consiguiendo de esta manera la ruta más efectiva para el dato basándose en los costes de energía.
Como han explicado los investigadores, el algoritmo no reduce el coste de energía, sino que ayuda a las compañías a administrar mejor sus costes de energía. Pero también se podría utilizar para dirigir el tráfico a sitios donde se utilicen energías alternativas y ecológicas.

2009/04/11

Un algoritmo capaz de descubrir leyes científicas

Fuente: Weblogs I+D.

En el número del 3 de Abril de la revista Science, Hod Lipson, y su estudiante de doctorado Michael Schmidt, informan de un algoritmo desarrollado por ellos mismos que es capaz de entresacar leyes fundamentales de la naturaleza por mera observación de sistemas simples, como el movimiento de un péndulo.

Hod Lipson es un científico multidisciplinar, que trabaja en el punto de intersección de la ingeniería y la biología, analizando los robots y la forma en la que ellos se comportan y evolucionan. Las implicaciones de su investigación, que afectan potencialmente a muchas áreas, como la micro-manofacturación, hacen que por un motivo o por otro, aparezca de vez en cuando en los medios presentando alguno de sus últimos descubrimientos. Hace un par de años podíamos ver una charla suya en TED donde demostraba sus trabajos en robots conscientes de si mismos.
Su último descubrimiento está relacionado con sus trabajos en robótica, pero va más allá. Junto con su estudiante de doctorado, Michael Schmidt, han desarrollado un algoritmo capaz de extraer leyes fundamentales de la naturaleza a partir de la mera observación de sistemas simples. El algoritmo, sin ningún tipo de conocimiento de leyes de la física, geometría o cinemática, fue capaz de determinar que el balanceo, bote y la oscilación de un péndulo doble salen de procesos fundamentales específicos. Así pues, en unas pocas horas, el algoritmo fue capaz de descifrar las mismas leyes del movimiento y otras propiedades que les costaron a Isaac Newton y otros grandes científicos, varios siglos de estudio.

El algoritmo desarrollado por Lipson y Schmidt es una derivación del algoritmo que utilizaron en su momento para el desarrollo de un robot auto-reparable. La forma en la que el robot era capaz de repararse, era creando un modelo dinámico, una imagen de si mismo, y entonces utilizar ese modelo para hacer predicciones sobre si mismo.

Un modelo dinámico es una representación matemática de la forma en la que los componentes de un sistema se influencian unos a otros a lo largo del tiempo. Así pues, Lipson y Schmidt se dieron cuenta que si un robot podía crear modelos dinámicos a partir de datos propios, sería razonable utilizar el modelo con los datos del mundo que le rodea.

Según palabras del propio Lipson, "lo que es fascinante es que de la misma forma que un robot puede crear un modelo dinámico de si mismo utilizando piezas de robot, ahora podemos crear modelos no a partir de motores y juntas, pero si utilizando objetos matemáticos, como las variables, símbolos, y funciones".

En un futuro, Lipson y Schmidt aplicarán este algoritmo a los sistemas biológicos, que son realmente complicados de modelar, y con ello resulta casi imposible encontrar leyes fundamentales para los mismos. Parece que se abre una nueva forma de hacer Ciencia.

2008/02/02

Mil algoritmos en cada llamada

Fuente: laopiniondemalaga.com.

Los sistemas inalámbricos de comunicación han supuesto una revolución social, pero algo tan simple como usar el móvil o navegar por Internet sin cables esconde un complejo trabajo para crear los chips IGNACIO A. CASTILLO Don Hilarión estaba en lo cierto. Hoy las ciencias adelantan que es una barbaridad. La introducción de los sistemas de comunicación inalámbrica ha supuesto una revolución en la sociedad actual. Estos sistemas desempeñan un papel cada vez más importante en la vida diaria, el mundo empresarial, y la investigación científica. Se trata de una tecnología en continua evolución, donde los modelos y las nuevas aplicaciones se van sucediendo. Estos sistemas exigen, a su vez, una mayor tasa de datos y la introducción de nuevas funciones, llámense multimedia, gráficos en 3D, procesamiento de imagen y video, reconocimiento de voz, criptografía... Pero algo tan simple como contestar una llamada, esconde un complejo sistema de algoritmos, o conjunto ordenado y finito de operaciones que permite hallar la solución de un problema, en este caso, la posibilidad de comunicarnos.

Mientras que el ciudadano de a pie asiste, no sin cierta perplejidad, a una auténtica eclosión de los 3G en todos los ámbitos de aplicación de la tecnología inalámbrica (domestico: bluetooth y Wi-Fi; móviles: UMTS, 3GPP-LTE y WiBro; metropolitano: WiMAX; y orientado a la aplicación de video: DVB-H), la comunidad científica internacional ya ha puesto sus ojos en los sistemas de cuarta generación (4G).

No se trata realmente de un nuevo sistema, ya que lo que pretende es agrupar las diferentes redes (tanto móviles, como de acceso a Internet), mediante la convergencia de las diferentes tecnologías y protocolos 2G y 3G, junto con un aumento muy significativo en las tasas se transferencia de datos (entre 100 Mbps, para la red móvil, y 1Gbps para la fija). Por tanto, los futuros sistemas de comunicación inalámbrica 4G deberán soportar una gran variedad de servicios sobre una amplia variedad de redes, y de forma asequible para el usuario.

Esta tecnología emergente permitirá la interconexión de miles de millones de teléfonos, equipos electrónicos, dispositivos de bolsillo, ordenadores, redes por cable... que conducirán al desarrollo de nuevas aplicaciones en biomedicina, transporte, control del medio ambiente, comunicación y relaciones interpersonales.

Chips y circuitos
Esto significa que los nuevos terminales 4G deberán soportar múltiples estándares de comunicación y seleccionar en cada momento el más apropiado, con el fin de permitir el máximo rendimiento de la comunicación. Por tanto, una de las claves de la tecnología 4G será el uso de Radio Definida por Software (SDR). SDR consiste en implementar en una plataforma digital programable el procesamiento de la capa física correspondiente al estándar de comunicación inalámbrica. Esto significa que podremos reutilizar la misma plataforma para la implementación de varios protocolos, lo que resulta crucial en 4G.

Además de ésta, las ventajas de SDR son múltiples: reducción del ´time to market´ (gracias a la modificación del software en lugar del rediseño hardware), permite adaptar los dispositivos a nuevos estándares mediante una simple actualización del software, fácil depuración de errores, fácil implementación de técnicas adaptativas (filtros , esquemas de modulación?) y muchas más.
Un grupo de investigación de la Universidad de Málaga, dirigido por el profesor Francisco Javier Hormigo, acaba de iniciar un proyecto de cuatro años de duración para la creación de estos chips o circuitos donde se implementen los sistemas que pemitirán la función de la comunicación y que ésta sea eficaz. "Los usuarios queremos que nuestros móviles sean pequeñitos y pesen poco, que les dure mucho la batería y sean muy rápidos", resume Hormigo. Todas estas prestaciones dependen de la unidad funcional o unidad aritmética, es decir, del chip o hardware programable (FPGA).

El equipo, compuesto además por Francisco Javier Corbera, Francisco José Jaime, Miguel Ángel Sánchez y Andrés Rodríguez, ha recibido recientemente un proyecto de Excelencia de la Consejería de Innovación de la Junta de Andalucía, que ha subvencionado esta investigación con 97.200 euros. El grupo cuenta con la colaboración de varios profesores de la Universidad de Córdoba y de la Universidad Politécnica de Madrid. Analiza miles de fórmulas matemáticas, algoritmos que se utilizarán en todos los protocolos de comunicación que permita la nueva tecnología 4G. "No sólo trabajamos con móviles, también con Internet inalámbrico", precisa Hormigo.

Entre el Wi-fi y el WiMAX
La red Wi-fi es una de las más extendidas en al actualidad para navegar por Internet sin cables. También se está desarrollando el sistema WiMAX que permite un más largo alcance, "hablamos de decenas de kilómetros, prácticamente toda la ciudad podría conectarse", asegura Hormigo. "No se sabe aún qué sistema logrará una mayor aceptación", añade. Algo así como ocurrió con los vídeos VHS y Beta, aunque se trate de la prehistoria tecnológica, comparado con los trabajos que desarrollan estos investigadores en la Escuela Universitaria de Telecomunicaciones. "El que se elija dependerá de las empresas", concluye.