Buscar

2013/08/21

Amazon prepara consola

Sony y Microsoft van a tener un competidor inesperado. A la llegada este otoño de PlayStation 4 y Xbox One se suma una consola basada en Android de Amazon. El medio especializado en videojuegos Game Informer especula con un posible estreno el 29 de Noviembre, Black Friday, el día después de Acción de Gracias y conocido por ser el más comercial del año en Estados Unidos. Vendrá acompañada de un mando de control propio en lugar de utilizar uno genérico

Aunque se desconoce el precio, estará lejos de los 399 euros que tendrá la propuesta de Sony o los 499 de Microsoft. En cualquier caso, la experiencia será muy diferente a la que proporcionen las dos grandes de la industria. Parece más lógico que siguiendo su norma propongan un aparato de coste reducido, alrededor de los 100 euros de OUYA, y cobren por los juegos. Se trataría de un aparato con Android modificado, como los Kindle Fire, las tabletas de la firma.

Una de las costumbres de Amazon es dar una descarga gratis de un programa al día y un libro con una gran rebaja. Así incentiva que se entre con frecuencia al escaparate digital y mantiene a los usuarios activos. Esta estrategia ha hecho que su hardware, inicialmente arcaíco y con diseño algo tosco, se haya convertido en uno de sus grandes negocios. Sobre todo porque el coste de distribución de los objetos físicos desaparece.

El banco estadounidense Morgan Stanley considera que este año venderán una cifra superior a 3.300 millones de euros (4.500 millones de dólares) en Kindles, un 26% más que en 2012. La clave no está tanto en la venta de estos aparatos sino en el consumo de contenido digital que se hace en ellos. En el estudio que la entidad ha compartido con All Things Digital indican la proyección de ingresos por la venta de juegos, aplicaciones, películas y libros. Este año llegarán a 2.858 millones de euros (3.800 millones de dólares). En 2014 superarán 4.287 millones de euros (5.700 de dólares). El ecosistema creado ya es el 11% del total de la compañía en ingresos, pero el 23% de los beneficios.

El mundo de los videojuegos, en plena ebullición es todavía un terreno sin explorar para la empresa de Jeff Bezos. Llama la atención que se centren en una experiencia conectada al televisor en lugar de un aparato portátil. Si se cumplen las expectativas de una nueva hornada de tabletas con procesador de Qualcomm de última generación sería lógico que la tienda para la consola doméstica y la tableta vayan de la mano con la misma oferta de títulos.

OUYA, creada a través de la web de financiación colectiva Kickstarter, cuesta solo 100 euros y cuenta con un amplio catálogo de juegos, la mayor parte de ellos gratis. No destaca por sus gráficos pero sí se enfoce en el jugador que no quiere complicaciones, solo echar unas partidas de cuando en cuando sin hacer un gran desembolso.

No es la única de reducidas dimensiones que ha salido al mercado. Gamestick le gana en este aspecto, la unidad de proceso es un pequeño USB que se esconde dentro del mando de control. Aunque carece de la potencia que se espera bien entrado el siglo XXI.

Mojo es una caja cuadrangular, también con Android. Llegará a las tiendas en Navidad, de la mano de MadCats, hasta ahora especializada en auriculares, ratones, mando y teclados para jugones. Su ventaja estriba en que permitirá leer el correo, navegar y ver contenidos online.

Shield es el caso contrario, voluminosa y con un chip de última generación de Nvidia, fabricante de esta consola portátil cuyo estreno comercial se atrasa cada vez más. Funciona también con Android, como los últimos móviles. La pantalla es táctil y se pliega sobre el propio mando. Tras probarla durante la conferencia de desarrolladores de Google, se echa de menos algo más de autonomía. El problema que va a encontrar está en el precio, 250 euros, el mismo que la portátil de Sony. No es tan potente como Vita, pero sí presenta más aplicaciones.

La NSA tiene capacidad para espiar el 75% del tráfico de Internet en EEUU

La red de vigilancia de la Agencia de Seguridad Nacional (NSA) tiene la capacidad de llegar a alrededor de 75% de todas las comunicaciones por Internet en Estados Unidos, según informa el diario The Wall Street Journal.

Dicho diario, que cita a funcionarios de la NSA actuales y anteriores, afirma que esta capacidad de monitorizar tres cuartas partes del tráfico por Internet que circula por el país es mucho más que lo que las autoridades han admitido de forma pública.

Así, este medio sostiene que la agencia retiene el contenido de ciertos correos electrónicos enviados entre los ciudadanos de Estados Unidos y también filtra algunas llamadas telefónicas domésticas realizadas a través de Internet.

Este filtrado de la NSA, llevado a cabo con ayuda de las empresas de telecomunicaciones, busca comunicaciones que, o bien se originan o terminan en el extranjero, o son totalmente extranjeras pero pasan por Estados Unidos, dijo el diario.

Sin embargo, algunos funcionarios han comentado que dado el amplio alcance del sistema es muy probable que las comunicaciones domésticas, con origen y destino en EEUU, sean también interceptadas.

El Wall Street Journal sostiene que este programa de vigilancia demuestra que la NSA puede rastrear prácticamente cualquier cosa que ocurre en Internet. Eso sí, apunta el diario, siempre y cuando quede cubierta esta actividad bajo una orden judicial.

El primero en desvelar detalles concretos sobre el amplio programa secreto estadounidense para espiar comunicaciones telefónicas y telemáticas fue el ex contratista de la NSA Edward Snowden.

Nokia prepara un smartphone de 6 pulgadas

El próximo smartphone de Nokia de 6 pulgadas y última versión de Windows Phone ha sido filtrado bajo el nombre de Bandit. El terminal, que saldría a la venta para finales de año en Estados Unidos, constaría de una cámara trasera de 20 megapíxeles, resolución de 1080pm y un procesador Qualcomm Snapdragon de cuatro núcleos.

Según fuentes cercanas a Nokia de la web The Verge, la fabricante finlandesa se encuentra trabajando en un nuevo smartphone. Este se denominaría Bandit y sería el primer móvil en incorporar la última versión de Windows Phone, GDR3.

Se trata de un terminal fino y ligero, con cuerpo de policarbonato, y que destacaría por una gran pantalla de 6 pulgadas y una cámara trasera de 20 megapíxeles.

Además, el nuevo Bandit integraría, un procesador Qualcomm Snapdragon de cuatro núcleos, una resolución de 1080pm, e incluiría e asimismo pequeños cambios en la interfaz de usuario.

El próximo smartphone de Nokia está siendo probado actualmente por la empresa de telefonía AT&T y está prevista su salida a los mercados de Estados Unidos para finales de este año, de acuerdo a las fuentes citadas anteriormente.

España, sexto país de la UE con más usuarios de móvil conectado a internet

El 57% de los usuarios españoles de teléfono móvil dispone de contrato de datos que permite el acceso a internet con este dispositivo, uno de los mayores porcentajes de la Unión Europea, según una encuesta publicada hoy por la Comisión Europea (CE).

Del total de usuarios europeos encuestados, 49 de cada 100 contaban con contratos de datos, según el Eurobarómetro sobre telefonía móvil e internet, basado en consultas realizadas por la CE durante el primer trimestre del año. Los países con mayores porcentajes son Suecia, Dinamarca, el Reino Unido, Francia y Finlandia, con cifras que van desde el 71% hasta el 58%.

A continuación se sitúan España, Eslovenia, Holanda y Luxemburgo, todos ellos con un 57% de usuarios de móvil con contratos de datos, según la encuesta. Catorce países se sitúan por debajo de la media comunitaria, y entre ellos los menores porcentajes corresponden a Portugal (26%), Rumanía (25%) y Bulgaria 20%).

La baja penetración de los teléfonos “inteligentes” es característica de países donde los usuarios de móvil limitan su acceso a internet debido a su preocupación por el coste, como reflejan los casos de Portugal (58%), Grecia (53%), Chipre (52%), Bélgica (47%) o Rumanía (45%), según la encuesta.

En España, el 32% de los usuarios limita su tiempo de conexión por miedo a que la factura sea mayor, una cifra inferior a la media europea (34%). Asimismo, este país es el segundo de la UE donde es más habitual usar los “smartphones” para hacer llamadas a través de internet gratuitas o más baratas que vía red telefónica, con un 29% sobre el total de usuarios.

Sólo Luxemburgo muestra mayores cifras de uso de programas VOIP (protocolo de transmisión de voz por Internet) en móviles, con un 35%.

España, sin embargo, se sitúa entre los Estados miembros donde se utilizan menos los programas VOIP a través de conexiones domésticas de banda ancha, con un 28 % de los usuarios totales de internet, lejos de países como Bulgaria (57%), Chipre (55%) o Estonia (54%).

El uso de estos programas ha experimentado un notable crecimiento en la UE -de siete puntos porcentuales desde 2011-, una evolución pareja a la de las conexiones domésticas a internet, según destaca la Comisión.

Actualmente el 68% de los hogares europeos cuentan con acceso a la red, prácticamente la misma cifra que los que disponen de ordenador (72%), y cuatro puntos más que en 2012.

En España, la proporción es del 58%, lo que sitúa a este país más cerca de la cola de la UE (Bulgaria, Grecia y Rumanía, con cifras entre el 51% y el 52%) que de los líderes (Suecia y Holanda, donde 9 de cada 10 hogares tienen acceso a internet).

El 'hacker' que mostró el fallo de Facebook en el muro de Zuckerberg recibe recompensa

Un hombre que logró entrar al perfil de Facebook de Mark Zuckerberg para exponer un fallo del sistema recibió donaciones de piratas informáticos de todo el mundo, después de que la compañía no quiso recompensarle bajo un programa que suele recompensar a las personas que reportan fallos.

El palestino Khalil Shreateh descubrió e informó sobre el fallo pero inicialmente fue rechazado por el equipo de seguridad de Facebook. Después colgó un mensaje en el muro del fundador de la red social para probar la existencia del fallo.
Ahora, Marc Maiffret, encargado de tecnología de la firma de ciberseguridad BeyondTrust, intenta movilizar a otros piratas informáticos para recaudar una recompensa de 10.000 dólares (7.454 euros) para Shreateh después de que Facebook se negara a pagarle.

Maiffret, quien desertó de la escuela secundaria y aprendió por su cuenta lenguaje informático, ha dicho este martes que ha recaudado unos 9.000 dólares (6.708 euros) hasta el momento, contando los 2.000 dólares (1.490 euros) que puso de su bolsillo inicialmente.

Con otros piratas informáticos dice que Facebook le negó injustamente a Shreateh, un palestino, un pago bajo su programa de recompensa a cambio de reportar fallas y que paga desde 500 dólares a quienes llamen la atención de la compañía sobre problemas en su programa.

"Está allí en Palestina haciendo esta investigación en un computador portátil de cinco años de antigüedad que parece funcionar a medias", dijo Maiffret. "Es algo que podría ayudarle de gran manera", agregó.
Rechazado por probar la vulnerabilidad "con otros usuarios"

Shreateh reveló el fallo en el sitio web de la compañía que le permite a miembros colgar mensajes en el muro de cualquier otro usuario, incluyendo el de Zuckerberg. Intentó enviar el fallo para su revisión pero el equipo de seguridad del portal no aceptó su informe.
Después subió un mensaje para Zuckerberg en la cuenta privada del presidente ejecutivo de la firma, diciendo que tenía problemas para lograr la atención de su equipo. "Lamento interrumpir su privacidad", escribió Shreateh en el mensaje.

El fallo fue resuelto rápidamente y Facebook emitió una disculpa este lunes por haber sido "demasiado apresurado y desdeñoso" con el informe de Shreateh. Sin embargo, no le pagó la recompensa.

"No cambiaremos nuestra práctica de negarnos a pagar recompensas a investigadores que han probado las vulnerabilidades contra usuarios reales", dijo en una actualización de blog el encargado de Seguridad, Joe Sullivan.

También dijo que Facebook ha pagado más de 1 millón de dólares bajo el programa a investigadores que siguieron las reglas.

Twitter no sirve como oráculo electoral

Twitter es más que una moda que fascina a periodistas o una herramienta que asusta a algunos políticos. En los últimos años, esta plataforma de comunicación social está recibiendo creciente atención por parte de distintas ramas de la ciencia para poner a prueba su pulso. En la era del Big Data, tal cantidad de información espontánea que millones de seres humanos comparten a cada instante en las redes sociales tiene que resultar útil para muchas cosas. Eso piensan numerosos investigadores, que se han lanzado a analizar tuits para cosas tan dispares como vaticinar éxitos en las taquillas de cine, prevenir la difusión de bulos antivacunas y pronosticar la evolución de la bolsa.

Y por supuesto, para el análisis electoral. Ya se ha probado la capacidad de las redes sociales para movilizar al electorado y desde hace un tiempo se está estudiando si también sirven para adelantar el resultado de comicios. El punto de partida es sencillo: los usuarios de Twitter terminan por trasladar a la red sus sentimientos, intereses y aficiones por lo que debería servir de sondeo natural. Podría ser un termómetro electoral perfecto ya que es espontáneo y ofrece una muestra amplísima de participantes.

Con esta premisa, ya se han pronosticado los ganadores de numerosas elecciones por todo el mundo: desde las federales alemanas de 2009, hasta las presidenciales de Ecuador, Venezuela y Paraguay. También se ha visto esta correlación en las recientes legislativas de Argentina. Incluso en España, donde Twitter adelantó la victoria de Mariano Rajoy, según un trabajo de la Politécnica de Madrid. El último estudio que ha relacionado mensajes en esta red social con el comportamiento electoral se presentó la semana pasada, en la Reunión Anual de la Asociación Americana de Sociología. El título del estudio deja claro cuál es la tesis de sus autores: Más tuits, más votos: los medios sociales como un indicador cuantitativo del comportamiento político.

Joseph DiGrazia y otros investigadores de la Universidad de Indiana analizaron millones de tuits para encontrar una correlación entre las victorias de 795 candidatos al Congreso y la presencia de su nombre en Twitter. Básicamente, el candidato que más menciones recibe en forma de tuits termina ganando el escaño. Da igual el sentido de las menciones: "que hablen de uno, aunque sea mal", valdría como resumen de la tesis de estos investigadores. Según sus datos, lograron adelantar el ganador en más del 90% de los escaños en liza. ¿Quiere esto decir que Twitter sirve para vaticinar resultados electorales? Puede que estemos ante un ejemplo contemporáneo del mito de la caverna de Platón: sombras de una verdad distinta.

"Hay algo", expresa Daniel Gayo-Avello, profesor de la Universidad de Oviedo, "pero todavía es muy poco como para lanzar las campanas al vuelo. Es cierto que parece darse una correlación positiva, pero no vale con decir que es fuerte. Hay que medir, cuantificar esa correlación: ¿el doble de tuits implica el doble de votos, cuántos más?", pregunta Gayo-Avello, que se ha convertido en un Pepito Grillo frente a quienes, cada poco, dan por muertas a las empresas demoscópicas tras la irrupción de Twitter. "No se puede adivinar el resultado, al menos no de manera sistemática, no cuando no sabes qué elección vas a fallar ni por qué margen y sólo puedes ofrecer explicaciones post-facto", zanja.
Múltiples flaquezas del torrente de información

Una de las principales pegas de todos estos estudios que adivinan resultados electorales es que los aciertan a toro pasado. De los numerosos estudios que han acertado presidentes o legisladores solamente uno, centrado en las elecciones presidenciales de EEUU de 2012, envió sus resultados antes de que se supiera el resultado. El resto suelen buscar correlaciones entre tuits y votos una vez se conoce el resultado.

DiGrazia explica que su principal vocación es únicamente la de "demostrar que con mediciones relativamente simples, construidas a partir de datos de los medios sociales, se puede establecer una correlación fiable con el mundo real". Es lo que dicen en el estudio: no pretenden hacer pronósticos, sino mostrar que la gente se comporta en las redes tal cual es y que por tanto Twitter sería el reflejo de sus sentimientos hacia la política o el ocio. "Además", añade DiGrazia, "los medios sociales pueden ayudar a dar una idea sobre algunos temas específicos que son difíciles de captar a través de votación tradicional", en referencia a sectores demográficos poco representados en las encuestas.

Sin embargo, el debate académico se ha calentado después de que otro de los firmantes del estudio sobre el Congreso de EEUU, Fabio Rojas, escribiera un artículo en el Washington Post defendiendo sin ambajes que Twitter servirá para predecir sufragios. Preguntado por esa discrepancia con su colega DiGrazia, Rojas nos asegura que Twitter sí tiene ese futuro: "Sí, creo que estos estudios tienen un gran potencial. No somos el único grupo de investigación que ha encontrado resultados similares, incluso en sistemas con candidatos múltiples o multipartidistas". "En el futuro veremos si dan mejores resultados que las encuestas tradicionales", concluye.
Sesgo de autoselección y manipulación

Twitter tiene todavía muchos obstáculos que sortear hasta convertirse en el oráculo que defiende Rojas. Se suele señalar una gran debilidad: la del sesgo de autoselección. Hay asuntos y circunstancias —que podrían ser momentos concretos de las campañas— en los que la participación en Twitter aumenta por una parte del electorado y se reduce en la contraria. A juzgar por Twitter, por ejemplo, la población norteamericana sería más partidaria del matrimonio homosexual de lo que realmente es. No es sólo que la población tuitera no sea representativa: es que hay temas que invitan a publicar su opinión a usuarios de una determinada ideología y a callar a los de la contraria.

No obstante, el mayor problema es la de la exactitud de los pronósticos. La mayoría logran adivinar el presidente elegido, pero no los porcentajes de voto o los escaños. La brocha gorda funciona, reconoce Gayo-Avello, pero no el pincel fino, que en muchos casos puede ser incluso más importante. "El margen de error sigue siendo muy superior al de las encuestas preelectorales, con porcentajes muy elevados para partidos pequeños", explica el investigador de la Universidad de Oviedo.

Es lo que ocurrió con el estudio publicado el año pasado por el equipo de Rosa Benito, catedrática de Física, en la revista Chaos. En las legislativas españolas de 2011, el porcentaje de tuits con menciones al PP y al PSOE es razonablemente similar al resultado electoral. Pero la distorsión que se produjo en el caso de UPyD —casi el triple de tuits que de votos— es el gran talón de Aquiles para quienes quieran servirse de Twitter para pronosticar escaños. El electorado de UPyD es extraordinariamente proactivo en redes sociales, del mismo modo que la extrema derecha en Francia es más discreta que el resto, por lo que es muy complicado corregir las distorsiones que surgen en estos estudios.

Acaba de publicarse otro paper que analiza esta supuesta correlación, esta vez centrado en las elecciones legislativas alemanas de 2009. Los resultados no pueden ser más negativos para quienes pretenden que Twitter sea el oráculo perfecto. Durante la campaña, el partido más mencionado en esta red —con diferencia— fue el Partido Pirata, que sin embargo apenas alcanzó el 2% de los sufragios y ni siquiera consiguió representación en el Bundestag: mucha presencia en la red, debilidad en las urnas. Además, los socialistas casi hubieran empatado con la CDU y Die Linke hubiera sido la cuarta fuerza del país.
Distorsiones del Big Data

Este estudio señala otras flaquezas: las menciones son muy inestables en el tiempo, en los mensajes predomina la carga negativa (su valor aún está en entredicho) y las alusiones a los candidatos dependen en exceso de sus apariciones televisivas. "Este análisis muestra que, al menos para las elecciones federales de Alemania de 2009, los datos de Twitter no son un fuerte indicador de los destinos electorales de los partidos o candidatos mencionados en Twitter", sentencia Andreas Jungherr de la Universidad de Bamberg.

En casos de bipartidismo es más fácil optar por candidatos, pero muchos sistemas políticos son más complejos y dependen de las minorías. Además, lo que ocurre con UPyD en España o con el Partido Pirata en Alemania es un reflejo de lo que podría ocurrir si se consolidara el uso de Twitter como fuente de pronósticos electorales. Es evidente que los partidos intentarían inflar sus menciones en la red para mejorar sus predicciones. Un ejemplo: durante las últimas elecciones presidenciales de EEUU, se cazó al candidato republicano, Mitt Romney, comprando seguidores en Twitter para mejorar su imagen en la red frente a Obama.

"El mayor problema es que se trata de una herramienta fácilemente adulterable. El incentivo para tratar de manipular que se le ofrece a los partidos sería demasiado poderoso, ¿cómo diferenciamos un tuit legítimo de uno creado con un bot para mejorar el pronóstico de un partido? Entraríamos en el terreno de las profecías autocumplidas: si parece que va a ganar un partido, el electorado rival podría desmovilizarse", vaticina Gayo-Avello.
Herramienta de futuro

Este investigador ha realizado un metaanálisis de los estudios que ligan tuits y votos y reconoce que ha moderado su discurso: no cree imposible vaticinar escaños pero reclama un modelo y predicciones realistas antes de las elecciones y menos "habríamos podido". Pone como ejemplo el trabajo que está realizando el italiano Andrea Ceron, de la Universidad de Milán: un modelo híbrido que se sirve de Twitter y sondeos demoscópicos que ayuden a leer mejor el resultado que ofrecen los tuits y ajusten el sistema predictivo. Los datos de Twitter son masivos, baratos y se pueden recoger en tiempo real. Pero conviene ajustarlos con información recogida a pie de calle, sugiere Gayo-Avello.

Twitter sí es una herramienta que ayuda a leer muchos otros reflejos de la realidad con razonable exactitud. "El escenario político es el más problemático. Se han logrado importantes resultados, con predicciones más acertadas, en taquillas de cine, en ventas de videojuegos o en epidemias", explica el investigador de la Universidad de Oviedo, pero en la política la capacidad predictiva flaquea por la complejidad de los factores en liza.
La información que proporciona el Big Data (ingentes cantidades de información procesada con herramientas informáticas) es extraordinariamente valiosa, pero hay que mantener un pie en el suelo para evitar que algunos componentes distorsionen la lectura. Después de muchos años, Google se equivocó en su predicción de la epidemia de la gripe en EEUU, después de muchos años clavando su difusión. Google se nutría de las consultas que su buscador recibía para pronosticar donde golpeaba la gripe con más fuerza. Sin embargo, este invierno la herramienta recibió una importante atención por parte de los medios que ayudados por la viralidad de las redes terminaron por falsear el resultado.
Google anunció que revisará su algoritmo. Y los mineros de datos en las redes sociales seguirán ajustando sus herramientas para sacar oro de los tuits espontáneos. Hasta encontrar un equilibrio entre la realidad, su reflejo y otros termómetros sociales. Como resume Gayo-Avello: "Está fuera de lugar pensar que van a desaparecer las empresas demoscópicas. Y es absurdo ignorar toda la información que proporciona lo que se dice en las redes sociales".

Cómo sacaremos fotos en el futuro

Imagínese una cámara que le permita ver a través de una multitud para obtener una visión clara de alguien que de otro modo estaría en la sombra, un teléfono inteligente que tome fotos con la calidad de los lentes especializados o una fotografía que le permita cambiar el ángulo después que la haya tomado.

Las ideas pueden sonar descabelladas, pero podrían convertirse en algo común si la fotografía computacional hace honor a su promesa.

A diferencia de la fotografía digital normal -que usa un sensor para capturar una sola imagen bidimensional de una escena- la técnica registra un conjunto más rico de datos para construir sus imágenes. En lugar de tratar de imitar la forma en la que funciona el ojo humano, le abre las puertas a un nuevo software con posibilidades mejoradas.

Pelican Imaging es una de las firmas líderes en este campo. La empresa con sede en California está trabajando en una parte del equipo que contiene un conjunto de 16 objetivos, cada uno conectado a un sensor azul, rojo o verde, vinculados a un chip que fusiona los datos que producen.

"Al final uno obtiene una imagen estándar JPEG con un mapa de profundidad de la escena que permite identificar todos los bordes de todos los objetos, hasta de un cabello humano", le explicó el director ejecutivo Christopher Pickett a la BBC.

Una aplicación de la compañía utiliza esta información para que el usuario decida qué partes de su foto deben estar enfocadas aún después de que se toman. Esto incluye la capacidad inusual para elegir múltiples planos focales.

Por ejemplo, una fotógrafa en Nueva York podría optar por hacer los detalles de la cara de su marido y de la Estatua de la Libertad detrás de él, pero que todo lo demás (incluyendo los objetos de entre ellos) quede borroso o fuera de foco.

"Como no tenemos partes móviles también tenemos el primer disparo súper rápido, ya que no tenemos que preocuparnos de enfocar", añade Pickett. "Para lograr la foto perfecta, basta con que no dejar pasar el momento".
Sin que se rompa la imagen

Otra empresa, Lytro, ya ofrece funciones similares en su propia cámara de campo de luz independiente, pero Pelican dice que ofrecer la tecnología a través de un componente tan pequeño que cabe en un teléfono resultará fundamental para su éxito.
Nokia ya invirtió en Pelican, dando lugar a especulaciones de que será uno de los primeros en ofrecer la tecnología en cuanto esté disponible el próximo año.

Entre tanto, para tener una idea de lo que es la fotografía computacional están las imágenes de alto rango dinámico (HDR). Utilizan el poder de la computadora para combinar fotos tomadas con diferentes exposiciones y crear una sola imagen cuyas zonas de luz no son demasiado brillantes y las oscuras no son demasiado sombrías.

Sin embargo, si el sujeto principal no está estático puede haber problemas al tratar de unir las imágenes. A menudo, los usuarios se quejan de que los objetos en movimiento en el fondo se ven como si se estuvieran rompiendo a pedazos.

Una solución -actualmente promovida por el fabricante de chips Nvidia- es aumentar la capacidad de procesamiento para reducir el tiempo entre cada toma.
Pero buscar una técnica alternativa que sólo requiera una sola foto podría ser mejor. "Imagine que tiene un sensor con píxeles de diferentes niveles de sensibilidad", explica el profesor Shree Nayar, director del Laboratorio de Visión por Computador de la Universidad de Columbia.

"Algunos podrían ser buenos para medir las cosas con poca luz y sus vecinos pueden medir bien cosas muy brillantes. Se tendría que aplicar un algoritmo para decodificar la imagen producida, pero una vez que se haga, se podría obtener una imagen con una enorme variedad en términos de brillo y color, mucho más de los que el ojo humano puede ver".

Aún si las técnicas de HDR actuales pasan de moda, la fotografía computacional ofrece otros usos para imágenes multitoma.

El año pasado, investigadores estadounidenses mostraron un proceso que consiste en mover una cámara compacta alrededor de un objeto o persona para tomar cientos de imágenes en el lapso de un minuto más o menos. Los datos resultantes se utilizan para crear lo que se llama un mapa del campo de luz en una computadora portátil.

El software usa esto para representar las vistas de la escena, permitiéndole al usuario elegir el ángulo exacto que quiere mucho después de que el evento finalice.
Otra técnica consiste en el análisis de dos fotos tomadas en rápida sucesión, una con flash y la otra sin él.

"Se puede utilizar para saber qué parte de la imagen son sombras", explica el doctor Martin Turner, experto en visión artificial en la Universidad de Manchester.

Microsoft solicitó una patente para esta idea diciendo que la información podría ser utilizada para hacer que las fotografías con flash se vean menos molestas, mejorando automáticamente su equilibrio de color, eliminando las feas sombras proyectadas por la luz brillante y evitando los ojos rojos.

Al final, se tiene lo que parece ser una imagen muy detallada y sin ruido.
Ver a través

Algunos de los usos más exóticos de la fotografía computacional se han llevado a cabo en la Universidad de Stanford, donde los investigadores idearon una manera de "ver a través" del follaje denso y las multitudes.

Posicionando decenas de cámaras en diferentes ángulos y procesando los datos resultantes fueron capaces de crear un efecto de poca profundidad de foco que dejó al sujeto deseado bien definido pero los objetos que lo obstruyen tan borrosos que parecían transparentes.

Su trabajo de investigación propone como un posible uso de esta tecnología la vigilancia de objetivos.

"Se gastaron US$ 2 millones para construir este gran conjunto de cámaras y se necesitó un equipo de estudiantes de postgrado dedicados a ejecutar el experimento", dijo el profesor Jack Tumblin, un experto en fotografía computacional en la Universidad de Northwestern, cerca de Chicago.

"Fue una máquina de laboratorio maravillosa, pero no es muy práctica". El profesor Tumblin está tratando de desarrollar una versión económica del efecto usando una sola cámara.
Su teoría es que haciendo varios disparos desde diferentes posiciones, con la ubicación exacta de la lente registrada para cada uno, debería ser posible usar el software para eliminar un objeto no deseado de la fotografía final. Lo único es que el objeto en cuestión debe estar estático.

Scalado (hoy en manos de Nokia) también desarrolló una técnica para borrar elementos de una imagen, pero usando sólo procesamiento de software.
No tan complicado

Tal vez el mayor beneficio potencial de la fotografía computacional no son nuevos efectos rebuscados, si no más bien la capacidad de captar la mejor imagen en dos dimensiones que sea posible.
Un área de investigación es la creación de una imagen de alta calidad, que actualmente requiere tomarse con un objetivo pesado hecho de varios elementos de cristal pulido de precisión, pero con uno más barato, más pequeño y menos complejo. La idea es dejar que pasen las imperfecciones en la imagen por el sensor y arreglarlas luego con el software.

Otra técnica consiste en hacer disparos en rápida sucesión, moviendo el sensor tan sólo medio píxel entre cada uno, para después combinar la información y crear una imagen con "súper resolución".

El fabricante sueco de equipos fotográficos Hasselblad ya utiliza esto en una de sus cámaras de lujo para que sus sensores de 50 megapixeles creen fotos de 200 MP.

Y también está la idea de construir un dispositivo híbrido que pueda tomar al mismo tiempo tanto imágenes fijas como video de alta velocidad para resolver el problema de la vibración de la cámara. "El propósito es poder medir cómo la foto salió borrosa", explica Tumblin. "Si la parte de la cámara de video se centra en algún punto brillante en la distancia, puede ser usado para calcular la trayectoria. Eso permite que el desenfoque causado por el temblor de la mano sea reversible".

Un geofísico denuncia la relación directa entre el fracking y el aumento de actividad sísmica

Los vecinos del pueblo de Youngstown, en Ohio, aseguran que nunca habían sufrido un terremoto hasta hace dos años y medio. Pero desde enero de 2011 a febrero de 2012 se han registrado 109 temblores en la zona y el Doctor en Geofísica Won-Young Kim ha publicado un artículo relacionando estos terremotos con las actividades de fracking realizadas en los alrededores de esa localidad, según cuenta el blog científico Science 2.o .

En diciembre de 2010, Northstar 1, una inyección de pozos profundos construidos para bombear las aguas residuales producidas por fractura hidráulica en el estado de Pennsylvania (vecino a Ohio), entró en funcionamiento.

En los 14 meses siguientes al inicio de esta actividad, los sismógrafos al rededor de Youngstown y en la misma localidad registraron 109 terremotos. El más fuerte ocurrió el 31 de diciembre de 2011 y fue de magnitud 3,9. Otro seis se pudieron sentir por la población.

El Doctor Won-Young Kim, del Observatorio Terrestre Lamont-Doherty, de la Universidad de Columbia, ha analizado los terremotos en Youngstown y ha descubierto que el inicio de los mismos, su cese e incluso las caídas temporales en la actividad están vinculados a la actividad en el pozo Northstar 1.
Relación directa

El primer terremoto registrado en la ciudad ocurrió 13 días después de que el bombeo comenzase y cesaron al poco de que el Departamento de Recursos Naturales de Ohio cerrase el pozo en diciembre de 2011.

Inlcuso las caídas en la actividad sísmica coinciden con el 4 de Julio, el Día de los Caídos, el Día del trabajador y Acción de Gracias, así como otros periodos en los que la extracción y el pozo se paralizaron temporalmente.

Estos pequeños temblores ocurren unas 900.000 veces al año e incluso el mayor registrado en Youngstown sucede 30.000 veces cada año, pero Kim cree que el pozo de extracción debe preocupar, ya que nunca antes se habían sentido los terremotos.
"En los últimos años, los residuos líquidos generados durante la producción de gas de esquisto y la fracturación hidráulica han ido en constate aumento en los Estados Unidos. Y esta inyección de fluídos de desecho en un pozo profundo de Youngstown, Ohio, durante enero de 2011 y febrero de 2012, han provocado los terremotos. Estos temblores se deben seguramente al aumento de la presión que ha provocado la inyección de aguas residuales profundas y ha causado que la falla existente se deslice" explicó Kim.

"A lo largo de 2011, los terremotos se han migrado del este al oeste a lo largo de la falla lejos del pozo, un indicativo de que los temblores están causados por la expansión del frente de presión" añade Kim.

Minority Report, cada vez más cerca de la realidad: Google patenta el "cobro por mirar" la publicidad

Una de las escenas más conocidas de la película de ciencia ficción Minority Report tenía que ver con la personalización de la publicidad dependiendo del usuario.

Así, mientras el protagonista camina en un centro comercial se puede ver cómo los avisos aparecen en su camino, mediante un sistema que reconoce su visión.

Algo similar acaba de patentar Google para sus afamados Google Glass, a través de una aplicación que detectará cuando un usuario observa un anuncio, contabilizando el gesto y cobrando al avisador.

La tecnología, llamada "Pay Per Gaze" o "pago por mirada", consta de un sensor que utilizará los anteojos para reconocer el sentido en el que mira el usuario, de forma muy similar a lo que ocurre hoy en Internet con el cobro por clic, y el anuncio a su vez detectará que alguien puso su mirada sobre él, para luego realizar el cobro respectivo por publicidad efectiva.

Esta tecnología podrá reconocer la respuesta emocional del usuario al ver el anuncio, mediante el análisis de la pupila del ojo.

Aunque la solicitud de la patente fue entregada esta semana, fue solicitada en mayo de 2011 y entre sus puntos, también puede ser utilizada sin la necesidad de estar conectado en Internet, como carteles callejeros e incluso revistas o diarios impresos.

Alemania reconoce el uso de Bitcoin como moneda de uso privado libre de impuestos

La moneda virtual Bitcoin ha recibido un importante impulso (en algunos lugares está al margen de la ley o despreciada por las autoridades) al reconocerse por parte de Alemania su papel como moneda válida para su uso entre particulares sin tener que abonar impuestos por ello siempre que no se efectúen transacciones comerciales.

Un paso decisivo en el reconocimiento del Bitcoin como moneda virtual al menos en Alemania aunque por el momento vinculado únicamente a transacciones entre particulares, en las que sí pagarán impuestos quedando libres de la imposición en los casos en los que con más asiduidad se usan actualmente los Bitcoin, que son las transacciones entre particulares.

Alemania se convierte así en el primer país en efectuar este reconocimiento oficial sobre la divisa virtual tras declararlo oficialmente el ministro de Economía del gobierno de Berlín. Ya en junio se estableció en la capital alemana la primera plataforma de negociación de Bitcoins, mediante el banco alemán que opera sólo por Internet Fidor, un intermediario que contó con la regulación de la autoridad supervisora financiera del país.

En esa misma época un juez federal de Texas declaró que los Bitcoins eran una divisa legítima como sentencia en nu proceso por una presunta estafa de tipo piramidal por un valor equivalente de 4,5 millones de dólares. Tras ser acusado declaró que como los Bitcoin no son dinero real la legislación estadounidense no podía dirigirse contra él.

Los defensores de esta moneda argumentan que la divisa virtual protege la identidad de quienes poseen Bitcoins además de dificultar (cuando no impedir) los fraudes con tarjeta de crédito o los robos. Los críticos se oponen al no ser una moneda respaldada por ningún gobierno ni entidad regulatoria lo que puede alentar conductas poco claras. Mientras también hay un grupo de escépticos que recuerdan la volatilidad del tipo de cambio de esta moneda, muy sujeta a vaivenes especulativos.

Recordemos que hay una cantidad limitada de Bitcoins en circulación, 21 millones, con lo que ante el interés por disponer de unidades de esta moneda se eleva el precio unitario. En este momento la cotización se encuentra en 82€ por Bitcoin.

En cualquier caso podemos estar ante el principio del reconocimiento oficial e internacional de los Bitcoins