Buscar

2011/03/14

El nuevo móvil de Google, ya en España

Aunque Google no triunfó con su primer teléfono, la compañía del buscador se ha animado a lanzar un nuevo modelo más avanzado, aunque aseguran que su intención es solo "dinamizar el mercado".
El nuevo dispositivo móvil de Google, Nexus S, desarrollado por Samsung Electronics, está disponible en primicia a partir de este lunes para clientes de Vodafone desde cero euros, informó la compañía.
El Nexus S es el primer dispositivo equipado con el sistema operativo Android 2.3 (Gingerbread) y destaca por su pantalla curva y su teclado mejorado, así como por su capacidad para copiar y pegar textos de la manera más sencilla, y por la posibilidad de utilizarse como hotspot WiFi capaz de conectar hasta seis portátles.
En concreto, los clientes particulares de Vodafone podrán adquirir el Nexus S por un precio que va desde cero euros, con la tarifa para Hablar y Navegar @L de 59,90 euros al mes, hasta los 249 euros, con la tarifa @XS por 24,90 euros mensuales. Por su parte, los clientes autónomos o de empresas podrán adquirir el terminal desde 15 euros o desde 95 euros, respectivamente, con el plan Conecta Voz e Internet de 19 euros al mes.

Publico

"La tecnología 3D supone ver la realidad tal cual es"

Una mayor inmersión en los videojuegos, movimientos más reales y nuevas posibilidades para un ocio interactivo que, como el cine, también quiere tener tres dimensiones. Eso es Nintendo 3DS, una consola que puede convencer más o menos y que puede llevar a los usuarios a preguntarse si era necesario jugar en 3D pero que, sin duda, sorprende. "Supone ver la realidad tal cual es", dijo este viernes el divulgador Eduard Punset durante la presentación de la consola.
El 25 de marzo, fecha del lanzamiento a 250 euros, Nintendo se enfrentará a un reto aún mayor que cuando quiso demostrar con la Wii que los videojuegos no tenían por qué ser estáticos. Su 3DS lo tiene más difícil porque sus posibilidades no pueden comprobarse en un vídeo o en una fotografía. Su mayor baza, los efectos 3D de una pantalla que no necesita gafas, sólo pueden apreciarse en persona y cuando el usuario se encuentra frente a ella. Cualquier intento de verlos en un ángulo diferente mostrará una imagen borrosa de los 13 juegos con los que contará el día de su lanzamiento.
En un sector en el que apenas hay margen para innovar en el apartado gráfico, la apuesta de Nintendo descubre nuevas vías que explorar. Y eso siempre debería ser una ventaja. Quizás la fecha de salida sea un buen augurio. Se pone a la venta el mismo día que el iPad 2, la continuación de un dispositivo del que muchos dudaron y que ha logrado inaugurar una nueva gama de productos. Quizás a corto plazo todas las consolas portátiles sean 3D y lo habitual sea restringir ese efecto si no se desea, como sucede en esta máquina con regulador de profundidad. Es la opción que deben elegir los niños menores de 6 años, los usuarios estrábicos y aquellos que sólo pueden ver por un ojo.
Ha llegado el momento de comprobar si a los usuarios les interesa esta tecnología en su vida cotidiana, y si el escaso 2% de televisores 3D vendidos en 2010 se ha debido únicamente a una cuestión de precio.

Publico

El 'alien' del científico maldito

El pasado 5 de marzo, un investigador de la NASA proclamó haber encontrado un extraterrestre. Como prueba aportaba marcas microscópicas recién halladas en tres meteoritos que no eran otra cosa que los fósiles de bacterias alienígenas.
"Lo más excitante es que se pueden ver en muchos casos y relacionarlos con especies terrestres", explicaba a Fox News Richard Hoover, un científico del Centro Espacial Marshall de la NASA poco conocido hasta entonces. Ahora, Hoover está sumido en el ostracismo mientras su estudio, publicado en Journal of Cosmolgy (JOC), una revista poco respetada por los investigadores en astrobiología, ha causado uno de los mayores revuelos científicos en lo que va de año.
El artículo ha causado una oleada de críticas hacia Hoover y sus editores, que han aprovechado el tirón de su historia para intentar salvar su publicación, que atraviesa serios apuros económicos, y darle de paso una patada en los morros a la manera en la que los científicos publican y discuten sus resultados.
Mientras la NASA defenestraba públicamente a Hoover, JOC anunció que publicaría comentarios de cualquier científico que desease desacreditar o apoyar a Hoover. La revista compara al científico con Giordano Bruno, el astrónomo italiano que propuso que el universo acogía un número infinito de mundos posibles y que fue quemado por la iglesia en 1600. ¿Había nacido un nuevo mártir?

Condritas espaciales

Las piedras espaciales de Hoo-ver vienen de los confines del Sistema Solar. Se piensa que el tipo de meteoritos que ha usado, conocidos como condritas carbonáceas, pueden remontarse al tiempo en el que nació la Tierra, hace 4.500 millones de años. De las nueve condritas de este tipo que se han hallado en toda la historia, Hoover logró muestras de dos recogidas en Francia en 1806 y 1864, y otra que apareció en Tanzania en 1934. Su análisis concluye que las marcas alargadas que hay en las tres muestras son fósiles de bacterias que, por su forma y tamaño, parecen hermanas de otras encontradas en la Tierra. Entre las más parecidas a estas alienígenas, con una longitud de 20 millonésismas de metro, estarían las Titanospirillum velox, unas peculiares cianobacterias detectadas en el Delta del Ebro en 1999 y que son capaces de moverse con extremada rapidez. La prueba de que los filamentos de los meteoritos son restos de vida es que no hay nitrógeno en las muestras.
Al igual que sucede con los fósiles de la Tierra, los restos no tienen rastros de ese elemento, a pesar de que es el más abundante de la superficie del planeta, lo que demostraría que el hallazgo no se debe a contaminación y descartaría que las bacterias se hubiesen infiltrado en el meteorito después de que se estrellase contra la Tierra. El trabajo "indica que los filamentos representan los restos de vida extraterrestre", concluye Hoover con no poca pompa.
"Es un trabajo muy cuestionable", opina Jesús Martínez-Frías, investigador del Centro de Astrobiología (CAB), en Madrid, y experto en meteoritos. "En estudios como este, los estándares requieren que se demuestre la presencia no de uno, sino varios biomarcadores", señala. Esos marcadores son los rastros indiscutibles del metabolismo; es decir, de la vida. Hoover no aporta ni uno."Que haya algo que se parece a la vida no significa que sea vida", comenta Ricardo Amils, experto en vida marciana del CAB. "A todos mis estudiantes les digo siempre que las pruebas morfológicas como estas no sirven para nada", comenta. "Cuando los errores metodológicos y conceptuales se hacen patentes, la credibilidad de la astrobiología se resiente", lamenta Alberto González-Fairén, que trabaja en el Centro Ames de la NASA y tampoco cree que Hoover haya descubierto extraterrestres.
Al igual que los dos expertos españoles, multitud de investigadores de Estados Unidos han defenestrado el trabajo e incluso a su propio autor. "La comunidad de astrobiología no piensa que Richard Hoover sea un investigador creíble", comenta Carl Pilcher, director del Instituto de Astrobiología de la NASA.
Sin embargo, la agencia espacial glosó los éxitos de Hoover como microscopista y astrobiólogo en 2009, cuando recibió la medalla de oro de la sociedad de ingeniería SPIE. De acuerdo con su perfil, Hoover lleva más de 40 años trabajando para la NASA, ha viajado a la Antártida y Siberia en busca de bacterias capaces de resistir la vida en el espacio, y en 1992 fue nombrado inventor del año por la NASA.

Revisión de expertos

La agencia, que provocó otro escándalo similar en diciembre cuando un estudio sobre una supuesta nueva forma de vida hallada en la Tierra fue ampliamente cuestionado por otros científicos, ha dejado a Hoover a los pies de los caballos. "La NASA no puede apoyar una propuesta científica si no ha sido revisada por expertos cualificados", dijo Pal Hertz,uno de los jefes científicos dela agencia en Washington. Hertz aseguró que en 2007 el estudio había sido rechazado por el International Journal of Astrobiology, publicado por la Universidad de Cambridge. De hecho, la primera vez que Hoover proclamó haber encontrado fósiles extraterrestres fue en 1997.
Desde que comenzó la polémica el investigador se esconde de los focos y no responde al teléfono ni el correo electrónico. Mientras, en un "comunicado oficial" publicado en su web, el JOC se pregunta "¿Han ganado los terroristas?". A lo que responde que "sólo unos pocos chalados y charlatanes han denunciado el estudio". En febrero, el JOC anunció que dejará de publicarse en mayo por falta de fondos. Su editor, el astrónomo de Harvard Rudy Schild, ha dicho a AP que el cierre inminente de la publicación "fue un factor" en su decisión de publicar el trabajo de Hoover.

Publico

Lucha contrarreloj para que dos reactores no acaben como Chernóbil

Las centrales nucleares japonesas resisten a duras penas los efectos del maremoto. A pesar de los esfuerzos de los técnicos de las plantas golpeadas por el tsunami, tanto Fukushima Daiichi como Fukushima Daini, Onagawa y Tokai multiplicaron sus problemas ayer y elevaron el nivel de preocupación por los efectos de un accidente de proporciones similares al de Chernóbil. La agencia japonesa de seguridad nuclear calificó originalmente el accidente de Fukushima Daiichi como de nivel 4, por debajo de la ocurrida en 1979 en Three Mile Island (EEUU), catalogada con un nivel 5. Sin embargo, la evolución de los acontecimientos, con el núcleo de los reactores 1 y 3 casi fuera de control y cerca de fundirse por completo, hace temer que esta catástrofe supere finalmente en gravedad al accidente norteamericano.
Aunque eran dos los reactores en peligro en Fukushima Daiichi, a 240 kilómetros de Tokio, la evolución del reactor 3 generó más incertidumbre durante el día de ayer porque fracasaron los esfuerzos por enfriar su núcleo inyectando agua de mar, una técnica que tampoco ha tenido éxito con su compañero.

Gases inflamables

El Gobierno japonés reconoció que era más que posible que se produjera una explosión en este reactor similar a la que sufrió el sábado el reactor 1. Mientras crece la temperatura y la presión dentro del reactor, los técnicos se ven obligados a liberar todo tipo de gases al exterior sin apenas control. Entre ellos, se expulsa hidrógeno, un elemento altamente inflamable.
El equipo del primer ministro japonés, Naoto Kan, trataba de minimizar la importancia de esta probable explosión, aunque la realidad es que podría dañar la estructura de contención exterior del reactor. Es lo que sucedió el sábado en el reactor 1, que hasta ayer era el único que parecía suponer un riesgo cierto para la población y el medio ambiente. Como resultado de esa deflagración, la cubierta exterior del reactor 1, una estructura de hormigón de aproximadamente un metro de espesor, quedó dañada. Su alcance se desconoce, pero tiene que ser grave en una circunstancia en la que una simple grieta puede llevar al desastre.
Ambos reactores registran en estos momentos una fusión parcial de sus núcleos, que están sometiendo a altísimos niveles de presión y temperatura a las barreras de protección que aislan el material atómico del exterior. La estructura de seguridad está formada por cuatro capas de seguridad en forma de muñeca rusa. Al fundirse parte del núcleo, los reactores 1 y 2 ya habrían perdido la primera, las varillas metálicas que contienen el combustible atómico. Al fundirse, estas varillas generan hidrógeno, que podría producir explosiones que reventaran la protección del edificio.
Al núcleo lo envuelve una vasija de acero de 12,5 centímetros de espesor que sólo se derretiría con el calor generado por una fusión completa del núcleo. Sobre ella, una bombilla de hormigón que aísla la vasija de las paredes exteriores. La situación del reactor 3 es más grave porque su combustible es una mezcla de uranio y plutonio que se estrenó en el verano de 2010. Esta mezcla es mucho más productiva porque genera mucho más calor, pero es mucho más peligroso si pierde el sistema de refrigeración.

Agua salada de mar

La decisión de urgencia que tomaron los técnicos de compañía Tokyo Electric Power dueña de la central fue la de tratar de aplacar el calor de sus reactores con agua de mar. El complejo entramado de tuberías que nutre los reactores de ebullición el de Garoña en Burgos es igual pudo haber sufrido la inyección de agua con impurezas y sal, según señalan los expertos consultados, lo que podría haber provocado la explosión del reactor 1. Inicialmente, se trató de inyectar agua fresca en el reactor 3 pero el intento fracasó y se optó por recoger agua marina debido a la urgencia de la situación.
Ayer se seguían liberando materiales al exterior de los reactores para evitar que la olla a presión estalle. De ahí que crecieran los niveles de radiactividad en el exterior de Fukushima. El objetivo es evitar una rotura de la contención y el escape descontrolado del material atómico, que fue lo que sucedió en Chernóbil. En Three Mile Island, el desastre se quedó en un paso intermedio, con el núcleo fundido pero contenido dentro de los muros de la central.
Entre los dos reactores más afectados, la unidad 2 también demandó ayer atenciones suplementarias debido a que el nivel del agua en su reactor, aunque estable, estaba por debajo de los límites aconsejables. No fue el único susto. Los reactores de la central de Fukushima Daini presentaban problemas de presión. Además, en la planta de Tokai, al sur de Fukushima, se registró una parada del mismo sistema de refrigeración que falló en Daiichi.
La agencia de seguridad nuclear japonesa se vio obligada a declarar el estado de emergencia en la central de Onagawa al norte por el aumento de radiación en la zona, que las autoridades locales atribuyeron a las emisiones de Fukushima. La OIEA confirmó anoche que la planta está bien y que, efectivamente, la radiación no es generada por ella.

Publico

Twitter cumple cinco años y su creador lo festeja twitteando la historia

Jack Dorsey, fundador y CEO de twitter se decidió a contar la historia de la red en tweets, a través de su usuario @jack. ¿El motivo? El cumpleaños número 5 del microblog que revolucionó las conversaciones del mundo

Hoy se cumplen cinco años desde el día en que un grupo de jóvenes genios de Silicon Valley comenzaron a programar un éxito. Twitter comenzó a gestarse un día como hoy, pero en 2006 y ocho días más tarde Jack Dorsey (@jack) envió su primer tweet: "Invitando a los cofundadores".
Dorsey, junto con Evan Williams y Biz Stone es el cerebro detrás de la máquina que hoy conquistó gran parte del globo y se encuentra valuada en 4100 millones de dólares.
Bajo el hashtag #twttr, tal como era el nombre original de la plataforma, Jack se decidió a contar su historia en 140 caracteres, y fue revelando curiosidades, datos y bocetos propios de la etapa de su creación.

Infobae

Irán construyó su central nuclear en el cruce de 3 placas tectónicas

La planta de Busher, que Teherán puso en funcionamiento en noviembre de 2010 y poco después debió frenar por fallas técnicas, está ubicada en una zona de alto riesgo sísmico

Lo afirma el sitio de noticias israelí que recuerda que recientemente una bomba de enfriamiento de ese reactor nuclear iraní se descompuso, lo que forzó su detención cuando esta usina se encontraba en fase de arranque. Esto reaviva las inquietudes en torno a la seguridad de la central construida con apoyo de Rusia y material alemán.

Factores naturales y humanos se combinan en Irán, por lo que se potencian los riesgos de accidentes y fuga radiactiva. Por un lado, Busher está situada en la conjunción de tres placas tectónicas, lo que hace temer que un temblor pueda dañar las instalaciones y generar un incidente como el que hoy sufre Japón. Hay un antecedente: en 2002 la central fue dañada fuertemente por un sismo de 4,6 grados en la escala de Richter.

Los expertos nucleares evocan, además, otros peligros derivados de la inexperiencia iraní en la materia y la reticencia del régimen a adherir a los programas internacionales de vigilancia y a cooperar con la Agencia Internacional de Energía Atómica, dependiente de las Naciones Unidas.

Por otra parte, la central de Bushehr, de 1000 megavatios, combina una usina de diseño alemán (Siemens), iniciada antes de la revolución islámica, bajo el reino del Shah Mohammed Reza Pahlevi en la década de 1970, con tecnología rusa instalada en el transcurso del último decenio. Esta concepción híbrida es otra fuente de inseguridad, según los especialistas.

El pasado 26 de febrero, Irán confirmó que estaba removiendo combustible nuclear del reactor de Bushehr, que es su única estación de energía atómica, lo que prueba la existencia de problemas en la planta inaugurada tras décadas de retrasos. Los ingenieros rusos que participaron de la construcción de la usina aconsejaron esa descarga de combustible por razones de seguridad para realizar pruebas.

No se dieron a conocer detalles sobre la naturaleza de las preocupaciones técnicas que obligaron a detener el reactor, pero una de las causas podría ser el daño causado por el virus informático Stuxnet.

En otro orden, Irán es uno de los países más expuestos al riesgo sísmico en el mundo. El incidente japonés de Fukushima reaviva la inquietud respecto del programa atómico de Teherán y los riesgos que entraña para ese país y para vecinos como Kuwait, al que sólo 300 kilómetros separan de las costas iraníes.

Infobae

Pérdidas por el sismo suben a US$ 183 mil millones

Las estimaciones del impacto económico están recién comenzando a emerger. Hiromichi Shirakawa, economista jefe de Japón en el Credit Suisse, dijo en una nota a clientes que las pérdidas oscilarían entre 171 mil y 183 mil millones de dólares sólo en la región afectada por el sismo y el tsunami.

El terremoto ha forzado a muchas firmas a suspender la producción, y las acciones de las mayores compañías japonesas se derrumbaron el lunes, con Toyota Corp. cayendo casi un 8 por ciento. La compañía de modelos de riesgo AIR Worldwide dijo que las pérdidas aseguradas por el sismo podían alcanzar los 35 mil millones de dólares.

Firmas internacionales enfrentaban interrupciones en sus actividades debido a que el sismo y el tsunami destruyeron infraestructura vital, dañaron puertos y derribaron fábricas que suministraban desde componentes de alta tecnología hasta acero. Este fue el sismo de mayor intensidad que golpea al país desde que comenzó a llevar registros hace 140 años.

Los economistas creen que la economía podría volver a sumirse en una recesión. Las acciones japonesas cerraron con una baja de más del 7,5%, eliminando 287 mil millones de dólares de la capitalización del mercado en la mayor caída desde el peor momento de la crisis financiera de 2008.

El terremoto de la semana pasada en Japón puede ser uno de los desastres más costosos de la historia.

La cifra es cercana a todas las pérdidas por catástrofes del sector durante el 2010 en el mundo y puede generar alzas de precios en el mercado de seguros tras años de caídas.

AIR dijo que el rango estimado de pérdidas estaba entre 14.500 millones de dólares y 34.600 millones. La suma se basa en un rango de 1,2 billones de yenes a 2,8 billones de yenes, con una conversión de 81,85 yenes por dólar.

La compañía advirtió de que su estimación es preliminar y que sus modelos no cuentan los efectos del tsunami que siguió al sismo ni cualquier pérdida potencial por daño nuclear.

Infobae

Facebook domina, pero ¿cuáles son las redes sociales más populares en cada país?

Durante los últimos años el avance mundial de la red social Facebook ha sido enorme. Este aumento de usuarios se ha hecho patente tras la publicación de un mapa en el que se señala el dominio de estas redes según el país.

En este se observa cómo en los dos últimos años, la red creada por Mark Zuckerberg ha quedado como la predominante a nivel mundial con más de 640 millones de usuarios por delante de otras como Qzone o VKontakte.
Como se observa en el mapa publicado en en.rian.ru y del que se hace eco hatsnew.com Facebook domina la mayoría de países del continente americano, Europa, algunos países africanos y Oceanía.
Como caso destacable está el de Brasil, que es el único país de todo América en el que el dominio no pertenece a Facebook sino a Orkut con más de 120 millones de usuarios. En este mismo continente el gran perdedor en comparación a los datos del 2009 es Hi5 que se colocaba líder en países como Perú, México ahora bajo el dominio de Facebook.
Otros casos que se escapan al liderazgo de la red de Zuckerberg son China, Rusia o Japón.
En China la red social más utilizada es Qzone con 480 millones de usuarios que le valen para colocarse como la segunda red con más usuarios a nivel mundial. En tercer y cuarto lugar aparecen Habbo y Twitter con 200 millones de usuarios.
Otros casos aislados son los de VKontakte, la red por excelencia en Rusia, Mixi en Japón o Cloob en Irán.

20minutos

Facebook Credits, Bitcoin... El dinero virtual quiere expandirse fuera de redes sociales y juegos

Uno de los mayores mercados de crecimiento en Internet se sitúa en las redes sociales como Facebook o Tuenti y juegos. A través de la compraventa de bienes virtuales las grandes empresas de la Red están haciendo caja, hasta tal punto que ya trabajan en llevar este negocio fuera de las propias redes y juegos.

Un mercado que se espera que genere más de mil millones de dólares durante 2011 en EE UU, según un estudio realizado por la consultora eMarketer que recoge y analiza Consumer esta semana, y que se basa en transacciones de bienes virtuales con dinero virtual que se consigue con dinero real y que se concentra, a día de hoy, en China o Japón con siete de cada diez de estas operaciones. Empresas como Zynga, Tencent, Playfish o Digital Chocolate, junto con las grandes de Internet como Facebook, Sony o Electronic Arts, son algunos de los principales actores en este sector.
Para comprar este dinero virtual existen varias posibilidades. La más común es el uso de dinero real que, a través de tablas de conversión ofrecidas por las diversas plataformas, se intercambia por estas otras 'monedas'. Otra, es hacer uso de las campañas promocionales que las empresas ponen a disposición del consumidor al darse de alta en una promoción de un anunciante. La gran ventaja del dinero virtual es el hecho de poder efectuar pagos sin tener que introducir datos bancarios.

Moneda P2P

Existe, incluso, Bitcoin, conocido como dinero P2P. Bitcoin, dinero P2P, una divisa creada en 2009 por Satoshi Nakamoto, que permite que no haya una autoridad central que emita o registre las transacciones, ya que éstas se realizan de forma colectiva entre los diferentes nodos que conforman Internet. Bitcoin usa claves de cifrado para asegurar la privacidad de las mismas y de sus usuarios. Para usarla, es necesario tener instalada y en ejecución en segundo plano una aplicación disponible para los sistemas operativos Windows, Mac Os X y Linux.

Facebook Credits quiere hacerse con el mercado

Facebook Credits, lanzado en 2009, será desde el 1 de julio la única moneda virtual aceptada en esta red social. Empresas como Zynga, responsable del juego FarmVille y que ha obtenido unos ingresos de 600 millones de euros en 2010, no acogieron a ésta con buenos ojos, ya que Facebook (30%), PayPal, Mastercard o Visa, se quedan con altos porcentajes de comisión en las transacciones. El próximo paso de Facebook es convertir sus Credits en un estándar de micropagos en Internet. Facebook Credits, que se usa en más del 70% de los bienes virtuales vendidos, se acepta en más de 350 aplicaciones y juegos de 150 desarrolladores diferentes.
Empresas como Tapjoy, Mochimedia, SponsorPay, TokenAds, Dealunited o SupersonicAds siguen una estrategia similar para convertir sus formas de pago mediante dinero virtual en un uso común en otras plataformas y servicios de Internet.
Por su parte, la red social española Tuenti, cuenta desde el pasado mes de agosto con su propia moneda, denominada Tuenti Créditos.

20minutos

Lanzan un teclado de PC diseñado para usar Facebook

El auge de las redes sociales puede llegar a cambiar incluso los teclados de los ordenadores. Así sucede con SNAK, un nuevo teclado específicamente diseñado para navegar en Facebook, que incorpora 19 botones con funciones exclusivas para moverse en la red social.
Además de las teclas tradicionales, SNAK despliega en sus laterales 19 botones que sirven para dar órdenes directas y precisas sobre diferentes gestiones que pueden hacerse dentro de Facebook.
Según el vídeo promocional, el teclado incluye en su parte izquierda 11 botones para consultar los mensajes, administrar peticiones de amistad, visualizar alertas, editar el perfil o volver a la página de inicio, entre otras opciones. En su parte derecha, se disponen los ocho botones restantes dedicados a tareas a envió de fotos y vídeos, o mensajería privada entre otros.
Según Robert Amato, CEO y fundador de Social Keyboards, este nuevo teclado de su empresa favorecerá "la rapidez de uso y la fiabilidad de Facebook". El precio de venta en Estados Unidos ronda los 30 dólares y su compra en España puede realizarse a través de la página oficial de la compañía Social Keyboards.

La Vanguardia

Nokia crea un portal para captar ideas sobre nuevas aplicaciones móviles

La compañía finlandesa Nokia ha puesto en marcha un portal donde los usuarios podrán exponer ideas de aplicaciones o contenidos para móviles y ponerse en contacto con personas que les ayudarán a producirlas. IdeasProject está abierto para que cualquier consumidor, desarrollador o compañía pueda presentar sus ideas.
El mercado de las aplicaciones y contenidos para móviles ha crecido a un gran ritmo en los últimos dos años. Algunos ejemplos son la App Store de Apple, que sobrepasa las 300.000 aplicaciones, y Android Market, el segundo con más contenidos, que cuenta con más de 100.000. Nokia ha comprobado que para crecer necesita nuevos contenidos y por ello está incentivando a los usuarios a que expresen sus ideas sobre nuevas aplicaciones.
IdeasProject es un espacio creado por Nokia en el que se buscan ideas novedosas. Los usuarios o desarrolladores pueden explicar sus ideas para crear un nuevo contenido en los teléfonos móviles. La página tiene rasgos de red social y permite que otros usuarios accedan a la idea, fomentando un intercambio de pareceres. La idea de Nokia es que los usuarios y desarrolladores cuenten con un espacio en el que ponerse en contacto de forma directa, explicar novedades que podrían funcionar y encontrar personas dispuestas a colaborar para llevarlas a cabo.
La página web cuenta con un sistema de clasificación de ideas por temas, entre los que se encuentran gente, negocios, desarrollos o tecnología. Para incentivar la participación, Nokia irá presentando retos o temas en torno a los cuales se espera que los usuarios vayan presentando propuestas.
El primer reto que ha lanzado Nokia tiene por objetivo encontrar "aplicaciones móviles que cambien el mundo". La compañía anima a los usuarios a presentar ideas de aplicaciones y contenidos para móviles que puedan generar "un cambio positivo en el mundo" ha explicado la compañía en el comunicado de presentación del servicio en la página Nokia Conversations. Entre las ideas presentadas, Nokia se ha comprometido a producir una que será distribuida de forma gratuita.

La Vanguardia

Bruselas exige a España que garantice frecuencias para la internet móvil

La Comisión Europea ha lanzado este lunes un ultimátum a España para que garantice que la banda de frecuencias de 900 MHz, actualmente dedicada a telefonía de segunda generación, pueda usarse también para los servicios móviles rápidos, tales como internet móvil.
El Ejecutivo comunitario considera que "la apertura de esta banda del espectro radioeléctrico a tecnologías de acceso más avanzadas como el sistema universal de telecomunicaciones móviles (UMTS) constituye un elemento importante de los esfuerzos por fomentar un despliegue más rápido y amplio de los servicios de banda ancha inalámbricos".
Los Estados miembros tenían de plazo hasta el 9 de mayo de 2010 para trasladar a sus legislaciones nacionales la directiva europea que obliga a abrir la banda de 900 MHz al internet móvil. No obstante, España todavía no ha adoptado o notificado a la Comisión sus disposiciones nacionales. Como consecuencia, a los operadores de telefonía móvil "se les puede denegar el acceso a las radiofrecuencias de la banda de 900 MHz para los servicios UMTS y a los clientes, el acceso a los servicios móviles de internet de alta velocidad", según Bruselas.
El ultimátum del Ejecutivo comunitario, que también afecta a Hungría, tiene la forma de un dictamen motivado, segunda fase de un procedimiento de infracción. Si en el plazo de dos meses las autoridades españolas no responden  a las demandas de Bruselas, el caso podría acabar ante el Tribunal de Justicia de Luxemburgo y la Comisión podría pedir la imposición de elevadas multas.
La directiva GSM modificada dispone que la banda del espectro radioeléctrico de 900 MHz se abra a otros sistemas de banda ancha avanzados, especialmente UMTS (Universal Mobile Telecommunications System - sistema universal de telecomunicaciones móviles), que sean compatibles con el uso actual de la banda GSM.
Se trata de permitir la coexistencia del sistema GSM (teléfonos móviles de segunda generación) y de los sistemas UMTS (teléfonos de tercera generación que añaden una conexión de alta velocidad a internet a los servicios telefónicos normales) en las frecuencias de 900 MHz.

La Vanguardia

Quieren reducir la velocidad de internet. ¿Por qué?

Desde hace algunos meses, cada vez más proveedores de acceso a internet están probando nuevas tecnologías que buscan dosificar cuántos datos pueden consumir sus usuarios, sin importar la velocidad máxima de conexión que hayan contratado.
Eso significa que a ciertas horas del día algunos internautas pueden notar que la velocidad de conexión cuando navegan o juegan un videojuego en la red, disminuye considerablemente.
Esta situación es particularmente notable en países como Estados Unidos o el Reino Unido en donde cada vez más hogares tienen acceso a servicios de banda ancha.
Las empresas aseguran que esto es necesario para que el desempeño de sus redes sea óptimo en el horario cuando más gente utiliza sus servicios desde casa, lo que usualmente ocurre después de las 18:00 y durante los fines de semana.
Pero los críticos aseguran que estas prácticas desembocarán en una internet de dos niveles. En un nivel algunos servicios requerirán pagar más para que sus usuarios acceden a ellos. En el otro los servicios que no desembolsen más dinero vivirán una experiencia limitada de acceso a la red.

Manejo de tráfico

La mayoría de los proveedores de servicios de internet (ISP, por sus siglas en inglés) varían la velocidad de las conexiones de banda ancha dependiendo del día o del volumen del tráfico en su red.

Las tareas que no son críticas -como descargar archivos o enviar correos electrónicos- son demoradas ligeramente para permitir que otros servicios, como la transmisión de video, se ejecuten sin problemas.
La mayoría de los analistas está de acuerdo en que se requiere un cierto nivel de manejo del tráfico.
"Ve y encuentra a alguien en los ISP que no administre su tráfico", asegura Andrew Ferguson, editor del sitio independiente Thinkbroadband.com.
"Cuando comienza la congestión un viernes por la noche, hay gente que no puede jugar en Xbox Live o PlayStation en línea, porque la latencia (la lentitud en la red) está por las nubes", dice.

Lea también: "Google, Verizon y la neutralidad de internet"

Muchos ISP han comenzado a explorar la opción de ofrecer "servicios administrados", excluyendo así del control de tráfico a sitios web y aplicaciones que están dispuestas a pagar por ello.
Sin embargo, estas acciones se han topado con la férrea oposición de los defensores de la neutralidad de la red, quienes creen que todo el tráfico en internet debe ser tratado de la misma forma.

En busca de la neutralidad

"Reconocemos que debe haber cierto manejo del tráfico en la red a fin de mantener su integridad", afirma Jeff Lynn de la Coalición por una Economía Digital en el Reino Unido.
Pero la agrupación asegura que eso es muy distinto a "desarrollar modelos de negocio en donde un proveedor le cobra dinero" a una empresa para que sea más fácil descargar sus videos que los de su competencia.
Jim Killock, director ejecutivo de Open Rights Group, una asociación británica, asegura que se encesitan "garantías significativas de los ISP no actuarán para restringir la competencia".
En Estados Unidos la Comisión Federal de Comunicaciones aprobó una legislación -que debe ser ratificada por el Congreso- para impedir que los proveedores disminuyan la velocidad de acceso a la red a ciertos servicios.

Lea también: "EE.UU, la neutralidad de internet en la mira"

La medida ha recibido críticas de quienes, por un lado, consideran que las normas no toman en cuenta que se requiere administrar el tráfico de internet y por otro, afirman que la Comisión omitió incluir a la telefonia móvil en sus reglas.
Pero los expertos creen que en Europa los gobiernos están siendo más pragmáticos, dejando que sea el mercado el que decida el futuro de la neutralidad de internet.

BBC Mundo