Buscar
2007/09/10
Nero 8 Ultra Edition por Bittorrent
Extraidos de Mininova. De frente para grabar en DVD.
Memoria Flash de 50 terabyte hecha de la proteína de un insecto
Un prototipo de memoria USB usando la proteína de un insecto para almacenar 50 terabytes de información podría ser realidad en menos de 18 meses. Esta idea comenzó cubriendo DVDs con una capa de proteína de modo que se podría guardar la información de todo un día haciendo que los disco duros de las computadoras puedan ser obsoletos, esto lo dice el Profesor V Renugopalakrishnan la Escuela Médica de Harvard Medical School en Boston mientras divulgan sus resultados en la Conferencia Internacional de Nanociencia y Nanotecnología en Brisbane.
“Esto eventualmente elimina la necesidad de los disco duros completamente,” él dice. Renugopalakrishnan menciona que los dispositivos de almacenaje de gran capacidad como los DVDs a base de una nueva proteína serán esenciales para las industrias de defensa, médicas y de entretenimiento. Éstos cambian los Terabyte de información transfiriéndola como imágenes satelitales, escaneos de imágenes y películas. “Tenemos una necesidad que obliga ha no ser resuelta con la tecnología de almacenaje magnética existente,” él dice.
Renugopalakrishnan dice que el DVD a base de la nueva proteína tendrá ventajas sobre los actuales dispositivos ópticos de almacenaje (tal como el Blue-ray). Podrá almacenar por lo menos 20 veces más que el Blue-ray e igualar eventual hasta 50.000 gigabytes (cerca de 50 Terabyte) de información, él dice. Estas membranas de proteínas se están utilizando para generar el primer sistema a base de proteínas para almacenar terabytes de información, la estrella de todo esto son los DVD de gran capacidad, estos tienen una proteína de luz-activada encontrada en la membrana de un salinarum de Halobacterium, microbio del pantano de sal. La proteína, llamada bacteriorhodopsin (Br), captura y almacena luz la del sol para convertirla en energía química.
Cuando la luz brilla en el Br, este convierte una serie de moléculas intermedias cada una con una forma y color único antes de volver a su “estado en la tierra”. Los intermedios duran generalmente para las horas o los días. Pero Renugopalakrishnan y sus colegas modificaron el DNA que produce la proteína del Br para producir un intermedio que dure para varios años, que pavimenta la manera para que un sistema binario almacene datos. “el estado en la tierra puede ser el cero y cualesquiera de los intermedios podrían ser el uno,” dice él. Los científicos también dirigieron la proteína Br para hacer intermedios más estables en altas temperaturas generadas almacenando los datos.
Renugopalakrishnan añade: fabricar grandes cantidades de información tan portátiles para dispositivos de almacenaje desprendibles hará más fácil que la información caiga en las manos incorrectas. “Desafortunadamente la ciencia puede ser usada para abusar. La información se puede robar muy rápidamente,”. “Uno debe tener algunas precauciones.” Conjuntamente con NEC en Japón, el equipo de Renugopalakrishnan ha producido un dispositivo del prototipo y estima que la memoria USB será comercializado en 12 meses y un DVD en 18 a 24 meses. El trabajo ha sido financiado por muchas ramas militares de los E.E.U.U., gobiernos, instituciones académicas y compañías comerciales, así como la Unión Europea.
Apple y la fugacidad del DRM
Me llama mucho la atención cómo Apple insiste en intentar desarrollar modelos a base de DRM, sabiendo que en realidad están abocados a su ruptura casi inmediata. En Noviembre de 2003, Jon Lech Johansen creó QTFairUse, un programa que tomaba toda la librería de iTunes, la ripeaba a una velocidad diez veces superior, y la devolvía como ficheros completamente libres de DRM a la librería y a las listas de reproducción en las que se pudiese encontrar, de manera completamente sencilla y al alcance de cualquiera. Hoy mismo, pocos días después de anunciar la disponibilidad de canciones de iTunes como tonos de llamada para el iPhone a $0.99, aparece en Digg la forma de obtener esos mismos tonos de manera completamente gratuita: algo tan simple como cambiar la extensión de AAC a M4R hace aparecer las canciones en la librería de iTunes, donde se sincronizan automáticamente con el iPhone.
La cuestión resulta curiosa si pensamos en la vocación de vendedor de hardware de Apple: si los productos basados en bits, tales como contenidos o software, le pueden ayudar a vender más dispositivos o contribuir de alguna manera al margen bruto de la compañía (iTunes, a pesar de lo que se comenta, es un negocio con beneficios), bienvenidos sean. Pero a la protección de estos contenidos se le dedica el esfuerzo justo y necesario para “tranquilizar” a los propietarios de los derechos, sean empresas discográficas o incluso la propia Apple, sabiendo que, en realidad, toda barrera está destinada a ser saltada en un breve espacio de tiempo. Una visión sin duda pragmática que contribuye al desarrollo de esa “economía de la piratería” de la que hemos hablado en otras ocasiones: si el DRM del iPod hubiese sido muy difícil de superar, y poner en él canciones de procedencias diferentes a iTunes hubiese estado sólo al alcance de ingenieros espaciales, jamás se habrían vendido la cantidad de iPods que se han vendido (y los que quedan por vender).
Los gigantes Amazon y Google apuestan al libro electrónico
Amazon, líder de venta de productos de entretenimiento en línea, y el grupo internet Google, se lanzan cada uno en el sector emergente del libro electrónico, con Amazon proponiendo un lector portátil y Google un servicio pago de descarga de libros, indicó el New York Times.
Amazon lanzará en octubre un lector electrónico negro y blanco bautizado como 'Kindle', una pantalla plana con formato de un libro, por 400 a 500 dólares (entre 290 y 362 euros), indicó el New York Times, citando fuentes cercanas a la empresa.
Podrá conectarse en forma inalámbrica a internet y descargar libros y diarios desde el sitio de Amazon.
Competirá con el lector portátil lanzado por el japonés Sony en 2004, también negro y blanco, que debe conectarse con un cable a un ordenador para descargar libros desde un sitio de Sony.
El aparato de Sony relanzó el mercado del 'e-book', cuyos primeros modelos lanzados en los años 90 habían fracasado en conquistar al público, debido a una débil autonomía, pantallas poco legibles y sobre todo falta de libros disponibles.
Por su lado, el grupo Google, que desde hace meses escanea cientos de miles de libros para crear una biblioteca electrónica mundial, lanzará un servicio pago para la descarga completa de algunos libros, compartiendo los ingresos con los editores, según el New York Times.
Ni Google ni Amazon confirmaron estas informaciones.
Otra red para el 'big bang' de Internet
En los primeros ordenadores personales de IBM de los años setenta no cabía casi ni una canción en formato MP3. Hoy un dispositivo USB del tamaño de una uña puede almacenar 2.000 canciones. Esa revolución informática está teniendo ahora una réplica en Internet, pero en un plazo muy inferior. Tan sólo 10 hogares que utilicen servicios de televisión por Internet generan más tráfico que toda la Red en 1997. El volumen de datos transportado se ha multiplicado por 34 en los últimos cinco años y ya se habla del colapso inminente de la red de redes.
"Internet es lo más importante" decía esta semana Peter Erskine, consejero delegado de O2, en el Encuentro de Telecomunicaciones que, como cada año, reúne a todo el sector en Santander de la mano de la patronal Aetic. El directivo de la filial de Telefónica recordaba que, según una encuesta, el 50% de sus clientes consideran que lo más importante en su vida (en materia tecnológica, se entiende) es Internet, frente al 22% que optan por la televisión. Y el 92% asegura que no puede salir de casa sin su móvil.
La tercera generación de Internet está a la vuelta de la esquina. La televisión, las descargas (p2p) y las llamadas redes sociales han atascado una red cuya capacidad parecía inagotable en su universo primigenio de e-mail y rudimentarias páginas web. Internet está a punto de sufrir un big bang con nuevos servicios que se han dado en llamar la web 2.0, gracias a fenómenos de masas como las denominadas redes sociales.
Los ejemplos de esta explosión son incontables. MySpace, un sitio intercambio para comunidades de amigos, tiene 197 millones de usuarios, y cada día incorpora 250.000 nuevos. El número de blogs, esa especie de diarios especializados, se multiplica por dos cada seis meses. Ahora ya hay más de 60 millones. Y en You Tube se cuelgan diariamente 65.000 vídeos.
Por eso, como aventura Julio Linares, director general de Coordinación de Telefónica, para referirse al futuro ya hay que hablar de petabytes (PB) como unidad de medida, equivalentes a mil millones de megabytes. En 2009, se estima que el volumen que transportará la Red será de 16.000 PB, siete veces más que ahora, y la velocidad media se multiplicará por cinco hasta los 50 megabits por segundo (Mbps).
A ese crecimiento de la demanda desde la propia Red, se une la explosión de la telefonía móvil que con tecnologías como el HSDPA (High Speed Downlink Packet Access, por sus siglas en inglés) que consigue velocidades de 14 Mbps. El móvil reclama su territorio. Se calcula que para 2010 el 80% del tráfico de datos se realizará por redes móviles y que la presencia ya que en 2010 el 54% de los usuarios de móviles entrarán con este dispositivo a Internet, según asegura Francisco Román, consejero delegado de Vodafone.
Por eso, las grandes operadoras de telecomunicaciones han puesto manos a la obra para sustituir los kilómetros de postes y pesados cables de cobre por modernas redes subterráneas de fibra óptica que lleguen a la sala de estar de los hogares. E inmediatamente después se ha suscitado el debate acerca de quién debe administrar una red que, ya hoy, concentra el 97% de las comunicaciones.
Los antiguos monopolios defienden que, a diferencia de lo que ocurrió en los procesos de liberalización de las telecomunicaciones a finales de los 90, en el que las redes de cobre se abrieron a los nuevos entrantes para alentar la competencia, ahora todos parten desde cero y, por tanto, el regulador no debe forzar la compartición de infraestructuras.
Telefónica lo tiene claro. "Quien quiera fibra que invierta", es su lema. Julio Linares anunció esta semana que le han pedido al Gobierno y a la Comisión del Mercado de Telecomunicaciones (CMT) mano libre en todos los territorios donde haya competidores de cable. Y en las zonas no rentables, por estar poco pobladas, plantean que sea papá Estado el que asuma las inversiones. Sus competidores, con France Telecom a la cabeza, están radicalmente en contra y exigen que se les garantice el acceso a la red y a las canalizaciones en condiciones reguladas.
El regulador no dice ni que sí ni que no, entre otras cosas, porque no se sabe muy bien quién es. La CMT, por boca de su presidente, Reinaldo Rodríguez, ampara discretamente las tesis de Telefónica de regular de forma diferente las áreas con y sin competencia. Pero tiene al gran ojo de la Comisión Europea vigilándola. Bruselas ya le dijo al regulador alemán que de "vacaciones regulatorias" para la nueva red de Deutsche Telekom, nada de nada. Y puede hacer lo mismo con el español. La solución más radical es separar la gestión de la red, siguiendo el modelo, por ejemplo, con la energía eléctrica, donde REE gestiona el transporte de alta tensión.
Telefónica tiene listos 9.000 millones de euros para su nueva red que garantice en tres años velocidades de 10 Mbps para el 80% de los hogares -ahora sólo tienen cobertura el 50%-, y está realizando pruebas en Madrid y Barcelona para ofrecer ADSL de 30 Mbps en los próximos meses. En 2010, la operadora promete que un tercio de los hogares podrá acceder a Internet a 100 megas.
En el móvil, la revolución viene de la mano de las redes HSDPA de tercera generación, que permite velocidades similares a la del ADSL. Telefónica, Vodafone y Orange confían en que a finales de este año haya un 100% de cobertura en las poblaciones con más de 2.500 habitantes dispongan.
"Cualquier cosa que pueda estar conectada y que pueda beneficiarse de estar conectada estará conectada". El trabalenguas es de Fernando Valdivieso, director general de Nortel Networks Iberia. Y quiere poner de relieve que personas y máquinas estarán más unidas que nunca. En 2010, habrá 14.000 millones de dispositivos conectados entre si, desde los propios PC hasta GPS, iPod, móviles. Eso va a hacer que las comunicaciones se tripliquen de 2006 a 2009.
En ese futuro blade runneriano, algunos como el presidente de Alcatel-Lucent Iberia, Alfredo Redondo, aventura ya la web 3.0, en la que la mitad de los usuarios se conectarán a la red en 2010 a través de un avatar, una especie de álter ego virtual.
Pero como todo cambia para seguir igual, algunos como Arturo Dopico, presidente del cableoperador gallego R, hacen hincapié en que lo importante seguirán siendo los contenidos. Y se preguntan si, como ha ocurrido hasta ahora, ganará el porno.
Grooveshark: un p2p que te paga por subir música
Cuando las redes p2p están criminalizadas y sus portales de soporte en el punto de mira de denuncias y cierres por las sociedades de autores, nos llega este servicio que repartirá beneficios con los usuarios que compartan mp3 sin DRM.
Grooveshak, un servicio desarrollado por un equipo de estudiantes universitarios, pretende convertirse en una red de recomendación musical, combinando la web con una aplicación p2p, que actualmente está en fase beta cerrada y que estará disponible para Windows, Linux y Mac OS X.
Similar al funcionamiento de otros p2p, indicaremos los directorios que queramos compartir, mostrando nuestra valoración y comentarios de las canciones para una mejor búsqueda de otros usuarios. También podrá escucharse online las canciones disponibles.
La variante es que los usuarios recibirán el 50% de los beneficios de cada descarga que estén compartiendo. Eso sí, no en metálico si no en créditos para descargar a su vez música de la red.
Sus responsables aseguran haber firmado acuerdos con sellos independientes que estarán disponibles en su p2p.
Este servicio se une a otros anunciados de distribución de música sin DRM, como el de LimeWire que ofrecerá mp3 codificados a 256 Kbps, o a la tienda de música de Amazon.
Omron anuncia un software de medición de sonrisas
La compañía especializada en sensores Omron ha creado un software "de medición de sonrisas" que hace precisamente eso, medir el nivel de felicidad de un humano, ya sea en directo o fotografía. En estos momentos no tenemos muy claras sus aplicaciones, aparte de su posible implementación en robots para detectar el estado emocional de sus propietarios (y futuros esclavos) y reaccionar acordemente. Según Omron, el sujeto a estudiar ni siquiera tiene que mirar directamente a la cámara para ser analizado, la aplicación sólo pesa 50 KB y puede funcionar sin problemas con los chips de teléfonos y PDAs. Suena bien, y tal, pero no te quejes si un día una cámara digital confirma tu peor pesadilla: tu hijo te ha salido emo.
Un juego para hacer pensar
El juego Doctor Kawashima's Brain Training logró vender más de 500.000 copias sólo en España, y más de 10 millones de copias en todo el mundo. A pesar de ello, el creador de este programa, Ryuta Kawashima es casi un desconocido.
El secreto del éxito ha sido, según los ejecutivos de la Nintendo, empresa que produce y distribuye a nivel mundial el juego, que ha conseguido atraer a un segmento de la sociedad que, tradicionalmente, no se interesa por los juegos de ordenador por considerarlos "una pérdida de tiempo". La gente de más de 30 años, que no desea jugar a algo que no les aporte nada más que diversión. Pero todo parece indicar que Brain Training ha logrado romper ese tradicional distanciamiento gracias a los "asombrosos resultados" que ofrece a quienes acepten "jugar el juego".
El hombre capaz del "milagro" de interesar a los adultos en los videojuegos nació en 1959 en Chiba City, Japón, y tras graduarse en Medicina en la Universidad de Tohoku, viajó a Suecia, donde trabajó como investigador en el prestigioso Karolinska Institutet de Estocolmo. El doctor Ryuta Kawashima es hoy un reputado especialista en neurociencias y miembro del Consejo Nacional de Japón (donde se ocupa de Lengua y Cultura) pero, sobretodo, es el autor de los libros Train your Brain y Brain Age (Entrena a tu cerebro y La Edad del Cerebro), que le han llevado a ser una celebridad en su país. El éxito de sus libros fue tal que llevó a Nintendo a realizar una versión del texto en videojuego para aplicar sus teorías. El resultado: Brain Training.
Kawashima viajó a Suiza para participar en el Congreso Mundial del Envejecimiento en la Universidad de Sankt Gallen, cerca de la frontera austriaca. Con motivo de dicha visita, concedió a EL PAÍS la que, según miembros de su equipo, es "prácticamente su primera entrevista en medios occidentales".
El programa de ejercicios se basa en la medición y estimulación de lo que él denomina "edad cerebral". Pero, ¿cuál es la diferencia entre la "edad cerebral" y el conocido como "coeficiente intelectual"? "Hay una gran diferencia entre ambos", explica el doctor Kawashima, "dado que el coeficiente intelectual, o IQ, mide a través de tests específicos la habilidad para realizar ciertas actividades intelectuales, mientras que el Brain Training sirve para el desarrollo de la capacidad intelectual y la agilidad mental".
El científico, que se expresa en japonés con la ayuda de un intérprete para "evitar confusiones y malentendidos", describe el origen de su concepto: "Mi interés era desarrollar un programa de ejercicios destinados a activar la zona del córtex pre-frontal del cerebro, y así es como nació Brain Training, gracias a un trabajo directo sobre el cálculo, la habilidad y el uso de las letras, pues yo estaba convencido que esa contribución podía mejorar la calidad de nuestra existencia cotidiana".
"Mi programa nació de la necesidad de dar una serie de respuestas concretas que dieran una aplicación a las investigaciones académicas que estábamos realizando", continúa, "dado que la pregunta esencial era: ¿cómo poner en práctica los resultados de estas investigaciones en la vida cotidiana para que beneficiaran a todo el mundo?".
Según este especialista en neurociencias, "se ha podido establecer que, a través de los ejercicios mentales que proponemos, gente anciana o que padece Alzheimer ha logrado una cierta reactivación cerebral". Según Nintendo, Brain Training no activa zonas particulares del cerebro, sino que "estimula regiones que ya utilizamos en la vida cotidiana y amplía la percepción funcional". "No hay diferencia de resultados entre hombres y mujeres o ancianos y jóvenes", asegura el científico japonés, "pero en niños debemos realizar más estudios antes de poder pronunciarnos sobre su eficacia".
Sobre el éxito planetario de su propuesta, Kawashima dice sonriendo: "Sinceramente, yo no me lo esperaba, aunque creo que abrió puertas que hasta entonces estaban cerradas". Para opinar sobre las sorpresas que nos depara el futuro de los videojuegos, deja hablar a Koichi Kawamoto, desarrollador y programador de Brain Training: "Hay muchas cosas en las que estamos trabajando, pero que no puedo comentar, somos una empresa de entretenimiento que proporciona a la gente los medios para su diversión, pero si cuento lo que estoy preparando, ya no va a sorprender a nadie (risas)".
Firefox 3 permitirá reanudar descargas entre sesiones
Como si se tratará de un gestor de descargas, Firefox 3.0 permitirá reanudar descargas entre sesiones.
Esta es una de las principales novedades añadidas en las última nightly release. Hasta ahora, con versiones anteriores a Firefox, si cerrábamos una sesión y lo reiniciábamos perdíamos todo lo que en ese momento se estaba descargando si todavía no había finalizado.Esta nueva posibilidad especialmente útil para descargas de archivos de gran tamaño que puede que no concluyamos en una única sesión.
Hay que tener en cuenta que la posibilidad de reanudar descargas depende no solo del navegador sino también de las capacidades del servidor, si este último no lo permite, el navegador tampoco lo hará.
Microsoft, contra su peor enemigo
Microsoft presenta los resultados de un estudio en el que arremete contra su producto de mayor participación de mercado: Windows XP. Comentan PC World y C|Net los resultados de un análisis desarrollado por Wipro y GCR Custom Research, y presentado por la propia Microsoft en el estilo de sus campañas “Get the facts”, en el que se presentan unas estimaciones de coste total de propiedad (TCO, Total Cost of Ownership) para Windows Vista cifradas en $3.802 anuales - incluyendo hardware, software, supervisión tecnica y costes del usuario - mientras que las mismas métricas aplicadas a Windows XP muestran $4.407, una diferencia de $605. Dicha diferencia se debería, según el estudio, a mejoras en la seguridad, ingeniería del escritorio, requerimientos de servicio, trabajo del usuario y beneficios en el uso tanto de hardware como de software. Concretamente, las principales mejoras responsables de aproximadamente un tercio del ahorro ($251) vendrían de las herramientas de diagnósticos de red, de copias de seguridad y restauración de las mismas, funciones de auto-arreglo, y desarrollo de políticas de seguridad. El restante ahorro provendría del seguimiento de las políticas propuestas por Microsoft para la optimización de las infraestructuras ($236) y del uso del MDOP (Microsoft Desktop Optimization Pack for Sfotware Assurance), que se afirma supone ahorros estimados en $118. Todas las cifras, según el estudio, provienen de estimaciones desarrolladas en función de las capacidades de Windows Vista en comparación con las de XP, ya que en el momento del estudio, a principios de este año, no se contaba con una base de usuarios suficientemente grande.
Dejando aparte las dudas más que razonables que la metodología del estudio sugiere, las razones para ofrecer las conclusiones que ofrece resultan completamente evidentes si analizamos las cifras de penetración de mercado de ambos sistemas operativos: seis meses después de su lanzamiento, la penetración de Vista en el mercado global está en torno al 6%, frente a un apabullante 80% de XP. Como se esperaba, y como ya ocurrió en ocasiones anteriores, Microsoft está siendo la peor enemiga de sí misma, y su problema principal está siendo convencer a sus propios usuarios para que actualicen sus productos. No hay más que entrar en la página de producto dedicada a Windows XP, para encontrarse con una foto a toda plana en la que se proporcionan “siete razones y media para cambiarse a Windows Vista”. Siete razones y media que por el momento, más de un 80% del mercado, simplemente, no acaba de ver…