Google ha superado a las consolas como opción de compra de videojuegos. Apple, con sus iPhone, iPad e iPod Touch, hace más de 18 meses que superó a Sony y Nintendo. Android es ahora la segunda plataforma en ingresos por descarga digital en la categoría de ocio electrónico, por delante de los dos gigantes japoneses.
El informe conjunto de la consultora IDC y la empresa especializada en aplicaciones App Annie arroja datos como que los usuarios de Android prefieren gastar el dinero en juegos antes que en aplicaciones. La mayor parte de los ingresos por juegos en Android provienen precisamente de Asia, especialmente de Japón y Corea del Sur.
No es casualidad que FIFA 14 vaya a ser gratis en móviles y tabletas. Electronic Arts ha tomado esta, a priori arriesgada, decisión con su juego estrella basándose en algo bastante lógico. Los dos juegos con mayores ingresos son teóricamente gratuitos pero con pago por complementos, mejoras o extras, Candy Crush Saga y Puzzle & Dragons. En todo caso, el jugador de estos pasatiempos se aleja mucho del perfil habitual del entusiasta de la consola.
Nintendo 3DS dobla en ingresos a la suma de Play Station Portable y Play Station Vita. Entre los cinco juegos más vendidos aparecen Animal Crossing: New Leaf, Luigi’s Mansion, Donkey Kong Country, New Super Mario Bros 2 y Tomodachi Collection. Todos ellos son exclusivos de Nintendo.
En todo caso, el parque de aparatos con el que jugar difiere mucho de una plataforma a otra. En el estudio se estima que hay 1.250 de móviles con Android y 180 millones de tabletas, frente a un parque de 200 millones de consolas portátiles.
Entre las claves para este ascenso está la facilidad de pago a través de Google Play, el escaparate de Android, como la expansión a 130 países, en 2011 llegaba solo a 30, así como que la creación de una zona dedicada a los juegos dentro del catálogo general.
Nintendo, amo y señor de las portátiles desde la creación de Gameboy a comienzos de los 90, quiere recuperar el trono. Su última apuesta, inesperada es Nintendo 2DS, una consola con doble pantalla pero sin las características bisagras que servían para cerrarse sobre sí misma. Una forma de ahorrar en la construcción del aparato. Lo mismo sucede con la visión en tres dimensiones sin necesidad de gafas, se elimina la supuesta tecnología revolucionaria para volver a las dos dimensiones de siempre solo año y medio después de estrenarlo. Este modelo de bajo coste llegará el 12 de octubre por 130 euros.
Sony, que vende dos modelos de consola para llevar, PSP y PS Vita. También intenta plantar cara al fenómeno móvil. La primera se enfoca al público infantil con un precio de 100 euros. La segunda acaba de sufrir un recorte en el precio de 50 euros. Se queda en 199 e incluye títulos. Aún así no parecen dar motivos para llevar consigo un aparato adicional además del móvil o la tableta.
Buscar
2013/08/31
Facebook evalúa añadir fotos de perfil a su base de datos de reconocimiento facial
Facebook está estudiando incorporar la mayor parte de los más de 1.000 millones de fotos de perfiles de sus usuarios a su creciente base de datos de reconocimiento facial, lo que ampliaría el alcance de la controvertida tecnología de la red social.
La posible decisión, que Facebook reveló en una propuesta actualización de su política de uso de datos, tiene como fin mejorar el rendimiento de la herramienta Tag Suggest (sugerencia de etiqueta). La herramienta usa la tecnología de reconocimiento facial para acelerar el proceso de etiquetado de amigos y conocidos que aparecen en las fotos colgadas en la red social.
Actualmente, la tecnología identifica automáticamente las caras en las fotos recién cargadas al compararlas con anteriores imágenes que los usuarios han etiquetado. Los usuarios de Facebook pueden elegir eliminar las etiquetas que los identifica en las fotos colgadas por otras personas en la red social.
Los cambios se producen en momentos en que Facebook y otras empresas de Internet están siendo analizadas por sus prácticas de privacidad, tras conocerse un programa de vigilancia electrónica del Gobierno de Estados Unidos.
Facebook, Google y otras empresas han insistido en que nunca participaron en ningún programa que dé al Gobierno acceso directo a sus servidores informáticos y que sólo facilitan información en respuesta a peticiones específicas, tras una revisión cuidadosa y cumpliendo con la ley.
La responsable de privacidad de Facebook Erin Egan dijo que añadir las fotos de perfil públicas de los miembros daría a los usuarios un mejor control de su información personal, facilitando la identificación de las fotos colgadas en las que aparecen.
"Nuestro objetivo es facilitar el etiquetado de forma que la gente sepa que hay fotos de ellos en nuestro servicio", dijo Egan.
La ejecutiva recalcó que los usuarios de Facebook que se sientan incómodos con la tecnología de reconocimiento facial pueden prescindir totalmente de la tecnología que sugiere etiquetados, en cuyo caso la foto de perfil de la persona no será incluida en la base de datos de reconocimiento facial.
La tecnología de reconocimiento facial ha sido un tema sensible para las empresas tecnológicas, y preocupa a defensores de la privacidad y funcionarios gubernamentales. Tag Suggest, la herramienta que la empresa introdujo en el 2011, no está disponible en Europa debido a las inquietudes que plantearon reguladores locales.
La red social de Google, Google+, también emplea una tecnología similar, pero requiere del consentimiento del usuario. Y ha prohibido a productores de 'software' que utilicen tecnología de reconocimiento facial en aplicaciones diseñadas para sus Google Glass.
La posible decisión, que Facebook reveló en una propuesta actualización de su política de uso de datos, tiene como fin mejorar el rendimiento de la herramienta Tag Suggest (sugerencia de etiqueta). La herramienta usa la tecnología de reconocimiento facial para acelerar el proceso de etiquetado de amigos y conocidos que aparecen en las fotos colgadas en la red social.
Actualmente, la tecnología identifica automáticamente las caras en las fotos recién cargadas al compararlas con anteriores imágenes que los usuarios han etiquetado. Los usuarios de Facebook pueden elegir eliminar las etiquetas que los identifica en las fotos colgadas por otras personas en la red social.
Los cambios se producen en momentos en que Facebook y otras empresas de Internet están siendo analizadas por sus prácticas de privacidad, tras conocerse un programa de vigilancia electrónica del Gobierno de Estados Unidos.
Facebook, Google y otras empresas han insistido en que nunca participaron en ningún programa que dé al Gobierno acceso directo a sus servidores informáticos y que sólo facilitan información en respuesta a peticiones específicas, tras una revisión cuidadosa y cumpliendo con la ley.
La responsable de privacidad de Facebook Erin Egan dijo que añadir las fotos de perfil públicas de los miembros daría a los usuarios un mejor control de su información personal, facilitando la identificación de las fotos colgadas en las que aparecen.
"Nuestro objetivo es facilitar el etiquetado de forma que la gente sepa que hay fotos de ellos en nuestro servicio", dijo Egan.
La ejecutiva recalcó que los usuarios de Facebook que se sientan incómodos con la tecnología de reconocimiento facial pueden prescindir totalmente de la tecnología que sugiere etiquetados, en cuyo caso la foto de perfil de la persona no será incluida en la base de datos de reconocimiento facial.
La tecnología de reconocimiento facial ha sido un tema sensible para las empresas tecnológicas, y preocupa a defensores de la privacidad y funcionarios gubernamentales. Tag Suggest, la herramienta que la empresa introdujo en el 2011, no está disponible en Europa debido a las inquietudes que plantearon reguladores locales.
La red social de Google, Google+, también emplea una tecnología similar, pero requiere del consentimiento del usuario. Y ha prohibido a productores de 'software' que utilicen tecnología de reconocimiento facial en aplicaciones diseñadas para sus Google Glass.
Google pone a la venta una nueva generación de Nexus 7
La compañía tecnológica Google ha puesto hoy a la venta la nueva generación de su tableta Nexus 7, cuyas principales novedades son una mayor definición de pantalla, un menor peso y que está equipada con la última versión de Android.
El portavoz de Google, Mario Jiménez, ha destacado hoy que esta nueva versión, fabricada por Asus, es más ligera y más delgada que su predecesora, incluye una cámara trasera y también tiene mayor definición.
Nexus 7 se puede comprar desde hoy en dos modelos de 16 y 32 gigas, ambos con wifi, a unos precios de 229 y 269 euros, respectivamente.
La compañía no ha dado detalles de cuándo comercializará la versión 4G/LTE del dispositivo, cuyo precio está estipulado en 349 dólares (261,4 euros, al cambio actual).
La pantalla de alta resolución tiene 1.920x1.200 píxeles, lo que convierte a la tableta en la de mayor definición del mercado en el formato de 7 pulgadas, según Jiménez.
Sus dimensiones son 114x200x8,65 milímetros, pesa 290 gramos y cuenta con dos cámaras: una trasera de 5 megapíxeles y una delantera de 1,2 megapíxeles.
Nexus 7 está dotada del sistema operativo Android 4.3, la primera tableta que lo incorpora.
Según Jiménez, algunas de las ventajas de esta versión de Android son que optimiza el rendimiento de la batería, permite la gestión de varios perfiles en un mismo dispositivo e incluye las últimas mejoras de Google Maps.
La tableta está equipada con un procesador Qualcomm de cuatro núcleos y su autonomía puede llegar a las nueve horas en el modo de visionado de vídeo en alta definición y de diez a doce en un modo de uso normal.
Además, cuenta con puerto USB, GPS, giroscopio, acelerómetro, brújula y tecnología de carga inalámbrica.
El portavoz de Google, Mario Jiménez, ha destacado hoy que esta nueva versión, fabricada por Asus, es más ligera y más delgada que su predecesora, incluye una cámara trasera y también tiene mayor definición.
Nexus 7 se puede comprar desde hoy en dos modelos de 16 y 32 gigas, ambos con wifi, a unos precios de 229 y 269 euros, respectivamente.
La compañía no ha dado detalles de cuándo comercializará la versión 4G/LTE del dispositivo, cuyo precio está estipulado en 349 dólares (261,4 euros, al cambio actual).
La pantalla de alta resolución tiene 1.920x1.200 píxeles, lo que convierte a la tableta en la de mayor definición del mercado en el formato de 7 pulgadas, según Jiménez.
Sus dimensiones son 114x200x8,65 milímetros, pesa 290 gramos y cuenta con dos cámaras: una trasera de 5 megapíxeles y una delantera de 1,2 megapíxeles.
Nexus 7 está dotada del sistema operativo Android 4.3, la primera tableta que lo incorpora.
Según Jiménez, algunas de las ventajas de esta versión de Android son que optimiza el rendimiento de la batería, permite la gestión de varios perfiles en un mismo dispositivo e incluye las últimas mejoras de Google Maps.
La tableta está equipada con un procesador Qualcomm de cuatro núcleos y su autonomía puede llegar a las nueve horas en el modo de visionado de vídeo en alta definición y de diez a doce en un modo de uso normal.
Además, cuenta con puerto USB, GPS, giroscopio, acelerómetro, brújula y tecnología de carga inalámbrica.
El cofundador de Google, Sergey Brin, y su mujer se separan
El cofundador de Google Sergey Brin se ha separado de su mujer, que es la consejera delegada de una firma de biotecnología en la que Google ha invertido millones de dólares y cuya hermana es una de las máximas directivas del buscador de Internet.
Brin y Anne Wojcicki, que se casaron en 2007, llevan separados varios meses, dijo un portavoz de la pareja. "Siguen siendo buenos amigos y socios", añadió.
El blog de tecnología AllThingsD fue el miércoles el primero en informar de que la pareja vivía separada.
Brin y Wojcicki, que tienen dos hijos y un acuerdo prematrimonial, no están separados legalmente. Susan Wojcicki, hermana de Anne, es vicepresidenta senior de Anuncios y Comercio para Google y es considerada una de las principales ejecutivas de la compañía de Internet.
La relación entre Google y las hermanas Wojcicki se remonta a los primeros días de la compañía: en 1998, la emergente compañía abrió una tienda en el garaje de Susan Wojcicki poco antes de conseguir financiación por primera vez. Google ha invertido unos 10 millones de dólares en 23andMe, firma que Anne Wojcicki cofundó en 2006 y que hace mapas de ADN y proporciona a clientes información sobre sus antepasados.
Brin y Anne Wojcicki, que se casaron en 2007, llevan separados varios meses, dijo un portavoz de la pareja. "Siguen siendo buenos amigos y socios", añadió.
El blog de tecnología AllThingsD fue el miércoles el primero en informar de que la pareja vivía separada.
Brin y Wojcicki, que tienen dos hijos y un acuerdo prematrimonial, no están separados legalmente. Susan Wojcicki, hermana de Anne, es vicepresidenta senior de Anuncios y Comercio para Google y es considerada una de las principales ejecutivas de la compañía de Internet.
La relación entre Google y las hermanas Wojcicki se remonta a los primeros días de la compañía: en 1998, la emergente compañía abrió una tienda en el garaje de Susan Wojcicki poco antes de conseguir financiación por primera vez. Google ha invertido unos 10 millones de dólares en 23andMe, firma que Anne Wojcicki cofundó en 2006 y que hace mapas de ADN y proporciona a clientes información sobre sus antepasados.
El 30% de las infecciones de 'malware' se difunden a través de pendrives
La compañía de seguridad Kaspersky Lab asegura que el 30 por ciento de las infecciones de 'malware' en ordenadores o dispositivos móviles se difunde a través de memorias USB o tarjetas SD. Por ello es necesario configurar el sistema operativo para que no se ejecuten archivos del USB, no copiar archivos ejecutables o actualizar el sistema operativo, entre otras medidas.
En la actualidad la gran mayoría de los usuarios son conscientes de las amenazas que se pueden encontrar cuando navegan por la Red a través de su dispositivo, desde emails de 'phishing' a enlaces maliciosos ocultos tras 'banners'. Navegar por Internet puede ser realmente peligroso si no se toman precauciones. Pero ¿qué sucede con las amenazas offline? Es importante recordar que los equipos no solo son vulnerables a los ciberataques. Cada vez es más común que los cibercriminales encuentren nuevas vías para atacar a sus víctimas como los dispositivos extraíbles.
Según el último informe de malware de Kaspersky Lab, el 30 por ciento de las infecciones de 'malware' se difunden a través de los USB o las tarjetas SD. Este tipo de dispositivos son utilizados con frecuencia, tanto para compartir documentos con los compañeros de trabajo como para pasar fotos a amigos y familiares. Aunque parezcan inofensivos, si caen en las manos equivocadas pueden ser peligrosos.
Un atacante puede infectar un equipo con un 'malware' que se traspasa a un USB cuando se enchufa al ordenador con la esperanza de que ese mismo dispositivo se conecte a otro equipo para seguir difundiendo el 'malware'. También se pueden utilizar para robar información directamente del ordenador o, por su tamaño tan pequeño y compacto, puede perderse o que lo roben.
Por ello desde Kaspersky recomiendan configurar el sistema operativo para que no se ejecuten los archivos del USB, mantener actualizado periódicamente el sistema operativo, no copiar en el ordenador o dispositivos archivos ejecutables y mantener los USB siempre controlados y que provengan de fuentes de confianza.
En la actualidad la gran mayoría de los usuarios son conscientes de las amenazas que se pueden encontrar cuando navegan por la Red a través de su dispositivo, desde emails de 'phishing' a enlaces maliciosos ocultos tras 'banners'. Navegar por Internet puede ser realmente peligroso si no se toman precauciones. Pero ¿qué sucede con las amenazas offline? Es importante recordar que los equipos no solo son vulnerables a los ciberataques. Cada vez es más común que los cibercriminales encuentren nuevas vías para atacar a sus víctimas como los dispositivos extraíbles.
Según el último informe de malware de Kaspersky Lab, el 30 por ciento de las infecciones de 'malware' se difunden a través de los USB o las tarjetas SD. Este tipo de dispositivos son utilizados con frecuencia, tanto para compartir documentos con los compañeros de trabajo como para pasar fotos a amigos y familiares. Aunque parezcan inofensivos, si caen en las manos equivocadas pueden ser peligrosos.
Un atacante puede infectar un equipo con un 'malware' que se traspasa a un USB cuando se enchufa al ordenador con la esperanza de que ese mismo dispositivo se conecte a otro equipo para seguir difundiendo el 'malware'. También se pueden utilizar para robar información directamente del ordenador o, por su tamaño tan pequeño y compacto, puede perderse o que lo roben.
Por ello desde Kaspersky recomiendan configurar el sistema operativo para que no se ejecuten los archivos del USB, mantener actualizado periódicamente el sistema operativo, no copiar en el ordenador o dispositivos archivos ejecutables y mantener los USB siempre controlados y que provengan de fuentes de confianza.
Twitter suma más cambios para mostrar las conversaciones de los usuarios
Con más de 200 millones de usuarios activos que generan más de 400 millones de publicaciones de forma diaria, el seguimiento de las conversaciones en Twitter se volvía, para algunos usuarios, en una tarea algo vertiginosa. Es por eso que la compañía decidió realizar un cambio que permite mejorar la visualización de las repercusiones de una publicación y las opiniones que tienen los miembros del servicio sobre un tema.
Los cambios se podrán ver en las aplicaciones oficiales de Twitter para dispositivos iOS de Apple y para los teléfonos y tabletas con Android, además de la versión web Twitter.com (una llegada saludada como "las rayitas" por muchos usuarios). "Como se puede ver, los tuits que forman parte de una conversación se muestran de forma cronológica en el timeline , incluso de aquellas personas que no sigues", explica la compañía en un comunicado publicado en el blog oficial de la compañía.
Asimismo, Twitter puso a disposición un botón especial para reportar de forma individual una publicación abusiva de forma directa desde la versión web o desde la aplicación oficial para dispositivos con Android. Esta función también estará disponible en la versión iOS.
Dentro de estos cambios también se anunció que la versión oficial de Twitter para Android estará optimizada para aquellos dispositivos con especificaciones modestas, tales como los modelos Samsung Galaxy Y, en donde la aplicación tendrá un funcionamiento más rápido y ocupará menos espacio en memoria.
Los cambios se podrán ver en las aplicaciones oficiales de Twitter para dispositivos iOS de Apple y para los teléfonos y tabletas con Android, además de la versión web Twitter.com (una llegada saludada como "las rayitas" por muchos usuarios). "Como se puede ver, los tuits que forman parte de una conversación se muestran de forma cronológica en el timeline , incluso de aquellas personas que no sigues", explica la compañía en un comunicado publicado en el blog oficial de la compañía.
Asimismo, Twitter puso a disposición un botón especial para reportar de forma individual una publicación abusiva de forma directa desde la versión web o desde la aplicación oficial para dispositivos con Android. Esta función también estará disponible en la versión iOS.
Dentro de estos cambios también se anunció que la versión oficial de Twitter para Android estará optimizada para aquellos dispositivos con especificaciones modestas, tales como los modelos Samsung Galaxy Y, en donde la aplicación tendrá un funcionamiento más rápido y ocupará menos espacio en memoria.
Skype: de aquella llamada de 2003 a las futuras videollamadas en tres dimensiones
Skype celebra su décimo aniversario con 300 millones de usuarios activos y conversaciones por un equivalente a 2.600 millones de años, una década en la que, en soledad o en el seno de grandes compañías, ha sabido adaptarse con éxito a un cambio integral de la comunicación y la tecnología.
En abril de 2003 se hizo la primera llamada por Skype desde un ordenador personal en Estonia, pero no fue hasta el 29 de agosto de ese año cuando se puso en marcha la primera versión beta de este servicio de voz sobre IP.
En diez años la audiencia de la red se ha multiplicado, ha emergido, imparable, el internet móvil, han nacido y caído líderes tecnológicos y las comunicaciones ocupan un lugar prominente en la sociedad. Skype ha sobrevivido a los bandazos de la industria, a los cambios bruscos que han impuesto nuevas formas de interrelación personal y no son muchas las compañías que puedan decir lo mismo.
"Creo que hace diez años nadie era capaz de imaginar cómo evolucionaría el mercado y, con él, Skype", ha explicado en una entrevista esta semana el director de desarrollo de Skype para América Latina, Alejandro Arnaiz.
El directivo ha indicado que el éxito de Skype reside en que fue pionero en las videollamadas a gran escala y en las videollamadas en alta definición y en que ha intentado estar siempre presente en las distintos dispositivos (ordenador, televisión, tabletas, teléfonos) y sistemas operativos.
En días pico concurren 50 millones de usuarios en el servicio, cuya funcionalidad más utilizada es la videollamada. Sin duda, la decisión de estar presente en dispositivos móviles ha sido una de las claves de su supervivencia.
Skype es una de las aplicaciones más descargadas en teléfonos inteligentes y tabletas y cada mes el 50 % de los nuevos usuarios del servicio son móviles.
Arnaiz ha apuntado que mes a mes la tasa de crecimiento de los usuarios que utilizan Skype con el móvil o la tableta se duplica con respecto al mismo periodo del año anterior.
Muchos compañeros de viaje
La historia de Skype, fundada por Niklas Zennström y Janus Friis en Estonia, ha estado repleta de compañeros de viaje.
En 2005 la compró eBay por 2.600 millones de dólares (1.960 millones de euros), en 2009 el 70% de la compañía pasó a manos de inversores privados y en mayo de 2011 Microsoft anunció que la adquiría por 8.500 millones de dólares (6.408 millones de dólares), con el objetivo de posicionarse en las comunicaciones en línea, un ámbito en el que estaba perdiendo fuelle.
Su nueva posición como una división de negocio en Microsoft ha provocado la integración del servicio en Windows 8 y Windows Phone 8, la sinergia con Outlook y la migración del servicio de mensajería Messenger a Skype.
En este sentido, Arnáiz ha reconocido que habrá más procesos de integración.
Durante mucho tiempo hablar de voz sobre IP casi equivalía a hablar de Skype, aunque el auge de las comunicaciones móviles ha hecho que actores tan diferentes como Google, Apple, Line, Viber o Whatsapp se hayan posicionado como sus competidores.
¿En qué novedades trabaja Skype?
En ese contexto, Arnaiz ha asegurado que la compañía sigue buscando "nuevas maneras que permitan a la gente estar en contacto". Entre otras líneas de investigación, se han hecho pruebas con videollamadas en tres dimensiones.
El vicepresidente corporativo de Microsoft para Skype, Mark Gillett, explicaba en una entrevista a la BBC que, pese a los tests, aún queda mucho tiempo para que una tecnología de este cariz se pueda implantar.
Escándalo de espionaje
Aunque Skype se ha mantenido firme en un ecosistema cambiante, no todo ha sido un camino de rosas.
Hace poco su nombre se vio salpicado por el escándalo de espionaje destapado por el ex técnico de la CIA Edward Snowden: según éste, la Agencia de Seguridad Nacional de Estados Unidos accedía a información alojada en sus servidores.
Sin embargo, Arnaiz ha afirmado que Skype no se arrepiente de nada de lo que ha hecho en sus diez años de historia.
En abril de 2003 se hizo la primera llamada por Skype desde un ordenador personal en Estonia, pero no fue hasta el 29 de agosto de ese año cuando se puso en marcha la primera versión beta de este servicio de voz sobre IP.
En diez años la audiencia de la red se ha multiplicado, ha emergido, imparable, el internet móvil, han nacido y caído líderes tecnológicos y las comunicaciones ocupan un lugar prominente en la sociedad. Skype ha sobrevivido a los bandazos de la industria, a los cambios bruscos que han impuesto nuevas formas de interrelación personal y no son muchas las compañías que puedan decir lo mismo.
"Creo que hace diez años nadie era capaz de imaginar cómo evolucionaría el mercado y, con él, Skype", ha explicado en una entrevista esta semana el director de desarrollo de Skype para América Latina, Alejandro Arnaiz.
El directivo ha indicado que el éxito de Skype reside en que fue pionero en las videollamadas a gran escala y en las videollamadas en alta definición y en que ha intentado estar siempre presente en las distintos dispositivos (ordenador, televisión, tabletas, teléfonos) y sistemas operativos.
En días pico concurren 50 millones de usuarios en el servicio, cuya funcionalidad más utilizada es la videollamada. Sin duda, la decisión de estar presente en dispositivos móviles ha sido una de las claves de su supervivencia.
Skype es una de las aplicaciones más descargadas en teléfonos inteligentes y tabletas y cada mes el 50 % de los nuevos usuarios del servicio son móviles.
Arnaiz ha apuntado que mes a mes la tasa de crecimiento de los usuarios que utilizan Skype con el móvil o la tableta se duplica con respecto al mismo periodo del año anterior.
Muchos compañeros de viaje
La historia de Skype, fundada por Niklas Zennström y Janus Friis en Estonia, ha estado repleta de compañeros de viaje.
En 2005 la compró eBay por 2.600 millones de dólares (1.960 millones de euros), en 2009 el 70% de la compañía pasó a manos de inversores privados y en mayo de 2011 Microsoft anunció que la adquiría por 8.500 millones de dólares (6.408 millones de dólares), con el objetivo de posicionarse en las comunicaciones en línea, un ámbito en el que estaba perdiendo fuelle.
Su nueva posición como una división de negocio en Microsoft ha provocado la integración del servicio en Windows 8 y Windows Phone 8, la sinergia con Outlook y la migración del servicio de mensajería Messenger a Skype.
En este sentido, Arnáiz ha reconocido que habrá más procesos de integración.
Durante mucho tiempo hablar de voz sobre IP casi equivalía a hablar de Skype, aunque el auge de las comunicaciones móviles ha hecho que actores tan diferentes como Google, Apple, Line, Viber o Whatsapp se hayan posicionado como sus competidores.
¿En qué novedades trabaja Skype?
En ese contexto, Arnaiz ha asegurado que la compañía sigue buscando "nuevas maneras que permitan a la gente estar en contacto". Entre otras líneas de investigación, se han hecho pruebas con videollamadas en tres dimensiones.
El vicepresidente corporativo de Microsoft para Skype, Mark Gillett, explicaba en una entrevista a la BBC que, pese a los tests, aún queda mucho tiempo para que una tecnología de este cariz se pueda implantar.
Escándalo de espionaje
Aunque Skype se ha mantenido firme en un ecosistema cambiante, no todo ha sido un camino de rosas.
Hace poco su nombre se vio salpicado por el escándalo de espionaje destapado por el ex técnico de la CIA Edward Snowden: según éste, la Agencia de Seguridad Nacional de Estados Unidos accedía a información alojada en sus servidores.
Sin embargo, Arnaiz ha afirmado que Skype no se arrepiente de nada de lo que ha hecho en sus diez años de historia.
Científicos crean microcerebros humanos del tamaño de un guisante
Un equipo de científicos europeos ha desarrollado pequeños cerebros humanos tridimensionales, de cuatro milímetros de diámetro, del tamaño de un guisante, a partir de células madre pluripotentes que ayudarán a profundizar en el estudio de las enfermedades neurológicas, informó este miércoles la revista científica Nature.
Estos órganos artificiales, fruto de una investigación conjunta de la Universidad de Bonn (Alemania) y el Instituto de Biotecnología Molecular de Viena (Austria), aportan importantes avances sobre el desarrollo del cerebro durante las etapas más tempranas y sus patologías.
La complejidad del cerebro humano ha impedido avanzar más en el estudio de las enfermedades neurológicas, por lo que era "necesario un sistema celular que simulara las complejas características de este órgano para estudiarlo en profundidad", explicó a los medios el alemán Juergen Knoblich, jefe del proyecto.
"Este planteamiento puede superar algunas de las limitaciones que encontramos cuando experimentamos con el cerebro de los animales, ya que no comparte las mismas peculiaridades del cerebro humano", añadió el científico. Estos microcerebros, que incluyen la corteza cerebral que cubre los dos hemisferios, están formados por diferentes tejidos dispuestos en capas, cuya organización guarda muchas semejanzas con la de un cerebro en sus etapas más tempranas de desarrollo.
Para demostrar la utilidad de este sistema celular, los científicos analizaron las diferentes enfermedades neurológicas que tienen lugar cuando el cerebro se encuentra en pleno desarrollo, como la microcefalia. Este trastorno neurológico, que carece de un tratamiento para revertir sus síntomas, provoca que el tamaño de la cabeza de las personas afectadas sea considerablemente menor al que debería tener en relación con su edad y sexo.
A partir de células madre pluripotentes, el equipo de investigadores añadió al sistema inicial una serie de células procedentes de pacientes que padecían microcefalia para obtener un cerebro característico de una persona con esta enfermedad. Los científicos encontraron así que en los cerebros con esta dolencia las células precursoras de las neuronas dejaban de proliferar demasiado pronto, un defecto que podría explicar algunas de las causas de la microcealia.
"Este fenómeno no tiene lugar de la misma forma cuando experimentamos con ratones, ya que ningún animal presenta la misma expansión neuronal que el ser humano", concluyó Knoblich. Estos pequeños órganos artificiales no presentan las mismas funciones mentales que un cerebro humano corriente, si bien el grupo de científicos no descarta progresar en esa línea, así como profundizar en otro tipo de enfermedades neurológicas.
Estos órganos artificiales, fruto de una investigación conjunta de la Universidad de Bonn (Alemania) y el Instituto de Biotecnología Molecular de Viena (Austria), aportan importantes avances sobre el desarrollo del cerebro durante las etapas más tempranas y sus patologías.
La complejidad del cerebro humano ha impedido avanzar más en el estudio de las enfermedades neurológicas, por lo que era "necesario un sistema celular que simulara las complejas características de este órgano para estudiarlo en profundidad", explicó a los medios el alemán Juergen Knoblich, jefe del proyecto.
"Este planteamiento puede superar algunas de las limitaciones que encontramos cuando experimentamos con el cerebro de los animales, ya que no comparte las mismas peculiaridades del cerebro humano", añadió el científico. Estos microcerebros, que incluyen la corteza cerebral que cubre los dos hemisferios, están formados por diferentes tejidos dispuestos en capas, cuya organización guarda muchas semejanzas con la de un cerebro en sus etapas más tempranas de desarrollo.
Para demostrar la utilidad de este sistema celular, los científicos analizaron las diferentes enfermedades neurológicas que tienen lugar cuando el cerebro se encuentra en pleno desarrollo, como la microcefalia. Este trastorno neurológico, que carece de un tratamiento para revertir sus síntomas, provoca que el tamaño de la cabeza de las personas afectadas sea considerablemente menor al que debería tener en relación con su edad y sexo.
A partir de células madre pluripotentes, el equipo de investigadores añadió al sistema inicial una serie de células procedentes de pacientes que padecían microcefalia para obtener un cerebro característico de una persona con esta enfermedad. Los científicos encontraron así que en los cerebros con esta dolencia las células precursoras de las neuronas dejaban de proliferar demasiado pronto, un defecto que podría explicar algunas de las causas de la microcealia.
"Este fenómeno no tiene lugar de la misma forma cuando experimentamos con ratones, ya que ningún animal presenta la misma expansión neuronal que el ser humano", concluyó Knoblich. Estos pequeños órganos artificiales no presentan las mismas funciones mentales que un cerebro humano corriente, si bien el grupo de científicos no descarta progresar en esa línea, así como profundizar en otro tipo de enfermedades neurológicas.
Twitter y el Times, con problemas por un ataque cibernético
La red social Twitter sigue hoy con problemas por el ataque cibernético de este martes atribuido al grupo "Ejército Electrónico Sirio" (SEA), que también provocó la interrupción del servicio del diario The New York Times, informó el portal especializado CNET.
Las imágenes y algunas fotografías de identificación de los usuarios de Twitter siguen sin poder desplegarse horas después de que su registro DNS (sistema de nombre de dominio) sufriera un ataque malicioso, sostiene el portal.
Se trata de imágenes que no se pueden ver a través de la web o aplicaciones de Twitter porque el lugar donde están almacenadas, el dominio twimg.com, fue alterado por el ataque del grupo.
El ataque se llevó a cabo contra un registro público australiano, Melbourne IT, que confirmó por su parte haber sido la causa de los fallos.
El grupo SEA adquirió la información de acceso del nombre de usuario y contraseña a través del "phishing", una práctica fraudulenta que consiste en conseguir claves personales a través de la suplantación de la identidad de entidades y organizaciones en correos electrónicos, según el portal especializado.
Con esa información, los piratas informáticos pudieron cambiar los detalles de registro de Twitter y del NYT de forma que se dirigieran a servidores de su propia elección.
"A las 20.49 UTC, nuestro proveedor DNS experimentó un problema por el que los registros de varias organizaciones fueron modificados, incluido uno de los dominios que usa Twitter para albergar imágenes, twimg.com", explicó la propia red social.
"La visión de las imágenes y fotos fue impactada esporádicamente", agregó.
La empresa especificó que ningún tipo de información de sus usuarios se vio afectada por el incidente.
No obstante, el restablecimiento de la información a través de otro servidor DNS puede tardar más de un día en volver a su correcto funcionamiento.
En el momento del ataque, el registro de Twitter mostraba que el propietario del dominio era sea@sea.sy, aunque la web siguió funcionando.
El grupo de piratas informáticos SEA surgió en mayo de 2011 y es partidario del presidente sirio, Bachar al Asad.
En el pasado interrumpió los servicios en internet de medios de comunicación como el Financial Times, The Washington Post, AP e intentó hacerlo también con la página web de la cadena por cable CNN.
Las imágenes y algunas fotografías de identificación de los usuarios de Twitter siguen sin poder desplegarse horas después de que su registro DNS (sistema de nombre de dominio) sufriera un ataque malicioso, sostiene el portal.
Se trata de imágenes que no se pueden ver a través de la web o aplicaciones de Twitter porque el lugar donde están almacenadas, el dominio twimg.com, fue alterado por el ataque del grupo.
El ataque se llevó a cabo contra un registro público australiano, Melbourne IT, que confirmó por su parte haber sido la causa de los fallos.
El grupo SEA adquirió la información de acceso del nombre de usuario y contraseña a través del "phishing", una práctica fraudulenta que consiste en conseguir claves personales a través de la suplantación de la identidad de entidades y organizaciones en correos electrónicos, según el portal especializado.
Con esa información, los piratas informáticos pudieron cambiar los detalles de registro de Twitter y del NYT de forma que se dirigieran a servidores de su propia elección.
"A las 20.49 UTC, nuestro proveedor DNS experimentó un problema por el que los registros de varias organizaciones fueron modificados, incluido uno de los dominios que usa Twitter para albergar imágenes, twimg.com", explicó la propia red social.
"La visión de las imágenes y fotos fue impactada esporádicamente", agregó.
La empresa especificó que ningún tipo de información de sus usuarios se vio afectada por el incidente.
No obstante, el restablecimiento de la información a través de otro servidor DNS puede tardar más de un día en volver a su correcto funcionamiento.
En el momento del ataque, el registro de Twitter mostraba que el propietario del dominio era sea@sea.sy, aunque la web siguió funcionando.
El grupo de piratas informáticos SEA surgió en mayo de 2011 y es partidario del presidente sirio, Bachar al Asad.
En el pasado interrumpió los servicios en internet de medios de comunicación como el Financial Times, The Washington Post, AP e intentó hacerlo también con la página web de la cadena por cable CNN.
La realidad aumentada crea beneficios y oportunidades al comercio electrónico
La realidad aumentada se asienta y el comercio electrónico y la publicidad han comenzado a estudiar sus beneficios.
Esta tecnología puede generar un valor añadido al creciente sector del comercio móvil.
La interacción con el entorno, la búsqueda de información a través de la imagen y la creación de contenidos podrían permitir al usuario gestionar procesos, realizar compras e incluso ver el trailer de una película desde el cartel de la parada del autobús para después comprar la entrada.
"La nueva tendencia en realidad aumentada está enfocada a nuevas aplicaciones móviles cada vez más funcionales que no sólo crean experiencias para el usuario sino que le aportan soluciones y posibilidades ilimitadas y, al mismo tiempo, generan nuevas líneas de ingresos para las empresas", explicaron desde Realmore, empresa especializada en tecnología 3D, al diario español ABC.
El dispositivo Google Glass, que verá la luz el próximo año, es un ejemplo de interacción entre realidad aumentada y contenido.
La relación entre esta tecnología y el comercio móvil también gana terreno entre las grandes marcas de consumo.
Ejemplos: la posibilidad de adquirir un producto, ya sea desde el supermercado o desde la heladera y descubrir una serie de recetas o analizar el maridaje perfecto para el vino.
"Las empresas que entienden el valor de la venta en línea apuestan cada vez más por esta tecnología del mismo modo que existen soluciones de asistente de compras que permiten al usuario probarse productos como relojes, gafas de sol y ropa de manera virtual, consiguiendo una experiencia para el usuario traducida en ventas posteriores y en información relevante para los departamentos de marqueting, ya que permite generar bases de datos, saber cuantas interacciones ha hecho el usuario con el producto e incluso cuantas veces a sido compartido en redes sociales", añadieron desde Realmore.
Esta tecnología puede generar un valor añadido al creciente sector del comercio móvil.
La interacción con el entorno, la búsqueda de información a través de la imagen y la creación de contenidos podrían permitir al usuario gestionar procesos, realizar compras e incluso ver el trailer de una película desde el cartel de la parada del autobús para después comprar la entrada.
"La nueva tendencia en realidad aumentada está enfocada a nuevas aplicaciones móviles cada vez más funcionales que no sólo crean experiencias para el usuario sino que le aportan soluciones y posibilidades ilimitadas y, al mismo tiempo, generan nuevas líneas de ingresos para las empresas", explicaron desde Realmore, empresa especializada en tecnología 3D, al diario español ABC.
El dispositivo Google Glass, que verá la luz el próximo año, es un ejemplo de interacción entre realidad aumentada y contenido.
La relación entre esta tecnología y el comercio móvil también gana terreno entre las grandes marcas de consumo.
Ejemplos: la posibilidad de adquirir un producto, ya sea desde el supermercado o desde la heladera y descubrir una serie de recetas o analizar el maridaje perfecto para el vino.
"Las empresas que entienden el valor de la venta en línea apuestan cada vez más por esta tecnología del mismo modo que existen soluciones de asistente de compras que permiten al usuario probarse productos como relojes, gafas de sol y ropa de manera virtual, consiguiendo una experiencia para el usuario traducida en ventas posteriores y en información relevante para los departamentos de marqueting, ya que permite generar bases de datos, saber cuantas interacciones ha hecho el usuario con el producto e incluso cuantas veces a sido compartido en redes sociales", añadieron desde Realmore.
El spam en Facebook, un “negocio” de más de 200 millones de dólares
De los buzones de los portales de nuestras casas pasó a las carpetas de entrada de nuestros emails, y de ahí a nuestros perfiles en las redes sociales. El spam, el correo/mensajes/invitaciones no deseados es un negocio que mueve miles de millones de comunicaciones con la intención de obtener unos ingresos que se han estimado en torno a los 200 millones de dólares anuales.
La mayor red social del mundo, Facebook, con más de mil millones de usuarios, es un excelente campo abonado para que los spammers intenten hacer su agosto, la mayoría de las ocasiones a través de la publicación de enlaces que redirigen el tráfico a páginas web externas en las que poder aprovechar la circunstancia para cometer algún fraude o cybertimo que acabe con el dinero del internauta en bolsillos ajenos.
Un grupo de investigadores italianos pertenecientes a un grupo de seguridad en la Red han investigado centenares de miles de publicaciones de este tipo en Facebook y la conclusión a la que han llegado es a que se puede cuantificar en unos 200 millones de dólares anuales el dinero que se obtiene por estas vías. El método es crear páginas de Facebook con contenidos que resulten atractivos a muchos usuarios para animarles a continuar la navegación en las páginas externas a las que enlazan.
Uno de los integrantes del equipo explica que los autores de los textos de estas páginas cobran entre $13 y $58 por publicación de un contenido en páginas de Facebook que alcanzan los 30.000 fans. Uno de los spammers comunicó a los investigadores de este grupo que Facebook no les clausura las cuentas porque generan contenido que produce tráfico en la red social, que es lo que persiguen los chicos de Zuckerberg, aduciendo que sin las páginas llenas de fans Facebook sería un lugar vacío.
En una suerte de pescadilla que se muerde la cola, añadir contenidos que interesan a los usuarios de Facebook, que además lo recomiendan con sus “me gusta” alimenta por igual el tráfico en la red social y redirige a muchos de esos usuarios hacia las redes del spam y las páginas con contenidos que persiguen hacerse con el dinero de dichos internautas.
Por su parte Facebook afirma haber desarrollado diversos sistemas automatizados para detectar e identificar este tipo de contenido potencialmente dañino para los usuarios y además dicen defender una política de tolerancia cero con los spammers, aunque lo cierto es que no resulta difícil encontrar cada día en nuestro muro alguna publicación de esta naturaleza, con lo que no parece que los estén atajando con tanta severidad.
La mayor red social del mundo, Facebook, con más de mil millones de usuarios, es un excelente campo abonado para que los spammers intenten hacer su agosto, la mayoría de las ocasiones a través de la publicación de enlaces que redirigen el tráfico a páginas web externas en las que poder aprovechar la circunstancia para cometer algún fraude o cybertimo que acabe con el dinero del internauta en bolsillos ajenos.
Un grupo de investigadores italianos pertenecientes a un grupo de seguridad en la Red han investigado centenares de miles de publicaciones de este tipo en Facebook y la conclusión a la que han llegado es a que se puede cuantificar en unos 200 millones de dólares anuales el dinero que se obtiene por estas vías. El método es crear páginas de Facebook con contenidos que resulten atractivos a muchos usuarios para animarles a continuar la navegación en las páginas externas a las que enlazan.
Uno de los integrantes del equipo explica que los autores de los textos de estas páginas cobran entre $13 y $58 por publicación de un contenido en páginas de Facebook que alcanzan los 30.000 fans. Uno de los spammers comunicó a los investigadores de este grupo que Facebook no les clausura las cuentas porque generan contenido que produce tráfico en la red social, que es lo que persiguen los chicos de Zuckerberg, aduciendo que sin las páginas llenas de fans Facebook sería un lugar vacío.
En una suerte de pescadilla que se muerde la cola, añadir contenidos que interesan a los usuarios de Facebook, que además lo recomiendan con sus “me gusta” alimenta por igual el tráfico en la red social y redirige a muchos de esos usuarios hacia las redes del spam y las páginas con contenidos que persiguen hacerse con el dinero de dichos internautas.
Por su parte Facebook afirma haber desarrollado diversos sistemas automatizados para detectar e identificar este tipo de contenido potencialmente dañino para los usuarios y además dicen defender una política de tolerancia cero con los spammers, aunque lo cierto es que no resulta difícil encontrar cada día en nuestro muro alguna publicación de esta naturaleza, con lo que no parece que los estén atajando con tanta severidad.
Google se queda el 33% del total del gasto de publicidad online
El gasto de publicidad online alcanzará los 117.600 millones de dólares en el presente año, según datos de eMarketer. En 2011 generó 86.400 millones de dólares.
El ganador de esta explosión será sin duda Google, que aglutinará el tercio del total del gasto, 38.600 millones de dólares hasta finales de año. Le siguen a mucha distancia Facebook (6.400 millones de dólares), Yahoo! (3.500 millones de dólares) y Microsoft (2.900 millones de dólares).
En definitiva, el negocio de publicidad online de Google generará 6 veces más de dinero que el –alabado- negocio publicitario de Facebook. Comparado con Amazon, los de Mounatin View multiplicarán por 48 los ingresos por esta vía.
A pesar de la gran distancia que separa a ambas, el negocio global de publicidad digital de Amazon ha crecido un 37,7% con respecto al año pasado.
El próspero mercado de publicidad móvil generará 16.650 millones de dólares del total, según los datos que hace públicos la consultora.
En cuanto a publicidad móvil, Google aglutina el 53,17% del mercado, seguido de un poderoso Facebook con un 15,80%. La red social ha experimentado un gran crecimiento en el último año; en 2012 el porcentaje en el mercado de publicidad móvil fue del 5,35%. En 2011 la red social no ofrecía anuncios móviles.
El ganador de esta explosión será sin duda Google, que aglutinará el tercio del total del gasto, 38.600 millones de dólares hasta finales de año. Le siguen a mucha distancia Facebook (6.400 millones de dólares), Yahoo! (3.500 millones de dólares) y Microsoft (2.900 millones de dólares).
En definitiva, el negocio de publicidad online de Google generará 6 veces más de dinero que el –alabado- negocio publicitario de Facebook. Comparado con Amazon, los de Mounatin View multiplicarán por 48 los ingresos por esta vía.
A pesar de la gran distancia que separa a ambas, el negocio global de publicidad digital de Amazon ha crecido un 37,7% con respecto al año pasado.
El próspero mercado de publicidad móvil generará 16.650 millones de dólares del total, según los datos que hace públicos la consultora.
En cuanto a publicidad móvil, Google aglutina el 53,17% del mercado, seguido de un poderoso Facebook con un 15,80%. La red social ha experimentado un gran crecimiento en el último año; en 2012 el porcentaje en el mercado de publicidad móvil fue del 5,35%. En 2011 la red social no ofrecía anuncios móviles.
Google pierde a uno de sus ejecutivos de Android… que se va a China
Hugo Barra era una de las caras visibles de Google en todo lo que se refería a Android: habitual en eventos de prensa y en keynotes de la compañía (fue, por ejemplo, quien presentó el nuevo Nexus 7), era el vicepresidente de gestión de producto para Android. Pero acaba de presentar su carta de dimisión: Hugo Barra deja Google y se va a Xiaomi, una compañía china fabricante de teléfonos que está creciendo bastante rápido.
En una carta que envió ayer a sus colegas en Google para anunciar y explicar su marcha, Hugo Barra confirmaba que se iba a unir al equipo de Xiaomi en China “para ayudarles a expandir su increíble porfolio de productos y negocios de forma global“. Además, como Xiaomi fabrica teléfonos que funcionan con Android, Barra podrá seguir trabajando dentro del ecosistema del sistema operativo móvil que tan bien conoce. En la carta, asegura que le apetece “empezar un nuevo capítulo” en su carrera.
No obstante, las razones reales detrás de la marcha de Hugo Barra de Google podrían ser bastante distintas a esas simples ganas de introducir un cambio en su vida y apuntar a un culebrón con forma de cuadrado amoroso. Según varias fuentes consultadas por All Things Digital, la dimisión de Hugo Barra llega tras una situación personal algo tormentosa y el final de su relación con otra empleada de Google.
Para hacer las cosas todavía más incómodas, la ex pareja de Barra estaría en la actualidad saliendo con Sergey Brin, cofundador de Google (y el gran impulsor de Google Glass), quien se habría separado recientemente también de su mujer. Eso sí, otras fuentes han dicho que Hugo Barra decidió dejar la compañía antes de saber con quién estaba su ex pareja.
La marcha de Hugo Barra, culebrones personales aparte, se une a la de Andy Rubin a principios de este año, quien renunció a su puesto también de forma bastante brusca. La pérdida de dos de los grandes nombres de Android en tan poco tiempo podría poner a la división, una de las más importantes de Google, en dificultades organizativas.
En una carta que envió ayer a sus colegas en Google para anunciar y explicar su marcha, Hugo Barra confirmaba que se iba a unir al equipo de Xiaomi en China “para ayudarles a expandir su increíble porfolio de productos y negocios de forma global“. Además, como Xiaomi fabrica teléfonos que funcionan con Android, Barra podrá seguir trabajando dentro del ecosistema del sistema operativo móvil que tan bien conoce. En la carta, asegura que le apetece “empezar un nuevo capítulo” en su carrera.
No obstante, las razones reales detrás de la marcha de Hugo Barra de Google podrían ser bastante distintas a esas simples ganas de introducir un cambio en su vida y apuntar a un culebrón con forma de cuadrado amoroso. Según varias fuentes consultadas por All Things Digital, la dimisión de Hugo Barra llega tras una situación personal algo tormentosa y el final de su relación con otra empleada de Google.
Para hacer las cosas todavía más incómodas, la ex pareja de Barra estaría en la actualidad saliendo con Sergey Brin, cofundador de Google (y el gran impulsor de Google Glass), quien se habría separado recientemente también de su mujer. Eso sí, otras fuentes han dicho que Hugo Barra decidió dejar la compañía antes de saber con quién estaba su ex pareja.
La marcha de Hugo Barra, culebrones personales aparte, se une a la de Andy Rubin a principios de este año, quien renunció a su puesto también de forma bastante brusca. La pérdida de dos de los grandes nombres de Android en tan poco tiempo podría poner a la división, una de las más importantes de Google, en dificultades organizativas.
Nintendo 2DS, sorpresa sin bisagra
Se esmeraron en hacernos creer que necesitábamos las tres dimensiones para tener una experiencia más inmersiva. Nintendo sacó 3DS hace dos años. El verano pasado renovó este modelo con una pantalla más amplia. Ahora sorprende con 2DS, una consola plana, con doble pantalla y que prescinde de la visión en tres dimensiones.
El precio, anunciado en Estados Unidos por 130 dólares, quiere poner muy baja la barrera de entrada. La compatibilidad con los juegos de Nintendo DS la convierten en una opción barata para darle vida a compras anteriores y usar el catálogo actual con Mario Kart 7, Luigi's Mansion y Animal Crossing como reclamo.
Sorprende que se prescinda de la bisagra. La consola es plana, no se cierra. Un guiño a los orígenes de las portátiles, cuando sacaron la mítica GameBoy, sin color y diseño plano.
La nueva portátil saldrá a la venta el 12 de octubre, incluirá el puntero táctil para la pantalla inferior, conexión a Internet a través de wifi y una tarjeta de memoria de cuatro gigas.
El precio, anunciado en Estados Unidos por 130 dólares, quiere poner muy baja la barrera de entrada. La compatibilidad con los juegos de Nintendo DS la convierten en una opción barata para darle vida a compras anteriores y usar el catálogo actual con Mario Kart 7, Luigi's Mansion y Animal Crossing como reclamo.
Sorprende que se prescinda de la bisagra. La consola es plana, no se cierra. Un guiño a los orígenes de las portátiles, cuando sacaron la mítica GameBoy, sin color y diseño plano.
La nueva portátil saldrá a la venta el 12 de octubre, incluirá el puntero táctil para la pantalla inferior, conexión a Internet a través de wifi y una tarjeta de memoria de cuatro gigas.
Nueva Zelanda prohíbe las patentes de 'software'
Nueva Zelanda ha aprobado la Ley de Patentes donde admiten la prohibición de registrar las patentes de 'software' después de cinco años de debate y de cambiar la ley el año pasado con un documento, tras las recomendaciones del Comité de Comercio del país. El ministro ha recibido las felicitaciones por parte del Instituto de Profesionales de TI (IITP) del país.
Con un 94% de los encuestados en el Congreso de Nueva Zelanda sobre si prohibir las patentes de software o no, el ministro de Comercio del país, Craig Foss, dio el visto bueno a la nueva actualización de su Ley de Patentes con la prohibición de las patentes de software desde 2008 dado el apoyo casi unánime en favor de la prohibición, según informa ZDnet.
Hace tres años, el Comité de Comercio de Nueva Zelanda aconsejó restringir las patentes de 'software'. No obstante, la situación continuó hasta el año pasado donde se cambió esta ley de 'software' a través de un documento.
Gracias a este paso por parte del ministro de Comercio de Nueva Zelanda, el país se convierte así en un país interesado por la industria de las tecnologías de la información. Marcan un "paso significativo para impulsar la innovación en Nueva Zelanda", justificaba Foss.
"Al aclarar la definición de lo que puede ser patentado, estamos dando a los negocios de Nueva Zelanda más flexibilidad para adaptar y mejorar inventos existentes, sin dejar de proteger las innovaciones genuinas", explicaba el ministro en unas declaraciones recogidas por el mismo medio.
Esta nueva modernización de la Ley de patentes de 'software' fue especialmente bien acogida por el Instituto de Profesionales de TI (IITP) en Nueva Zelanda.
"El sistema de patentes no funciona para el 'software', ya que es casi imposible para las empresas tecnológicas genuinas crear un nuevo 'software' sin violar algunos de los cientos de miles de patentes de 'software' que existen", dijo un ejecutivo de ITTP.
Con un 94% de los encuestados en el Congreso de Nueva Zelanda sobre si prohibir las patentes de software o no, el ministro de Comercio del país, Craig Foss, dio el visto bueno a la nueva actualización de su Ley de Patentes con la prohibición de las patentes de software desde 2008 dado el apoyo casi unánime en favor de la prohibición, según informa ZDnet.
Hace tres años, el Comité de Comercio de Nueva Zelanda aconsejó restringir las patentes de 'software'. No obstante, la situación continuó hasta el año pasado donde se cambió esta ley de 'software' a través de un documento.
Gracias a este paso por parte del ministro de Comercio de Nueva Zelanda, el país se convierte así en un país interesado por la industria de las tecnologías de la información. Marcan un "paso significativo para impulsar la innovación en Nueva Zelanda", justificaba Foss.
"Al aclarar la definición de lo que puede ser patentado, estamos dando a los negocios de Nueva Zelanda más flexibilidad para adaptar y mejorar inventos existentes, sin dejar de proteger las innovaciones genuinas", explicaba el ministro en unas declaraciones recogidas por el mismo medio.
Esta nueva modernización de la Ley de patentes de 'software' fue especialmente bien acogida por el Instituto de Profesionales de TI (IITP) en Nueva Zelanda.
"El sistema de patentes no funciona para el 'software', ya que es casi imposible para las empresas tecnológicas genuinas crear un nuevo 'software' sin violar algunos de los cientos de miles de patentes de 'software' que existen", dijo un ejecutivo de ITTP.
EEUU realizó 231 ciberataques en 2011
Los servicios secretos de Estados Unidos realizaron 231 ciberataques en el año 2011, informó el diario The Washington Post en su edición 'online'.
El periódico basa la revelación en un proyecto presupuestario que forma parte de los documentos secretos que están en poder del ex técnico de la Agencia Nacional de Seguridad (NSA) Edward SnowdenH
Según The Washington Post, el nuevo documento revelado aporta nuevas pruebas de que el gobierno del presidente Barack Obama recurre cada vez más a ataques en el ciberespacio.
De acuerdo con el documento, especialistas en computación de Estados Unidos entraron en redes extranjeras para ponerlas en secreto bajo su control en el marco de un proyecto denominado 'Genie' (Genio).
El proyecto tiene como objetivo colocar hasta finales de este año 'software' especial para grabar y transmitir datos en al menos 85.000 computadoras seleccionadas a nivel mundial.
Según el documento citado por el diario estadounidense, en 2008 ya fueron atacados de esta manera 21.252 computadoras. Además, en las grandes redes de computación un solo equipo infectado es capaz de abrir el acceso a otros cientos de miles de aparatos.
De las 231 "operaciones ofensivas" efectuadas en 2011, casi las tres cuartas partes estuvieron dirigidas contra objetivos de máxima prioridad en países como Irán, Rusia, China y Corea del Norte, según ex funcionarios norteamericanos.
El periódico basa la revelación en un proyecto presupuestario que forma parte de los documentos secretos que están en poder del ex técnico de la Agencia Nacional de Seguridad (NSA) Edward SnowdenH
Según The Washington Post, el nuevo documento revelado aporta nuevas pruebas de que el gobierno del presidente Barack Obama recurre cada vez más a ataques en el ciberespacio.
De acuerdo con el documento, especialistas en computación de Estados Unidos entraron en redes extranjeras para ponerlas en secreto bajo su control en el marco de un proyecto denominado 'Genie' (Genio).
El proyecto tiene como objetivo colocar hasta finales de este año 'software' especial para grabar y transmitir datos en al menos 85.000 computadoras seleccionadas a nivel mundial.
Según el documento citado por el diario estadounidense, en 2008 ya fueron atacados de esta manera 21.252 computadoras. Además, en las grandes redes de computación un solo equipo infectado es capaz de abrir el acceso a otros cientos de miles de aparatos.
De las 231 "operaciones ofensivas" efectuadas en 2011, casi las tres cuartas partes estuvieron dirigidas contra objetivos de máxima prioridad en países como Irán, Rusia, China y Corea del Norte, según ex funcionarios norteamericanos.
Descubren la clave para evitar la pérdida de memoria
Científicos de la Universidad de Columbia aseguran poder evitar en un futuro las pérdidas de memoria que ocasionalmente ocurren según el ser humano va envejeciendo. La noticia del estudio publicada en la revista Science Translational Medicine de la que se ha hecho eco la agencia Reuters, recuerda que no hay que confundir estos lapsus con las consecuencias de la enfermedad de el Alzheimer.
Los investigadores recalcan que la pérdida de memoria relacionada con la edad es un síndrome en sí mismo sin relación alguna con la enfermedad. Además, añaden que los resultados obtenidos muestran que en un futuro se podrá, a partir del experimento, desarrollar medicamentos que ralenticen o hagan retroceder la pérdida de memoria como consecuencia del propio envejecimiento.
Los investigadores han usado células humanas donadas, además de cerebros de ratones de laboratorio, permitiendo señalar por primera vez los defectos moleculares que causan el envejecimiento cognitivo. Como recalca Molly Wagster, del Instituto Nacional sobre el Envejecimiento, "el estudio nos da pistas del mecanismo de la pérdida de memoria y, con suerte, nos pondrán en el camino hacia una terapéutica concreta".
El estudio
Los científicos seleccionaron ocho cerebros, del Banco de Cerebros de Nueva York, donados por personas de entre 33 y 88 años que carecían de enfermedades cerebrales cuando fallecieron. Los investigadores consiguieron determinar comparando los genes de cerebros jóvenes con respecto a los de cerebros en edad avanzada que existían 17 genes de "circunvolución dentada" más activos, o menos, una vez que el cerebro va envejeciendo.
El cambio más significativo para los investigadores fue la disminución de una proteína llamada RbAp48, gen que se retira según se envejece. Los cerebros viejos tienen aproximadamente la mitad de esa proteína que los cerebros jóvenes.
Una vez obtenidos estos datos, los investigadores tenían que demostrar que la falta de esta proteína, la RbAp48, provocaba lapsus de memoria. Para ello, crearon genéticamente ratones cuyos genes RbAp48 estaban impedidos. Los resultaron mostraron que los ratones tenían recuerdos tan débiles como ratones cuatro veces más viejos y, además, tuvieron serios problemas para nadar en un laberinto de agua y diferenciar objetos que ya habían visto antes.
Para chequear los resultados, hicieron el experimento a la inversa: crearon ratones con cuyos genes RbAp48 estaban muy por encima de la media. La memoria de esos ratones era visiblemente mejor que los ratones con dosis menores de dicha proteína. Como afirma el doctor Eric Kandel de la Universidad de Columbia, líder del estudio que en el año 2000 recibió el premio Nobel por sus hallazgos sobre la base molecular de los recuerdos, "a diferencia del Alzheimer, no hay muerte celular significativa en la pérdida de memoria vinculada con la edad, lo que nos da esperanzas de que pueda prevenirse o revertirse"
Los investigadores recalcan que la pérdida de memoria relacionada con la edad es un síndrome en sí mismo sin relación alguna con la enfermedad. Además, añaden que los resultados obtenidos muestran que en un futuro se podrá, a partir del experimento, desarrollar medicamentos que ralenticen o hagan retroceder la pérdida de memoria como consecuencia del propio envejecimiento.
Los investigadores han usado células humanas donadas, además de cerebros de ratones de laboratorio, permitiendo señalar por primera vez los defectos moleculares que causan el envejecimiento cognitivo. Como recalca Molly Wagster, del Instituto Nacional sobre el Envejecimiento, "el estudio nos da pistas del mecanismo de la pérdida de memoria y, con suerte, nos pondrán en el camino hacia una terapéutica concreta".
El estudio
Los científicos seleccionaron ocho cerebros, del Banco de Cerebros de Nueva York, donados por personas de entre 33 y 88 años que carecían de enfermedades cerebrales cuando fallecieron. Los investigadores consiguieron determinar comparando los genes de cerebros jóvenes con respecto a los de cerebros en edad avanzada que existían 17 genes de "circunvolución dentada" más activos, o menos, una vez que el cerebro va envejeciendo.
El cambio más significativo para los investigadores fue la disminución de una proteína llamada RbAp48, gen que se retira según se envejece. Los cerebros viejos tienen aproximadamente la mitad de esa proteína que los cerebros jóvenes.
Una vez obtenidos estos datos, los investigadores tenían que demostrar que la falta de esta proteína, la RbAp48, provocaba lapsus de memoria. Para ello, crearon genéticamente ratones cuyos genes RbAp48 estaban impedidos. Los resultaron mostraron que los ratones tenían recuerdos tan débiles como ratones cuatro veces más viejos y, además, tuvieron serios problemas para nadar en un laberinto de agua y diferenciar objetos que ya habían visto antes.
Para chequear los resultados, hicieron el experimento a la inversa: crearon ratones con cuyos genes RbAp48 estaban muy por encima de la media. La memoria de esos ratones era visiblemente mejor que los ratones con dosis menores de dicha proteína. Como afirma el doctor Eric Kandel de la Universidad de Columbia, líder del estudio que en el año 2000 recibió el premio Nobel por sus hallazgos sobre la base molecular de los recuerdos, "a diferencia del Alzheimer, no hay muerte celular significativa en la pérdida de memoria vinculada con la edad, lo que nos da esperanzas de que pueda prevenirse o revertirse"
Un botón de autodestrucción permitirá inutilizar un móvil robado a través de Internet
El Ministerio de Ciencia y Tecnología de Corea del Sur ha puesto en marcha un decreto llamado 'Medidas preventivas contra el uso ilegal de teléfonos móviles' ante el aumento de delitos por robo de 'smartphones' en Corea del Sur. Los teléfonos coreanos incluirán un botón de autodestrucción que desactivará todas las funciones del móvil cuando sea robado.
La cantidad de denuncias por robo de teléfonos inteligentes en Corea del Sur han aumentado considerablemente, ante tal punto que se han desarrollado varias iniciativas para reducir el hurto de estos aparatos en todo el mundo.
Según publica el diario Korea Times, los teléfonos incorporarán una botón de autodestrucción que hará que el teléfono quede totalmente inutilizable. Este sistema funcionará a través de Internet y la opción se podrá ejecutar a través del ordenador del usuario. De esta forma, cuando el teléfono sea robado, no se podrá utilizar. Además, este sistema permitirá formatear el dispositivo por lo que los presuntos ladrones no podrán utilizar información del propietario.
Los fabricantes de Samsung y LG ya han sido informados de la decisión de incluir este botón a sus dispositivos que serán usados en Corea. Aún se desconoce si esta opción se implantará en los dispositivos que operen fuera de Corea del Sur.
La cantidad de denuncias por robo de teléfonos inteligentes en Corea del Sur han aumentado considerablemente, ante tal punto que se han desarrollado varias iniciativas para reducir el hurto de estos aparatos en todo el mundo.
Según publica el diario Korea Times, los teléfonos incorporarán una botón de autodestrucción que hará que el teléfono quede totalmente inutilizable. Este sistema funcionará a través de Internet y la opción se podrá ejecutar a través del ordenador del usuario. De esta forma, cuando el teléfono sea robado, no se podrá utilizar. Además, este sistema permitirá formatear el dispositivo por lo que los presuntos ladrones no podrán utilizar información del propietario.
Los fabricantes de Samsung y LG ya han sido informados de la decisión de incluir este botón a sus dispositivos que serán usados en Corea. Aún se desconoce si esta opción se implantará en los dispositivos que operen fuera de Corea del Sur.
Google y Microsoft demandarán a Estados Unidos por las peticiones de datos de usuarios
Las empresas tecnológicas Microsoft y Google demandarán al Gobierno de Estados Unidos para preservar su derecho a revelar más información sobre las peticiones de datos de usuarios realizadas por la Agencia de Seguridad Nacional, según han anunciado este sábado.
"Ambos estamos preocupados con la continuada reticencia del Gobierno de permitirnos publicar los datos suficientes relacionados con las órdenes que emanan de la Ley de Vigilancia de Inteligencia Extranjera (FISA, por sus siglas en inglés)", el mecanismo que utilizaba la Agencia de Seguridad Nacional, señala el vicepresidente ejecutivo de Microsoft, Brad Smith, en el blog corporativo.
Microsoft y Google presentaron la demanda en junio con el fin de "mantener el derecho de poder desvelar información adicional" al público sobre estas peticiones del Gobierno estadounidense. El comunicado, sin embargo, no aclara cuándo formalizará dicha demanda.
Las negociaciones que han mantenido con el Departamento de Justicia en las últimas semanas han fracasado tras acordar en hasta seis ocasiones la prórroga del plazo para responder a las demandas interpuestas, según Smith, que se ha mostrado "decepcionado" por la falta de una respuesta de la Administración estadounidense a las demandas interpuestas.
El derecho de hablar libremente
"Continuaremos en el proceso de litigio con la esperanza de que los tribunales mantengan nuestro derecho de hablar más libremente", subraya el vicepresidente de Microsoft. "Nuestra esperanza es que los tribunales y el Congreso garanticen que nuestras salvaguardias constitucionales prevalezcan", añade.
El exanalista de la CIA Edward Snowden entregó documentos a los diarios anglosajones The Guardian y The Washington Post que confirmaban el acceso de la Agencia de Seguridad Nacional a datos personales con el beneplácito de las empresas tecnológicas, que hasta ahora han negado haber proporcionado un "acceso directo" a sus sistemas.
La FISA obstaculiza la difusión de la cantidad de peticiones realizadas por las autoridades, si bien el Gobierno estadounidense anunció esta semana que cuantificará las solicitudes realizadas durante los últimos doce meses.
Una medida que ha sido aplaudida por el vicepresidente de Microsoft, aunque enfatiza en su blog que "el público se merece y la Constitución garantiza más que este primer paso". Smith aboga por diferenciar entre peticiones de metadatos, información asociada o contenido textual a nivel personal, como podría llegar a ser, de un correo electrónico.
"Ambos estamos preocupados con la continuada reticencia del Gobierno de permitirnos publicar los datos suficientes relacionados con las órdenes que emanan de la Ley de Vigilancia de Inteligencia Extranjera (FISA, por sus siglas en inglés)", el mecanismo que utilizaba la Agencia de Seguridad Nacional, señala el vicepresidente ejecutivo de Microsoft, Brad Smith, en el blog corporativo.
Microsoft y Google presentaron la demanda en junio con el fin de "mantener el derecho de poder desvelar información adicional" al público sobre estas peticiones del Gobierno estadounidense. El comunicado, sin embargo, no aclara cuándo formalizará dicha demanda.
Las negociaciones que han mantenido con el Departamento de Justicia en las últimas semanas han fracasado tras acordar en hasta seis ocasiones la prórroga del plazo para responder a las demandas interpuestas, según Smith, que se ha mostrado "decepcionado" por la falta de una respuesta de la Administración estadounidense a las demandas interpuestas.
El derecho de hablar libremente
"Continuaremos en el proceso de litigio con la esperanza de que los tribunales mantengan nuestro derecho de hablar más libremente", subraya el vicepresidente de Microsoft. "Nuestra esperanza es que los tribunales y el Congreso garanticen que nuestras salvaguardias constitucionales prevalezcan", añade.
El exanalista de la CIA Edward Snowden entregó documentos a los diarios anglosajones The Guardian y The Washington Post que confirmaban el acceso de la Agencia de Seguridad Nacional a datos personales con el beneplácito de las empresas tecnológicas, que hasta ahora han negado haber proporcionado un "acceso directo" a sus sistemas.
La FISA obstaculiza la difusión de la cantidad de peticiones realizadas por las autoridades, si bien el Gobierno estadounidense anunció esta semana que cuantificará las solicitudes realizadas durante los últimos doce meses.
Una medida que ha sido aplaudida por el vicepresidente de Microsoft, aunque enfatiza en su blog que "el público se merece y la Constitución garantiza más que este primer paso". Smith aboga por diferenciar entre peticiones de metadatos, información asociada o contenido textual a nivel personal, como podría llegar a ser, de un correo electrónico.
Identificada una causa pincipal de la pérdida de memoria con la edad
Un equipo de investigadores del Centro Médico de la Universidad de Columbia (CUMC), en Nueva York, dirigido por el premio Nobel Eric R. Kandel, ha encontrado que la deficiencia de una proteína llamada RbAp48 en el hipocampo es un importante contribuyente a la pérdida de memoria relacionada con la edad y que esta forma de pérdida de memoria es reversible.
El estudio, llevado a cabo en células del cerebro humano postmortem y en ratones y publicado en la edición digital de este miércoles de la revista Science Translational Medicine, también ofrece la evidencia causal más fuerte de que la pérdida de memoria relacionada con la edad y la enfermedad de Alzheimer son condiciones distintas.
"Nuestro estudio proporciona evidencia convincente de que la pérdida de memoria relacionada con la edad es un síndrome en sí mismo, además de la enfermedad de Alzheimer. Además de las implicaciones para el estudio, diagnóstico y tratamiento de trastornos de la memoria, estos hallazgos tienen consecuencias para la salud pública", subrayó el doctor Kandel, que es codirector del Instituto Mortimer B. Zuckerman del Comportamiento del Cerebro y la Mente en Columbia, director del Instituto Kavli para la Ciencia del Cerebro e investigador senior del Instituto Médico Howard Hughes, en CUMC.
El hipocampo, una región del cerebro que se compone de varias subregiones interconectadas, cada una con una población neuronal distinta, juega un papel vital en la memoria. Los estudios han demostrado que la enfermedad de Alzheimer dificulta la memoria como primera acción en la corteza entorrinal (CE), una región del cerebro que proporciona las principales vías de entrada al hipocampo.
Inicialmente se pensó que la pérdida de memoria relacionada con la edad es una manifestación temprana de la enfermedad de Alzheimer, pero la evidencia sugiere que su montaje es un proceso distinto que afecta al giro dentado (DG), una subregión del hipocampo que recibe la entrada directa de la corteza entorrinal.
"Hasta ahora, sin embargo, nadie ha sido capaz de identificar los defectos moleculares específicos implicados en la pérdida de memoria relacionada con la edad en los seres humanos", dijo el coautor principal Scott A. Small, profesor de Neurología y director del Centro de Investigación del Alzheimer en CUMC.
La nueva investigación fue diseñada para buscar evidencia más directa de que la pérdida de memoria relacionada con la edad es diferente de la enfermedad de Alzheimer. Para ello, sus autores comenzaron realizando análisis de microarrays (expresión genética) de las células de la DG del cerebro postmortem de ocho personas, de entre 33 a 88 años, todos ellos libres de enfermedad cerebral, además de estudiar las células de su CE, que sirvieron como controles ya que la estructura del cerebro no se ve afectada por el envejecimiento.
El efecto se repite en roedores, monos y seres humanos
Los análisis identificaron 17 genes candidatos que podrían estar relacionados con el envejecimiento de la DG, produciéndose los cambios más significativos en un gen llamado RbAp48, cuya expresión disminuyó de manera constante con la edad en todos los sujetos del estudio. Para ver qué papel cumplía dicho gen en la pérdida de memoria con el paso de los años, los científicos realizaron estudios en ratones, descubriendo que RbAp48 estaba reducido en ratones de edad avanzada y que si lo inhibían en roedores jóvenes y sanos, perdían memoria de igual forma que los mayores, pero que recuperaban la memoria si se apagaba dicha inhibición de RbAp48.
Los investigadores también hicieron estudios de resonancia magnética funcional (FMRI, en sus siglas en inglés) de los ratones con inhibición de RbAp48 y encontraron un efecto selectivo en el DG, similar al observado en los análisis de FMRI de roedores de edad avanzada, monos y seres humanos. Este efecto de inhibición de RbAp48 en la DG fue acompañado por defectos en los mecanismos moleculares similares a los encontrados en ratones viejos, pero el perfil de FMRI y los defectos mecánicos de los ratones con RbAp48 inhibido volvió a la normalidad cuando la inhibición se apagó.
En otro experimento, los expertos utilizaron la transferencia génica viral y un aumento de la expresión de RbAp48 en la DG de ratones de edad avanzada. "Nos quedamos asombrados de que no sólo mejorara el rendimiento de los ratones en las pruebas de memoria, sino que éste era comparable al de los ratones jóvenes", detalló el doctor Elias Pavlopoulos, científico investigador asociado de Neurología en CUM.
"El hecho de que hemos sido capaces de revertir la pérdida de memoria relacionada con la edad en los ratones es muy alentador", subrayó Kandel, quien recibió una parte del Premio Nobel de Fisiología o Medicina del año 2000 por sus descubrimientos relacionados con las bases moleculares de la memoria. A su juicio, lo relevante del estudio es que muestra que esta proteína es un factor importante y la pérdida de memoria relacionada con la edad se debe a un cambio funcional de algún tipo en las neuronas, a diferencia de la enfermedad de Alzheimer, donde no hay pérdida significativa de neuronas.
Por último, los datos sugieren que las proteínas arbitran los efectos de RbAp48, al menos en parte, a través de la vía PKA-CREB1-CBP, que el equipo había encontrado en estudios anteriores que es importante para la pérdida de memoria relacionada con la edad en ratones. Según los expertos, RbAp48 y la vía PKA-CREB1-CBP son objetivos válidos para la intervención terapéutica y que agentes que mejoran esta vía ya han demostrado que mejoran la disfunción del hipocampo relacionada con la edad en los roedores.
El estudio, llevado a cabo en células del cerebro humano postmortem y en ratones y publicado en la edición digital de este miércoles de la revista Science Translational Medicine, también ofrece la evidencia causal más fuerte de que la pérdida de memoria relacionada con la edad y la enfermedad de Alzheimer son condiciones distintas.
"Nuestro estudio proporciona evidencia convincente de que la pérdida de memoria relacionada con la edad es un síndrome en sí mismo, además de la enfermedad de Alzheimer. Además de las implicaciones para el estudio, diagnóstico y tratamiento de trastornos de la memoria, estos hallazgos tienen consecuencias para la salud pública", subrayó el doctor Kandel, que es codirector del Instituto Mortimer B. Zuckerman del Comportamiento del Cerebro y la Mente en Columbia, director del Instituto Kavli para la Ciencia del Cerebro e investigador senior del Instituto Médico Howard Hughes, en CUMC.
El hipocampo, una región del cerebro que se compone de varias subregiones interconectadas, cada una con una población neuronal distinta, juega un papel vital en la memoria. Los estudios han demostrado que la enfermedad de Alzheimer dificulta la memoria como primera acción en la corteza entorrinal (CE), una región del cerebro que proporciona las principales vías de entrada al hipocampo.
Inicialmente se pensó que la pérdida de memoria relacionada con la edad es una manifestación temprana de la enfermedad de Alzheimer, pero la evidencia sugiere que su montaje es un proceso distinto que afecta al giro dentado (DG), una subregión del hipocampo que recibe la entrada directa de la corteza entorrinal.
"Hasta ahora, sin embargo, nadie ha sido capaz de identificar los defectos moleculares específicos implicados en la pérdida de memoria relacionada con la edad en los seres humanos", dijo el coautor principal Scott A. Small, profesor de Neurología y director del Centro de Investigación del Alzheimer en CUMC.
La nueva investigación fue diseñada para buscar evidencia más directa de que la pérdida de memoria relacionada con la edad es diferente de la enfermedad de Alzheimer. Para ello, sus autores comenzaron realizando análisis de microarrays (expresión genética) de las células de la DG del cerebro postmortem de ocho personas, de entre 33 a 88 años, todos ellos libres de enfermedad cerebral, además de estudiar las células de su CE, que sirvieron como controles ya que la estructura del cerebro no se ve afectada por el envejecimiento.
El efecto se repite en roedores, monos y seres humanos
Los análisis identificaron 17 genes candidatos que podrían estar relacionados con el envejecimiento de la DG, produciéndose los cambios más significativos en un gen llamado RbAp48, cuya expresión disminuyó de manera constante con la edad en todos los sujetos del estudio. Para ver qué papel cumplía dicho gen en la pérdida de memoria con el paso de los años, los científicos realizaron estudios en ratones, descubriendo que RbAp48 estaba reducido en ratones de edad avanzada y que si lo inhibían en roedores jóvenes y sanos, perdían memoria de igual forma que los mayores, pero que recuperaban la memoria si se apagaba dicha inhibición de RbAp48.
Los investigadores también hicieron estudios de resonancia magnética funcional (FMRI, en sus siglas en inglés) de los ratones con inhibición de RbAp48 y encontraron un efecto selectivo en el DG, similar al observado en los análisis de FMRI de roedores de edad avanzada, monos y seres humanos. Este efecto de inhibición de RbAp48 en la DG fue acompañado por defectos en los mecanismos moleculares similares a los encontrados en ratones viejos, pero el perfil de FMRI y los defectos mecánicos de los ratones con RbAp48 inhibido volvió a la normalidad cuando la inhibición se apagó.
En otro experimento, los expertos utilizaron la transferencia génica viral y un aumento de la expresión de RbAp48 en la DG de ratones de edad avanzada. "Nos quedamos asombrados de que no sólo mejorara el rendimiento de los ratones en las pruebas de memoria, sino que éste era comparable al de los ratones jóvenes", detalló el doctor Elias Pavlopoulos, científico investigador asociado de Neurología en CUM.
"El hecho de que hemos sido capaces de revertir la pérdida de memoria relacionada con la edad en los ratones es muy alentador", subrayó Kandel, quien recibió una parte del Premio Nobel de Fisiología o Medicina del año 2000 por sus descubrimientos relacionados con las bases moleculares de la memoria. A su juicio, lo relevante del estudio es que muestra que esta proteína es un factor importante y la pérdida de memoria relacionada con la edad se debe a un cambio funcional de algún tipo en las neuronas, a diferencia de la enfermedad de Alzheimer, donde no hay pérdida significativa de neuronas.
Por último, los datos sugieren que las proteínas arbitran los efectos de RbAp48, al menos en parte, a través de la vía PKA-CREB1-CBP, que el equipo había encontrado en estudios anteriores que es importante para la pérdida de memoria relacionada con la edad en ratones. Según los expertos, RbAp48 y la vía PKA-CREB1-CBP son objetivos válidos para la intervención terapéutica y que agentes que mejoran esta vía ya han demostrado que mejoran la disfunción del hipocampo relacionada con la edad en los roedores.
Descubren en Groenlandia un cañón como el del Colorado
Científicos de la Universidad de Bristol (Reino Unido) han descubierto un megacañón bajo la capa de hielo de Groenlandia, según una investigación publicada por la revista Science.
El cañón es de unos 750 kilometros de largo y en algunas zonas mide hasta 800 metros de profundidad, es decir, que está en la misma escala que ciertas partes del Gran Cañón en Arizona (Estados Unidos).
Se cree que es anterior a la capa de hielo de Groenlandia que ha cubierto la zona durante los últimos millones de años y tiene las características de los canales del meandro de un río. En comparación, el río más largo de Reino Unido, el río Severn, tiene una longitud de 350 kilometros y es mucho menos ancho y profundo.
Los científicos utilizaron datos de miles de kilómetros gracias a un radar aerotransportado, recogidos principalmente por la NASA e investigadores de Reino Unido y Alemania durante varias décadas, reconstruyendo el paisaje que yace bajo la capa de hielo que cubre la mayor parte de Groenlandia.
En ciertas frecuencias, el hielo es transparente a las ondas de radio que pueden viajar a través del hielo y rebotar en la sólida base del fondo. Mediante el análisis de todos los datos de radar, el equipo descubrió un cañón de roca continua que se extiende casi desde el centro de la isla y termina en su extremo norte en un profundo fiordo conectado al océano Ártico.
Los autores creen que el cañón tiene un papel importante en el transporte de agua de deshielo subglacial producida en el lecho desde el interior hasta el borde de la capa de hielo y finalmente en el océano. Incluso antes de la presencia de la capa de hielo, que se remonta por lo menos a cuatro millones de años, la evidencia sugiere que el cañón proporciona una vía para el agua del interior a la costa y era un sistema fluvial importante.
El cañón es de unos 750 kilometros de largo y en algunas zonas mide hasta 800 metros de profundidad, es decir, que está en la misma escala que ciertas partes del Gran Cañón en Arizona (Estados Unidos).
Se cree que es anterior a la capa de hielo de Groenlandia que ha cubierto la zona durante los últimos millones de años y tiene las características de los canales del meandro de un río. En comparación, el río más largo de Reino Unido, el río Severn, tiene una longitud de 350 kilometros y es mucho menos ancho y profundo.
Los científicos utilizaron datos de miles de kilómetros gracias a un radar aerotransportado, recogidos principalmente por la NASA e investigadores de Reino Unido y Alemania durante varias décadas, reconstruyendo el paisaje que yace bajo la capa de hielo que cubre la mayor parte de Groenlandia.
En ciertas frecuencias, el hielo es transparente a las ondas de radio que pueden viajar a través del hielo y rebotar en la sólida base del fondo. Mediante el análisis de todos los datos de radar, el equipo descubrió un cañón de roca continua que se extiende casi desde el centro de la isla y termina en su extremo norte en un profundo fiordo conectado al océano Ártico.
Los autores creen que el cañón tiene un papel importante en el transporte de agua de deshielo subglacial producida en el lecho desde el interior hasta el borde de la capa de hielo y finalmente en el océano. Incluso antes de la presencia de la capa de hielo, que se remonta por lo menos a cuatro millones de años, la evidencia sugiere que el cañón proporciona una vía para el agua del interior a la costa y era un sistema fluvial importante.
Samsung desvelará el Galaxy Gear el 4 de septiembre en Berlín
Samsung Electronics ha anunciado que presentará su esperado "reloj inteligente" Galaxy Gear el próximo 4 de septiembre en Berlín, dos días antes de la inauguración de la feria IFA que se celebra en la capital alemana.
En una entrevista concedida al diario surcoreano "The Korea Times", la vicepresidenta ejecutiva de la división móvil de Samsung, Lee Young-hee, confirmó la fecha de presentación y añadió que el nuevo "smartwatch" no tendrá pantalla flexible.
"El "Gear" no tendrá una pantalla flexible. El nuevo dispositivo mejorará y enriquecerá la experiencia móvil inteligente actual en muchos aspectos. Conducirá a una nueva tendencia en comunicaciones móviles inteligentes", explicó Lee al rotativo.
La ejecutiva de la empresa de Suwon también añadió que el aparato irá principalmente dirigido a jóvenes amantes de las nuevas tendencias.
De este modo, Samsung se adelantará previsiblemente a competidores como Apple o Sony a la hora de lanzar al mercado el primer "smartwatch", un reloj de muñeca con las funciones de un teléfono inteligente.
El mercado de los dispositivos inteligentes que se puedan lucir como un reloj se antoja como uno de los más atractivos para los fabricantes de electrónica por su potencial de crecimiento y dada la saturación que encara el de "smarthphones".
Al ser preguntada sobre si Samsung planea lanzar nuevos dispositivos con "pantallas flexibles" producidas con nuevos materiales, Lee apuntó a que el gigante surcoreano de la tecnología prepara productos incluso más avanzados.
"Poseemos la propiedad intelectual de patentes relacionadas con los próximos dispositivos que se podrán lucir. Todos ellos constituyen conceptos para futuros productos".
El mismo 4 de septiembre, Samsung Electronics presentará también su nuevo "phablet" o "tabléfono" (mezcla de tableta y teléfono), el Samsung Galaxy 3.
La compañía no ha querido desvelar detalles técnicos de ninguno de los dos aparatos, cuya fecha y precio de venta al público se espera que sean anunciados el 4 de septiembre en Berlín.
Por último, Lee quiso despejar en la entrevista los rumores sobre la posibilidad de que Samsung se haga con el fabricante canadiense de teléfonos inteligentes Blackberry, cuyos responsables barajan la posibilidad de vender la empresa tras las pérdidas del primer semestre de 2013.
"Samsung Electronics no está sopesando esa oportunidad", explicó tajante.
En una entrevista concedida al diario surcoreano "The Korea Times", la vicepresidenta ejecutiva de la división móvil de Samsung, Lee Young-hee, confirmó la fecha de presentación y añadió que el nuevo "smartwatch" no tendrá pantalla flexible.
"El "Gear" no tendrá una pantalla flexible. El nuevo dispositivo mejorará y enriquecerá la experiencia móvil inteligente actual en muchos aspectos. Conducirá a una nueva tendencia en comunicaciones móviles inteligentes", explicó Lee al rotativo.
La ejecutiva de la empresa de Suwon también añadió que el aparato irá principalmente dirigido a jóvenes amantes de las nuevas tendencias.
De este modo, Samsung se adelantará previsiblemente a competidores como Apple o Sony a la hora de lanzar al mercado el primer "smartwatch", un reloj de muñeca con las funciones de un teléfono inteligente.
El mercado de los dispositivos inteligentes que se puedan lucir como un reloj se antoja como uno de los más atractivos para los fabricantes de electrónica por su potencial de crecimiento y dada la saturación que encara el de "smarthphones".
Al ser preguntada sobre si Samsung planea lanzar nuevos dispositivos con "pantallas flexibles" producidas con nuevos materiales, Lee apuntó a que el gigante surcoreano de la tecnología prepara productos incluso más avanzados.
"Poseemos la propiedad intelectual de patentes relacionadas con los próximos dispositivos que se podrán lucir. Todos ellos constituyen conceptos para futuros productos".
El mismo 4 de septiembre, Samsung Electronics presentará también su nuevo "phablet" o "tabléfono" (mezcla de tableta y teléfono), el Samsung Galaxy 3.
La compañía no ha querido desvelar detalles técnicos de ninguno de los dos aparatos, cuya fecha y precio de venta al público se espera que sean anunciados el 4 de septiembre en Berlín.
Por último, Lee quiso despejar en la entrevista los rumores sobre la posibilidad de que Samsung se haga con el fabricante canadiense de teléfonos inteligentes Blackberry, cuyos responsables barajan la posibilidad de vender la empresa tras las pérdidas del primer semestre de 2013.
"Samsung Electronics no está sopesando esa oportunidad", explicó tajante.
Estados Unidos prevé informar las órdenes judiciales a los proveedores tecnológicos
La comunidad estadounidense de inteligencia ha prometido revelar más datos sobre los programas de vigilancia del Gobierno informando anualmente las órdenes judiciales secretas que se emiten a compañías de telecomunicaciones bajo ciertas normas legales.
El director de Inteligencia Nacional, James Clapper, anunció un plan para difundir el número total de órdenes legales emitidas cada doce meses a firmas tecnológicas por parte del Tribunal de Vigilancia de Inteligencia Exterior, y el número de objetivos afectados por esas órdenes.
Estas medidas, garantizadas por el Acta de Vigilancia de Inteligencia Exterior (FISA, por sus siglas en inglés) y otras de seguridad nacional, permiten recopilar información sobre suscriptores y registros de llamadas, ambas por comunicaciones pasadas e intervenciones de llamadas en marcha. Pero sólo se harán públicos los números anuales totales de estas órdenes judiciales.
La iniciativa forma parte de la respuesta del presidente Barack Obama a las críticas sobre falta de transparencia en los programas de vigilancia tras las filtraciones del exanalista de espionaje Edward Snowden.
A principios de este mes, el Gobierno difundió por primera vez opiniones, anteriormente calificadas de Top Secret (máximo secreto), del tribunal de la FISA. En el pasado, sus decisiones que implicaban vigilancia y recopilación de comunicaciones no eran hechas públicas.
Defensores de la intimidad han instado al Gobierno a que empiece a arrojar luz sobre este tribunal y sus operaciones de seguimiento y dio una tibia bienvenida a las noticias del jueves.
"Es un buen comienzo porque destapa algo a las autoridades gubernamentales, pero aún así necesitamos más información", dijo Marc Rotenberg, presidente del grupo Electronic Privacy Information Center. Instó a proporcionar más información sobre el costo y eficacia de la vigilancia, según informó la agencia Reuters.
El tribunal de la FISA ha dicho que la Agencia de Seguridad Nacional podría haber recopilado de forma no intencionada hasta 56.000 correos electrónicos de estadounidenses al año de 2008 a 2011 y pudo haber violado la Constitución antes de que se hicieran algunos ajustes en la misma.
El director de Inteligencia Nacional, James Clapper, anunció un plan para difundir el número total de órdenes legales emitidas cada doce meses a firmas tecnológicas por parte del Tribunal de Vigilancia de Inteligencia Exterior, y el número de objetivos afectados por esas órdenes.
Estas medidas, garantizadas por el Acta de Vigilancia de Inteligencia Exterior (FISA, por sus siglas en inglés) y otras de seguridad nacional, permiten recopilar información sobre suscriptores y registros de llamadas, ambas por comunicaciones pasadas e intervenciones de llamadas en marcha. Pero sólo se harán públicos los números anuales totales de estas órdenes judiciales.
La iniciativa forma parte de la respuesta del presidente Barack Obama a las críticas sobre falta de transparencia en los programas de vigilancia tras las filtraciones del exanalista de espionaje Edward Snowden.
A principios de este mes, el Gobierno difundió por primera vez opiniones, anteriormente calificadas de Top Secret (máximo secreto), del tribunal de la FISA. En el pasado, sus decisiones que implicaban vigilancia y recopilación de comunicaciones no eran hechas públicas.
Defensores de la intimidad han instado al Gobierno a que empiece a arrojar luz sobre este tribunal y sus operaciones de seguimiento y dio una tibia bienvenida a las noticias del jueves.
"Es un buen comienzo porque destapa algo a las autoridades gubernamentales, pero aún así necesitamos más información", dijo Marc Rotenberg, presidente del grupo Electronic Privacy Information Center. Instó a proporcionar más información sobre el costo y eficacia de la vigilancia, según informó la agencia Reuters.
El tribunal de la FISA ha dicho que la Agencia de Seguridad Nacional podría haber recopilado de forma no intencionada hasta 56.000 correos electrónicos de estadounidenses al año de 2008 a 2011 y pudo haber violado la Constitución antes de que se hicieran algunos ajustes en la misma.
El Partido Popular destruyó los discos duros de dos computadoras de Bárcenas
El Partido Popular (PP) destruyó los discos duros de las dos computadoras que el ex tesorero del oficialismo español Luis Bárcenas (en la foto) tenía en la sede de la calle Génova en Madrid.
Así lo ha comunicado el propio partido a la Audiencia Nacional en un escrito en el que explica que el ex tesorero se quedó con una de las memorias en octubre de 2012.
El Juzgado Central de Instrucción 5 de la Audiencia ha emplazado a las partes a asistir al volcado de la información de los dos equipos que el PP entregó al juez la semana pasada, uno de ellos marca Toshiba y otro Apple, para que se coteje con los archivos que entregó en mano al juez Pablo Ruz sobre la supuesta contabilidad B en la formación.
Al abrir la Toshiba, los expertos informáticos de la policía se han encontrado con que ni siquiera tenía disco duro en su interior, cosa que no ocurre con el otro dispositivo, que contenía 465 GB de información que se han descargado, han informado fuentes jurídicas a la agencia Efe.
En el escrito presentado por el PP, al que ha tenido acceso Efe, se explica que Bárcenas tuvo asignado el uso de estos dos ordenadores, y añade que desconoce si además usaba otro equipo "de su propiedad que se encuentre en la actualidad a su disposición".
El partido justifica su destrucción diciendo que, según un protocolo de almacenamiento y borrado de material informático acorde a la Ley de Protección de Datos, cuando una persona deja de usar un equipo se formatea y, en el caso de que por su cargo hubiera manejado información sensible, se destruye.
Apunta que el disco del equipo Apple fue sustituido por otro por el propio Luis Bárcenas, "por lo que el partido no ha tenido a su disposición el citado disco, sino el nuevo que el imputado instaló en octubre de 2012 y que ha sido destruido" para que lo usara otra persona.
Ese dispositivo puesto a disposición del juez por el PP sí tenía hoy un disco duro de 500 GB de capacidad, cuya información se ha extraído.
En cuanto al dispositivo marca Toshiba, el PP indica que, según declaró Bárcenas al juez, los archivos que entregó al juzgado con los papeles contables habían sido extraídos a un "pendrive" desde ese dispositivo, una información que el partido califica de "falsa" porque "este ordenador, por su antigüedad, carece de puerto USB alguno".
El PP asegura que destruyó los dos discos duros cuando una juez de Madrid archivó, el 21 de abril, una denuncia de Bárcenas contra el PP en la que consideró que el partido le había robado las computadoras porque no le dejó tomarlos de la sede de Génova.
En el acta de clonado de las computadoras dictada por el secretario judicial se expone que, efectivamente, el equipo Toshiba no tenía disco duro porque había sido extraído, y que en el otro existen "signos evidentes en los tornillos de sujeción de que disco duro pudiera haber sido extraído o cambiado con anterioridad".
Una vez acabada la diligencia, el abogado de Bárcenas, Javier Gómez de Liaño, ha calificado de "sorpresa" la destrucción de las memorias y, después de visitar a su cliente en la prisión de Soto del Real, ha afirmado que la información que contenían era "extraordinariamente importante".
Gómez de Liaño ha achacado el que Bárcenas reemplazara la memoria de uno de los ordenadores a que la antigua se había quedado pequeña y ha asegurado que el extesorero traspasó la información al nuevo disco que fue destruido por el PP.
El abogado ha revelado además que el partido tiene en su poder "un tercer" disco: "Sin poner el acento ni acusar a nadie, allí en donde está el interrogante", ha dicho al respecto.
También ha apuntado que, a la vuelta de las vacaciones de Ruz el 9 de septiembre, recurrirá la prisión provisional de su cliente.
La información volcada hoy del ordenador Apple se ha entregado a los peritos informáticos de la Policía para que la cotejen con los archivos entregados al juez por el extesorero en el lápiz de memoria, entre ellos los papeles de la supuesta contabilidad B del PP.
Según fuentes de la investigación, la destrucción de los discos era una posibilidad que barajaba la Policía, pero constituye el peor de los escenarios, ya que en este caso no se puede recuperar ninguna información.
El secretario de Organización del PSOE, Oscar López, se ha referido hoy a este asunto cuando ha ironizado que "destruir los discos duros de los ordenadores" da muestra de la "transparencia" que practica el PP.
Así lo ha comunicado el propio partido a la Audiencia Nacional en un escrito en el que explica que el ex tesorero se quedó con una de las memorias en octubre de 2012.
El Juzgado Central de Instrucción 5 de la Audiencia ha emplazado a las partes a asistir al volcado de la información de los dos equipos que el PP entregó al juez la semana pasada, uno de ellos marca Toshiba y otro Apple, para que se coteje con los archivos que entregó en mano al juez Pablo Ruz sobre la supuesta contabilidad B en la formación.
Al abrir la Toshiba, los expertos informáticos de la policía se han encontrado con que ni siquiera tenía disco duro en su interior, cosa que no ocurre con el otro dispositivo, que contenía 465 GB de información que se han descargado, han informado fuentes jurídicas a la agencia Efe.
En el escrito presentado por el PP, al que ha tenido acceso Efe, se explica que Bárcenas tuvo asignado el uso de estos dos ordenadores, y añade que desconoce si además usaba otro equipo "de su propiedad que se encuentre en la actualidad a su disposición".
El partido justifica su destrucción diciendo que, según un protocolo de almacenamiento y borrado de material informático acorde a la Ley de Protección de Datos, cuando una persona deja de usar un equipo se formatea y, en el caso de que por su cargo hubiera manejado información sensible, se destruye.
Apunta que el disco del equipo Apple fue sustituido por otro por el propio Luis Bárcenas, "por lo que el partido no ha tenido a su disposición el citado disco, sino el nuevo que el imputado instaló en octubre de 2012 y que ha sido destruido" para que lo usara otra persona.
Ese dispositivo puesto a disposición del juez por el PP sí tenía hoy un disco duro de 500 GB de capacidad, cuya información se ha extraído.
En cuanto al dispositivo marca Toshiba, el PP indica que, según declaró Bárcenas al juez, los archivos que entregó al juzgado con los papeles contables habían sido extraídos a un "pendrive" desde ese dispositivo, una información que el partido califica de "falsa" porque "este ordenador, por su antigüedad, carece de puerto USB alguno".
El PP asegura que destruyó los dos discos duros cuando una juez de Madrid archivó, el 21 de abril, una denuncia de Bárcenas contra el PP en la que consideró que el partido le había robado las computadoras porque no le dejó tomarlos de la sede de Génova.
En el acta de clonado de las computadoras dictada por el secretario judicial se expone que, efectivamente, el equipo Toshiba no tenía disco duro porque había sido extraído, y que en el otro existen "signos evidentes en los tornillos de sujeción de que disco duro pudiera haber sido extraído o cambiado con anterioridad".
Una vez acabada la diligencia, el abogado de Bárcenas, Javier Gómez de Liaño, ha calificado de "sorpresa" la destrucción de las memorias y, después de visitar a su cliente en la prisión de Soto del Real, ha afirmado que la información que contenían era "extraordinariamente importante".
Gómez de Liaño ha achacado el que Bárcenas reemplazara la memoria de uno de los ordenadores a que la antigua se había quedado pequeña y ha asegurado que el extesorero traspasó la información al nuevo disco que fue destruido por el PP.
El abogado ha revelado además que el partido tiene en su poder "un tercer" disco: "Sin poner el acento ni acusar a nadie, allí en donde está el interrogante", ha dicho al respecto.
También ha apuntado que, a la vuelta de las vacaciones de Ruz el 9 de septiembre, recurrirá la prisión provisional de su cliente.
La información volcada hoy del ordenador Apple se ha entregado a los peritos informáticos de la Policía para que la cotejen con los archivos entregados al juez por el extesorero en el lápiz de memoria, entre ellos los papeles de la supuesta contabilidad B del PP.
Según fuentes de la investigación, la destrucción de los discos era una posibilidad que barajaba la Policía, pero constituye el peor de los escenarios, ya que en este caso no se puede recuperar ninguna información.
El secretario de Organización del PSOE, Oscar López, se ha referido hoy a este asunto cuando ha ironizado que "destruir los discos duros de los ordenadores" da muestra de la "transparencia" que practica el PP.
Skype cumple 10 años con unos 300 millones de usuarios
Si David Huang hubiera dejado su Taiwán natal para radicarse en Suecia hace una generación, habría quedado aislado de su familia.
Hoy, gracias a Skype, puede comunicarse con sus parientes con tanta facilidad como si vivieran en Estocolmo y no a medio mundo de distancia.
"Skype ha hecho el trabajo más fácil, pero más importante que eso, me ha permitido hablar con mi familia cuando me da la gana", dice este empresario de 35 años a la agencia AFP.
El servicio de telefonía por Internet Skype, que celebra su 10° aniversario este jueves, ha acercado el mundo de una manera muy significtiva, con un alcance que muy pocos hubieran previsto en 2003.
Un total de 300 millones de usuarios hacen 2.000 millones de minutos de videollamadas en línea diarias.
Como muestra más clara de su éxito, la marca se ha convertido en un verbo en lengua inglesa (to skype=llamar por Skype), una rara distinción que comparte con otro gigante como Google.
Y en otra señal de sus logros, Skype ha dado lugar a competidores con una serie de tecnologías similares, como el FaceTime de Apple.
Pero por revolucionaria que pueda parecer la tecnología de Skype, no se inició desde cero, sino que se construyó con base en tecnologías de comunicación ya existentes.
"Ya teníamos llamadas internacionales baratas a través de Internet", dijo Martin Geddes, consultor líder de telecomunicaciones con sede en Gran Bretaña.
"La importancia de Skype fue y es la experiencia 'Wow!' de alta definición de voz, y la sensación de "estar allí" con tus familiares y amigos lejanos de una manera que no era posible antes", agregó.
Skype echó a andar a finales de agosto 2003 por dos emprendedores escandinavos, el sueco Niklas Zennstroem y el danés Janus Friis, que expandieron las tecnologías de redes P2P (redes entre iguales) existentes.
Skype, que permite a sus usuarios en Internet realizar llamadas de alta calidad desde cualquier parte del mundo de forma gratuita, despegó rápidamente, acercando el mundo en una época en que la globalización y los viajes intercontinentales separaron a más familias que quizás en ningún otro momento en la historia.
"Me conmueve la forma en que la gente usa Skype, desde un soldado en servicio activo que ve a su bebé por primera vez hasta las instancias más simples, extraordinariamente comunes", dijo Elisa Steele, directora de marketing de Skype.
Entre esos ejemplos cotidianos, Steele destacó que "una madre y su hija puedan verse y hablar como si estuvieran sentadas juntas en la mesa de la cocina. Nuestro mayor logro radica en esos momentos".
Pero Skype no sólo ayuda a que personas que ya se conocen se mantengan en contacto, sino que también permite conocer gente nueva.
Un ejemplo fue a principios de este año, cuando estudiantes de entre 11 y 15 años de la Academia Woodham de Gran Bretaña y la Escuela Intermedia Merton de Wisconsin (norte de EEUU) organizaron un concurso de baile a uno y otro lado del Atlántico.
"Habían visto películas extranjeras, pero realmente hablar con estos niños en Estados Unidos fue absolutamente genial. Fue increíble", dijo Jon Tait, profesor de Woodham.
Skype no es sólo para los seres humanos. En el zoológico Cameron Park de Waco (Texas, sur de EEUU), si los orangutanes Mei y Mukah realizan determinadas tareas, se les permite como premio comunicarse a través de Skype con orangutanes de otros zoológicos.
Sin embargo, muchos se preguntan si es posible ganar dinero con un negocio que ofrece llamadas gratis.
El fabricante de software estadounidense Microsoft cree que sí, y por eso pagó 8.500 millones de dólares por Skype en 2011.
En los 12 meses terminados el 30 de junio, la División de Entretenimiento de Microsoft, y que incluye Skype, reportó ingresos de 848 millones de dólares, un aumento de 380 millones con respecto al año anterior.
En tan sólo una década, Skype pasó de ser nada a estar en todas partes. En una época de rápidas transformaciones, ¿podría dejar de existir también en una década? Es difícil imaginarlo, según los observadores.
"No va a desaparecer. Esto se va a usar y será puesto cada vez en más dispositivos, videoteléfonos, dispositivos para la cocina y tabletas en los armarios de la cocina", dijo Michael Gough, autor del libro "Skype Me!"
"Puedo imaginar, por ejemplo, un escenario domótico donde se tenga una tableta en la cocina, una Xbox conectada en la sala de estar y uno literalmente pueda seguir una videollamada por toda la casa. Realmente puedo imaginarme algo así".
Hoy, gracias a Skype, puede comunicarse con sus parientes con tanta facilidad como si vivieran en Estocolmo y no a medio mundo de distancia.
"Skype ha hecho el trabajo más fácil, pero más importante que eso, me ha permitido hablar con mi familia cuando me da la gana", dice este empresario de 35 años a la agencia AFP.
El servicio de telefonía por Internet Skype, que celebra su 10° aniversario este jueves, ha acercado el mundo de una manera muy significtiva, con un alcance que muy pocos hubieran previsto en 2003.
Un total de 300 millones de usuarios hacen 2.000 millones de minutos de videollamadas en línea diarias.
Como muestra más clara de su éxito, la marca se ha convertido en un verbo en lengua inglesa (to skype=llamar por Skype), una rara distinción que comparte con otro gigante como Google.
Y en otra señal de sus logros, Skype ha dado lugar a competidores con una serie de tecnologías similares, como el FaceTime de Apple.
Pero por revolucionaria que pueda parecer la tecnología de Skype, no se inició desde cero, sino que se construyó con base en tecnologías de comunicación ya existentes.
"Ya teníamos llamadas internacionales baratas a través de Internet", dijo Martin Geddes, consultor líder de telecomunicaciones con sede en Gran Bretaña.
"La importancia de Skype fue y es la experiencia 'Wow!' de alta definición de voz, y la sensación de "estar allí" con tus familiares y amigos lejanos de una manera que no era posible antes", agregó.
Skype echó a andar a finales de agosto 2003 por dos emprendedores escandinavos, el sueco Niklas Zennstroem y el danés Janus Friis, que expandieron las tecnologías de redes P2P (redes entre iguales) existentes.
Skype, que permite a sus usuarios en Internet realizar llamadas de alta calidad desde cualquier parte del mundo de forma gratuita, despegó rápidamente, acercando el mundo en una época en que la globalización y los viajes intercontinentales separaron a más familias que quizás en ningún otro momento en la historia.
"Me conmueve la forma en que la gente usa Skype, desde un soldado en servicio activo que ve a su bebé por primera vez hasta las instancias más simples, extraordinariamente comunes", dijo Elisa Steele, directora de marketing de Skype.
Entre esos ejemplos cotidianos, Steele destacó que "una madre y su hija puedan verse y hablar como si estuvieran sentadas juntas en la mesa de la cocina. Nuestro mayor logro radica en esos momentos".
Pero Skype no sólo ayuda a que personas que ya se conocen se mantengan en contacto, sino que también permite conocer gente nueva.
Un ejemplo fue a principios de este año, cuando estudiantes de entre 11 y 15 años de la Academia Woodham de Gran Bretaña y la Escuela Intermedia Merton de Wisconsin (norte de EEUU) organizaron un concurso de baile a uno y otro lado del Atlántico.
"Habían visto películas extranjeras, pero realmente hablar con estos niños en Estados Unidos fue absolutamente genial. Fue increíble", dijo Jon Tait, profesor de Woodham.
Skype no es sólo para los seres humanos. En el zoológico Cameron Park de Waco (Texas, sur de EEUU), si los orangutanes Mei y Mukah realizan determinadas tareas, se les permite como premio comunicarse a través de Skype con orangutanes de otros zoológicos.
Sin embargo, muchos se preguntan si es posible ganar dinero con un negocio que ofrece llamadas gratis.
El fabricante de software estadounidense Microsoft cree que sí, y por eso pagó 8.500 millones de dólares por Skype en 2011.
En los 12 meses terminados el 30 de junio, la División de Entretenimiento de Microsoft, y que incluye Skype, reportó ingresos de 848 millones de dólares, un aumento de 380 millones con respecto al año anterior.
En tan sólo una década, Skype pasó de ser nada a estar en todas partes. En una época de rápidas transformaciones, ¿podría dejar de existir también en una década? Es difícil imaginarlo, según los observadores.
"No va a desaparecer. Esto se va a usar y será puesto cada vez en más dispositivos, videoteléfonos, dispositivos para la cocina y tabletas en los armarios de la cocina", dijo Michael Gough, autor del libro "Skype Me!"
"Puedo imaginar, por ejemplo, un escenario domótico donde se tenga una tableta en la cocina, una Xbox conectada en la sala de estar y uno literalmente pueda seguir una videollamada por toda la casa. Realmente puedo imaginarme algo así".
Xiaomi demuestra su poderío llegando a las 1.000 millones de descargas en su tienda
A pesar de que no estemos en China, está claro que el nombre de Xiaomi vamos a tener que acostumbrarnos a oírlo cada vez más. Vale, sus smartphones todavía no han llegado oficialmente fuera de China, pero su poder allí es tal que es cuestión de muy poco tiempo a que de el salto.
Ya vimos como el gigante chino se ha hecho con los servicios del vicepresidente de Android, Hugo Barra, para ponerle a cargo de su expansión mundial.
Ahora demuestran hasta que punto su Android modificado, MIUI, es popular en China, llegando a la impresionante cifra de 1.000 millones de descargas de aplicaciones desde su tienda. Todo esto en tan sólo 391 días.
Y decimos sólo, porque aunque Apple tardó menos, 288 días, Google Play tardó poco menos de dos años en alcanzar la misma cifra, y Windows Phone Store 865 días. Hablamos de cifras comparando mercados globales con el chino, lo que resulta sorprendente.
Pero también es de interés el que estas cifras se consiguieron en los inicios de los smartphones, no ahora que hay una explosión enorme y que ha permitido que el año pasado tanto Apple como Google alcanzaran los 50.000 millones de descargas.
Aún así la MIUI app store es la quinta tienda de aplicaciones en China y cuenta con 17 millones de usuarios activos. Nada mal para iniciar su aventura internacional oiga.
Ya vimos como el gigante chino se ha hecho con los servicios del vicepresidente de Android, Hugo Barra, para ponerle a cargo de su expansión mundial.
Ahora demuestran hasta que punto su Android modificado, MIUI, es popular en China, llegando a la impresionante cifra de 1.000 millones de descargas de aplicaciones desde su tienda. Todo esto en tan sólo 391 días.
Y decimos sólo, porque aunque Apple tardó menos, 288 días, Google Play tardó poco menos de dos años en alcanzar la misma cifra, y Windows Phone Store 865 días. Hablamos de cifras comparando mercados globales con el chino, lo que resulta sorprendente.
Pero también es de interés el que estas cifras se consiguieron en los inicios de los smartphones, no ahora que hay una explosión enorme y que ha permitido que el año pasado tanto Apple como Google alcanzaran los 50.000 millones de descargas.
Aún así la MIUI app store es la quinta tienda de aplicaciones en China y cuenta con 17 millones de usuarios activos. Nada mal para iniciar su aventura internacional oiga.
Sim City llega a Mac… cargado de problemas y errores
Largamente esperado, uno de los videojuegos clásicos que te animan a convertirte en el todopoderoso alcalde de una ciudad que crecerá (o no) bajo tus hábiles directrices, “Sim City” acaba de llegar al mundo de la manzana mordida pero no ha podido tener peor estreno puesto que el videojuego parece estar plagado de problemas, según están relatando en foros y redes sociales quienes lo han instalado.
Empezamos con mal pie, puesto que “Sim City” llevaba tiempo siendo aguardado con expectación por parte de los usuarios de Mac OS y no ha podido tener un peor comienzo, empezando porque el juego no se ejecuta a pantalla completa sino tan solo en una ventana… o la dificultad que han experimentado un número significativo de usuarios en el mismo proceso de instalación, algo que, por cierto, tampoco está muy lejos de los problemas que tuvo el mismo título cuando apareció en su popular versión para PC.
Y lo peor es que los problemas no parecen estar relacionados con cuestiones de falta de potencia en los requerimientos de hardware que podrían dejar la pelota en el alero de los propios usuarios con ordenadores desfasados, puesto que han informado de estos incidentes incluso quienes poseen los últimos modelos de Apple como el MacBook con pantalla Retina, con lo que todos los dedos acusadores se dirigen a Maxis, creadora de este título, quien ya ha comunicado que están haciendo todo lo posible por tratar de corregir los fallos.
En un texto hecho público manifiestan que “hay un pequeño número de jugadores que han experimentado incidencias jugando con “Sim City” para Mac. Nuestro equipo está trabajando de manera individualizada con nuestros jugadores para resolver sus problemas y permitirles volver a disfrutar del juego tan pronto como sea posible.
Empezamos con mal pie, puesto que “Sim City” llevaba tiempo siendo aguardado con expectación por parte de los usuarios de Mac OS y no ha podido tener un peor comienzo, empezando porque el juego no se ejecuta a pantalla completa sino tan solo en una ventana… o la dificultad que han experimentado un número significativo de usuarios en el mismo proceso de instalación, algo que, por cierto, tampoco está muy lejos de los problemas que tuvo el mismo título cuando apareció en su popular versión para PC.
Y lo peor es que los problemas no parecen estar relacionados con cuestiones de falta de potencia en los requerimientos de hardware que podrían dejar la pelota en el alero de los propios usuarios con ordenadores desfasados, puesto que han informado de estos incidentes incluso quienes poseen los últimos modelos de Apple como el MacBook con pantalla Retina, con lo que todos los dedos acusadores se dirigen a Maxis, creadora de este título, quien ya ha comunicado que están haciendo todo lo posible por tratar de corregir los fallos.
En un texto hecho público manifiestan que “hay un pequeño número de jugadores que han experimentado incidencias jugando con “Sim City” para Mac. Nuestro equipo está trabajando de manera individualizada con nuestros jugadores para resolver sus problemas y permitirles volver a disfrutar del juego tan pronto como sea posible.
Samsung se plantea una versión más barata del Note III para mercados emergentes
La propuesta de ofrecer diferentes versiones del mismo smartphone según el país no le ha salido mal a Samsung, y al parecer volverá a repetir con el Galaxy Note III. Pero esta vez no habrá sólo versiones diferentes según el SoC, la pantalla y la cámara sufrirán también variaciones.
Junto a las más que probables versiones con Exynos 5 Octa y Snapdragon 800, Samsung hará una versión especial para mercados emergentes donde la cámara trasera será de 8 MP y la pantalla LCD en lugar de Super AMOLED.
Estos cambios permitirán una rebaja sustancial del precio, pero al no tratarse de componentes esenciales permiten no tener que adaptar apenas su modificación de Android, lo cual rebaja aún más su desarrollo.
De hecho las fuentes que informan de este Note III rebajado, aseguran que el 30% de la producción global inicial será de esta versión, lo que demuestra el gran interés de Samsung de adentrarse en los mercados emergentes.
Ahora queda esperar al 4 de septiembre para saber si habrá más versiones y cuales serán los precios y disponibilidades.
Junto a las más que probables versiones con Exynos 5 Octa y Snapdragon 800, Samsung hará una versión especial para mercados emergentes donde la cámara trasera será de 8 MP y la pantalla LCD en lugar de Super AMOLED.
Estos cambios permitirán una rebaja sustancial del precio, pero al no tratarse de componentes esenciales permiten no tener que adaptar apenas su modificación de Android, lo cual rebaja aún más su desarrollo.
De hecho las fuentes que informan de este Note III rebajado, aseguran que el 30% de la producción global inicial será de esta versión, lo que demuestra el gran interés de Samsung de adentrarse en los mercados emergentes.
Ahora queda esperar al 4 de septiembre para saber si habrá más versiones y cuales serán los precios y disponibilidades.
Caen en picado las previsiones de ventas de la industria PC
Los envíos de PC a nivel global caerán un 9,7% en 2013, según el más reciente informe elaborado por la consultora IDC. Seguirán cayendo hasta 2017.
Las perspectivas para el mercado de PC han ido modificándose a la baja paulatinamente. En marzo la consultora anunciaba que los envíos en el mercado PC caería un 1,3% a lo largo de 2013.
Una de las razones de este giro en las previsiones que recoge The Guardian se debe al comportamiento en mercados emergentes. La caída de Europa y EEUU en venta de PC se ha visto hasta ahora paliada por el tirón de regiones como Asia o Latinoamérica.
Las mediciones estiman sin embargo que la demanda de PC en estas regiones caerá más que en occidente en los próximos ejercicios. Esta perspectiva ha tirado el porcentaje de caída esperado inicialmente.
Adiós al ‘boom del tablet’
La consultora ha modificado también las previsiones de la industria tablet y ha rebajado en 2 millones de unidades las ventas previstas para este año. Se enviarán un total de 229,3 millones de unidades frente a las 227,4 millones de unidades estimados inicialmente. A pesar de la caída supone un crecimiento de más del 50%.
Las perspectivas para el mercado de PC han ido modificándose a la baja paulatinamente. En marzo la consultora anunciaba que los envíos en el mercado PC caería un 1,3% a lo largo de 2013.
Una de las razones de este giro en las previsiones que recoge The Guardian se debe al comportamiento en mercados emergentes. La caída de Europa y EEUU en venta de PC se ha visto hasta ahora paliada por el tirón de regiones como Asia o Latinoamérica.
Las mediciones estiman sin embargo que la demanda de PC en estas regiones caerá más que en occidente en los próximos ejercicios. Esta perspectiva ha tirado el porcentaje de caída esperado inicialmente.
Adiós al ‘boom del tablet’
La consultora ha modificado también las previsiones de la industria tablet y ha rebajado en 2 millones de unidades las ventas previstas para este año. Se enviarán un total de 229,3 millones de unidades frente a las 227,4 millones de unidades estimados inicialmente. A pesar de la caída supone un crecimiento de más del 50%.
El creador del “Facebook ruso” también competirá con Whatsapp
Pavel Durov, que es conocido en la industria tecnológica como el “Zuckerberg ruso” por el exitoso lanzamiento de la red social Vkontakte, acaba de introducirse también en el negocio de las aplicaciones de mensajería.
El desarrollador ruso, que trabaja desde Estados Unidos y es dueño de la empresa Digital Fortress, ya tiene disponible Telegram, una aplicación de mensajería que desea abrirse camino en un mercado dominado por Whatsapp pero donde la competencia es muy alta.
Por el momento Telegram solo permite escribir mensajes e intercambiar archivos, pero muy pronto permitirá la comunicación a través de voz y vídeo.
Durov ha indicado que está realizando pruebas con MTProto, un nuevo protocolo de envío de datos, que si resulta un éxito, permitirá añadir a su servicio algunas “funciones únicas” que no están presentes en las herramientas de la competencia.
Además, Durov ha defendido que Telegram es más rápido y seguro que otras aplicacione similares, y los mensajes enviados no pueden ser interceptados por terceras personas.
El desarrollador ruso, que trabaja desde Estados Unidos y es dueño de la empresa Digital Fortress, ya tiene disponible Telegram, una aplicación de mensajería que desea abrirse camino en un mercado dominado por Whatsapp pero donde la competencia es muy alta.
Por el momento Telegram solo permite escribir mensajes e intercambiar archivos, pero muy pronto permitirá la comunicación a través de voz y vídeo.
Durov ha indicado que está realizando pruebas con MTProto, un nuevo protocolo de envío de datos, que si resulta un éxito, permitirá añadir a su servicio algunas “funciones únicas” que no están presentes en las herramientas de la competencia.
Además, Durov ha defendido que Telegram es más rápido y seguro que otras aplicacione similares, y los mensajes enviados no pueden ser interceptados por terceras personas.
Dominan los númeroso rojos en los valores del Nasdaq
Facebook es de las pocas notas positivas. Gana un 2,39% en los últimos cinco días y el viernes marcha con 41,44 dólares y un aumento del precio de sus acciones del 0,36%.
Para Adobe la situación es casi plana, ya que desde el lunes acumula un resultado de + 0,07%. El viernes sus títulos marchan en los 45,78 dólares y se dejan un 0,33%.
En el caso de Apple, la empresa de Cupertino está teniendo una mala semana que termina con unas pérdidas del 2,56% en sus acciones. El viernes la tendencia sigue siendo negativa, ya que cae un 0,76% que pone sus valores en los 487,98 dólares.
eBay pierde un 1,82% en el acumulado desde el lunes. El viernes sigue bajando y se ubica en los 50,02 dólares al marcar un -3,19%.
Microsoft es otro de los que se suma a la tendencia negativa entre los grandes. El viernes se queda con 33,40 dólares y descenso del 0,45 que en el acumulado semanal implica perder hasta el 3.84%.
Intel también registra elevadas pérdidas y cae un 2,05% desde el lunes que pone sus títulos en los 23,32 dólares. Para la jornada del cierre no cambia el panorama (-0,55 %).
BlackBerry tampoco logra buenos resultados, ya que a pesar de que el viernes a media jornada pierde un 1,46% y en el global semanal se deja un 2,22% que deja sus acciones a los 10,11 dólares.
Amazon también presenta números rojos esta semana al perder un 2,96% y dejarse un 0,94% el viernes que deja las acciones en los 281,30 dólares.
Para Cisco tampoco son buenas noticias, ya que desde el lunes ha descendido un 2,05% hasta los 23,37 dólares, y el viernes a dos horas del cierre marca una pérdida del 0,34%.
Otro que tampoco escapa de la tendencia negativa es Google, que presenta números rojos esta semana (-2,53 %). El viernes sigue en negativo (-0.67%) y sus acciones se sitúan en los 849,51 dólares.
Yahoo es otro de los que concluye la semana en negativo. 3,25% de pérdidas desde el lunes y un precio por acción de 27,08 dólares a dos horas del cierre el viernes, un día en el que pierde un 0,81%.
Dell se anota un descenso del 0,33% esta semana y el viernes navega en los 13,77 dólares que equivalen a una subida del 0,11%.
Para Adobe la situación es casi plana, ya que desde el lunes acumula un resultado de + 0,07%. El viernes sus títulos marchan en los 45,78 dólares y se dejan un 0,33%.
En el caso de Apple, la empresa de Cupertino está teniendo una mala semana que termina con unas pérdidas del 2,56% en sus acciones. El viernes la tendencia sigue siendo negativa, ya que cae un 0,76% que pone sus valores en los 487,98 dólares.
eBay pierde un 1,82% en el acumulado desde el lunes. El viernes sigue bajando y se ubica en los 50,02 dólares al marcar un -3,19%.
Microsoft es otro de los que se suma a la tendencia negativa entre los grandes. El viernes se queda con 33,40 dólares y descenso del 0,45 que en el acumulado semanal implica perder hasta el 3.84%.
Intel también registra elevadas pérdidas y cae un 2,05% desde el lunes que pone sus títulos en los 23,32 dólares. Para la jornada del cierre no cambia el panorama (-0,55 %).
BlackBerry tampoco logra buenos resultados, ya que a pesar de que el viernes a media jornada pierde un 1,46% y en el global semanal se deja un 2,22% que deja sus acciones a los 10,11 dólares.
Amazon también presenta números rojos esta semana al perder un 2,96% y dejarse un 0,94% el viernes que deja las acciones en los 281,30 dólares.
Para Cisco tampoco son buenas noticias, ya que desde el lunes ha descendido un 2,05% hasta los 23,37 dólares, y el viernes a dos horas del cierre marca una pérdida del 0,34%.
Otro que tampoco escapa de la tendencia negativa es Google, que presenta números rojos esta semana (-2,53 %). El viernes sigue en negativo (-0.67%) y sus acciones se sitúan en los 849,51 dólares.
Yahoo es otro de los que concluye la semana en negativo. 3,25% de pérdidas desde el lunes y un precio por acción de 27,08 dólares a dos horas del cierre el viernes, un día en el que pierde un 0,81%.
Dell se anota un descenso del 0,33% esta semana y el viernes navega en los 13,77 dólares que equivalen a una subida del 0,11%.
Nueva Zelanda no permite que se patente software
Tras cinco años de debate, Nueva Zelanda ha aprobado una nueva Ley de Patentes que ilegaliza las patentes de software. Craig Foss, ministro de economía del país de Oceanía ha afirmado que este es “un paso positivo para impulsar la innovación” en Nueva Zelanda.
Concretamente, ha declarado Foss que “al aclarar la definición de lo que puede ser patentado, estamos dando a los negocios de Nueva Zelanda más flexibilidad para adaptar y mejorar inventos existentes, sin dejar de proteger las innovaciones genuinas”. El Instituto de Profesionales de las TI (IITP por sus siglas en inglés) se ha mostrado contento con la iniciativa que responde a las peticiones de la industria TIC.
El Proyecto de Ley de Patentes se elaboró por primera vez en 2008. Dos años más tarde, en 2010, la Comisión Especial de Comercio recomendó la prohibición total de las patentes de software, pero esa postura fue anulada con la introducción de un documento complementario en agosto del pasado año 2012.
El Instituto de Profesionales de las TI realizó una encuesta a los miembros del congreso neozelandés que concluía que el 94% de los miemrbos estaban a favor de la prohibición de las patentes de software, como recuerda ZDnet.
Como mucho tiempo se lleva discutiendo a nivel mundial, Paul Matthews, director ejecutivo en el IITP, aseguraba en su defensa por la eliminación de las patentes, que “el sistema de patentes no funciona para el software, ya que es casi imposible para las empresas tecnológicas genuinas crear nuevo software sin violar cientos de miles de patentes de software que existen, a menudo por trabajo muy obvio”.
Las constantes demandas entre las grandes empresas de la industria tecnológica en todo el mundo ya han sacado a debate este mismo tema desde hace años. Como ejemplo reciente, hace tan solo dos días que Eric Schmidt, anterior líder de Google, se pronunciaba en su blog sobre las acusaciones de Larry Ellison, CEO de Oracle, sobre que la Mountain View le había robado sus ideas. Eric Schmidt recordaba el dictamen de un tribunal cuando Oracle demandó a Google por violación de patentes y derechos de autor en un caso relacionado con Java y con el sistema operativo Android. El jurado concluyó que las acusaciones de Oracle eran infundadas y Eric Schmidt afirmaba que el tribunal protegió un principio vital para la innovación que se resume en que una empresa o individuo no puede definirse como autor de una idea que es un método de operar.
Concretamente, ha declarado Foss que “al aclarar la definición de lo que puede ser patentado, estamos dando a los negocios de Nueva Zelanda más flexibilidad para adaptar y mejorar inventos existentes, sin dejar de proteger las innovaciones genuinas”. El Instituto de Profesionales de las TI (IITP por sus siglas en inglés) se ha mostrado contento con la iniciativa que responde a las peticiones de la industria TIC.
El Proyecto de Ley de Patentes se elaboró por primera vez en 2008. Dos años más tarde, en 2010, la Comisión Especial de Comercio recomendó la prohibición total de las patentes de software, pero esa postura fue anulada con la introducción de un documento complementario en agosto del pasado año 2012.
El Instituto de Profesionales de las TI realizó una encuesta a los miembros del congreso neozelandés que concluía que el 94% de los miemrbos estaban a favor de la prohibición de las patentes de software, como recuerda ZDnet.
Como mucho tiempo se lleva discutiendo a nivel mundial, Paul Matthews, director ejecutivo en el IITP, aseguraba en su defensa por la eliminación de las patentes, que “el sistema de patentes no funciona para el software, ya que es casi imposible para las empresas tecnológicas genuinas crear nuevo software sin violar cientos de miles de patentes de software que existen, a menudo por trabajo muy obvio”.
Las constantes demandas entre las grandes empresas de la industria tecnológica en todo el mundo ya han sacado a debate este mismo tema desde hace años. Como ejemplo reciente, hace tan solo dos días que Eric Schmidt, anterior líder de Google, se pronunciaba en su blog sobre las acusaciones de Larry Ellison, CEO de Oracle, sobre que la Mountain View le había robado sus ideas. Eric Schmidt recordaba el dictamen de un tribunal cuando Oracle demandó a Google por violación de patentes y derechos de autor en un caso relacionado con Java y con el sistema operativo Android. El jurado concluyó que las acusaciones de Oracle eran infundadas y Eric Schmidt afirmaba que el tribunal protegió un principio vital para la innovación que se resume en que una empresa o individuo no puede definirse como autor de una idea que es un método de operar.
El Kindle ya no se anuncia en Google Shopping
El pasado otoño Google introdujo cambios en su herramienta Google Shopping: quien quisiera aparecer en los resultados, tendría que pagar. Que Amazon decidiese hacerlo e introdujese anuncios para sus Kindle supuso una gran sorpresa, pero parece que esta situación ha cambiado: la firma de ecommerce ha retirados sus anuncios de Google Shopping. Ahora, cuando se busca Kindle en la herramienta de Google, aparecen resultados de páginas como eBay. Ninguno en Amazon.
¿Ha retirado Amazon toda su publicidad en Google? No: en el buscador normal todavía siguen apareciendo anuncios pagados por la firma de Jeff Bezos, lo que apunta a una decisión tomada no por un problema general con Google, sino con su herramienta de compras en particular. Todo es bastante lógico: a Amazon no le debe de hacer mucha gracia contribuir a los ingresos de un servicio que le hace una competencia casi directa. Otra razón podría ser que los anuncios no hayan llevado a un gran aumento de las ventas de Kindle.
El movimiento de Google de hacer pagar a todo el que quisiese aparecer en Google Shopping fue bastante polémico en su momento (antes del otoño pasado, no era necesario un anuncio para formar parte del servicio), lo cierto es que en general parece que el modelo introducido por la compañía ha tenido bastante éxito. Los anunciantes, además están contentos con los resultados.
Según la firma de softare de marketing para ecommerce Mercent, en junio los ingresos llegados desde anuncios de Google aumentaron un 60% con respecto al año anterior. Marin Software, por su parte, asegura que desde noviembre del año pasado la gente pincha más en los anuncios de Google Shopping que en los de texto del buscador normal, según recoge All Things Digital.
¿Ha retirado Amazon toda su publicidad en Google? No: en el buscador normal todavía siguen apareciendo anuncios pagados por la firma de Jeff Bezos, lo que apunta a una decisión tomada no por un problema general con Google, sino con su herramienta de compras en particular. Todo es bastante lógico: a Amazon no le debe de hacer mucha gracia contribuir a los ingresos de un servicio que le hace una competencia casi directa. Otra razón podría ser que los anuncios no hayan llevado a un gran aumento de las ventas de Kindle.
El movimiento de Google de hacer pagar a todo el que quisiese aparecer en Google Shopping fue bastante polémico en su momento (antes del otoño pasado, no era necesario un anuncio para formar parte del servicio), lo cierto es que en general parece que el modelo introducido por la compañía ha tenido bastante éxito. Los anunciantes, además están contentos con los resultados.
Según la firma de softare de marketing para ecommerce Mercent, en junio los ingresos llegados desde anuncios de Google aumentaron un 60% con respecto al año anterior. Marin Software, por su parte, asegura que desde noviembre del año pasado la gente pincha más en los anuncios de Google Shopping que en los de texto del buscador normal, según recoge All Things Digital.
El tráfico de Flickr se disparó tras su rediseño
Flickr no estaba muerto, estaba simplemente algo dormido esperando a que alguien hiciese algo con él. Un cambio de look, una actitud más generosa, y la web de fotos ha vuelto a brillar. Eso es lo que muestran los datos publicados por SimilarWeb, que asegura que el tráfico de Flickr aumentó un 38% desde el pasado mes de abril, con las mayores subidas ocurriendo a partir del rediseño a finales de mayo.
Entre abril y mayo las visitas mensuales a Flickr subieron de 86 a 90 millones, lo que muestra que la web todavía estaba creciendo, pero fue sin duda el rediseño de finales de mayo (visual y de espíritu, ofreciendo un TB de espacio para fotos para todos los usuarios) el que disparó los números. En junio las visitas subieron hasta los 107 millones y en julio hasta 110 millones. El tiempo medio pasado en Flickr también creció un 11% desde abril, y está ya en cinco minutos.
El informe de SimilarWeb ofrece además otro dato interesante: una de las webs que más tráfico lleva a Flickr, sin contar buscadores y redes sociales, es Tumblr. En los últimos tres meses, de hecho, el 7,2% del tráfico referido de Flickr llegó desde el sitio de blogs que compró Yahoo! en mayo. Quizá este dato también fuese tenido en cuenta por Marissa Mayer a la hora de tomar la decisión, ya que Tumblr ya era un referente de tráfico importante para Flickr antes de la adquisición.
Ahora que tanto Flickr como Tumblr están bajo el mismo paraguas, el de Yahoo!, y viendo lo bien que se complementan ambas webs, no sería extraño que en el futuro Marissa Mayer pensase en alguna forma de reforzar y profundizar en la integración entre ambos sitios, como apunta TechCrunch. Formas de facilitar la publicación en ambos sitios a la vez, copias de seguridad comunes…
¿Se habrá salvado Flickr de la hoguera gracias al rediseño realizado por Yahoo! y a la compra de Tumblr? De momento parece que ha enderezado su camino, aunque tras el pico de mayo las cosas se han vuelto a estabilizar. Habrá que esperar algunos meses más para ver los resultados reales.
Entre abril y mayo las visitas mensuales a Flickr subieron de 86 a 90 millones, lo que muestra que la web todavía estaba creciendo, pero fue sin duda el rediseño de finales de mayo (visual y de espíritu, ofreciendo un TB de espacio para fotos para todos los usuarios) el que disparó los números. En junio las visitas subieron hasta los 107 millones y en julio hasta 110 millones. El tiempo medio pasado en Flickr también creció un 11% desde abril, y está ya en cinco minutos.
El informe de SimilarWeb ofrece además otro dato interesante: una de las webs que más tráfico lleva a Flickr, sin contar buscadores y redes sociales, es Tumblr. En los últimos tres meses, de hecho, el 7,2% del tráfico referido de Flickr llegó desde el sitio de blogs que compró Yahoo! en mayo. Quizá este dato también fuese tenido en cuenta por Marissa Mayer a la hora de tomar la decisión, ya que Tumblr ya era un referente de tráfico importante para Flickr antes de la adquisición.
Ahora que tanto Flickr como Tumblr están bajo el mismo paraguas, el de Yahoo!, y viendo lo bien que se complementan ambas webs, no sería extraño que en el futuro Marissa Mayer pensase en alguna forma de reforzar y profundizar en la integración entre ambos sitios, como apunta TechCrunch. Formas de facilitar la publicación en ambos sitios a la vez, copias de seguridad comunes…
¿Se habrá salvado Flickr de la hoguera gracias al rediseño realizado por Yahoo! y a la compra de Tumblr? De momento parece que ha enderezado su camino, aunque tras el pico de mayo las cosas se han vuelto a estabilizar. Habrá que esperar algunos meses más para ver los resultados reales.
Las propuestas de Intel para triunfar en smartphones y tablets
Si hay algo que caracteriza a los procesadores ARM es su consumo mínimo, pero este consumo tan bajo también tiene una pega, su potencia de procesado está limitada con respecto a las propuestas de Intel. A pesar de ello, debido a que durante bastante tiempo los sistemas operativos móviles no ofrecían soporte x86 y el consumo de los Intel Atom no se vio suficientemente reducido, su papel en el mercado móvil no tenía mucha cabida.
Aunque ahora las cosas han cambiado, y mucho, mientras ARM, con el apoyo de los principales fabricantes de SoCs móviles como Qualcomm, Mediatek, NVIDIA y Samsung, se han centrado sobre todo en el aumento de núcleos y la potencia, Intel ha trabajado duramente para evolucionar la miniaturización y eficiencia de sus procesadores, mejorando aún más la potencia.
El resultado es que, si hace relativamente poco tiempo sus procesadores partían de tecnología de 45nm, hoy en día con Atom Silvermont estamos ya en 22nm, y para el año que vienen llegarán a los 14nm, una evolución vertiginosa que sólo un fabricante del calibre de Intel podría haber llevado a cabo.
El apoyo de Google y Microsoft
Intel es también consciente de que llega al mercado con un poco de retraso con respecto a ARM, pero ha sabido responder a tiempo y ha contactado y colaborado con los miembros más importantes de la industria. Tanto Google como Microsoft respaldan a Intel y muestran claras pautas de que confían en ellos para sus desarrollos futuros.
Quizás una de las decisiones más acertadas en su momento por parte de Intel, y que muestra su compromiso con el mercado móvil y la importancia que le está dando, fue su amplia colaboración con Google para optimizar el soporte en Android. Algo que comenzó con Android ICS y el AOSP, que luego se ha mejorado con Jelly Bean, y se espera que llegue a su máximo esplendor con Key Lime Pie.
Pero además Microsoft lleva colaborando con Intel desde hace tiempo, tanto en ordenadores y portátiles, como ahora con los smartphones Windows Phone 8 y tablets Windows RT y Windows 8. Las optimizaciones de Windows 8.1 mejoran aún más el soporte para las nuevas características de los Intel Atom presentes y futuros.
Por estos motivos, los procesadores Atom suponen una apuesta segura para los próximos años, con el respaldo del primer y tercer sistema operativo móvil y contando con el soporte de más del 90% del mercado global.
La revolución Atom que está comenzando
Una de las muestras de las cosas que están por venir y de que las cosas están cambiando, es que cada vez vemos más fabricantes apostando por Intel. En un principio han sido los mercados emergentes y los smartphones de gama media, contando con fabricantes como Lenovo, Lava, Asus, etc… que llevan desde mediados de 2012 contando con Intel para varios de sus dispositivos.
Pero la mejora y evolución ha sido tal en poco más de un año, que ya podemos verlo en cada vez más fabricantes y dispositivos, incluyendo tablets, smartphones y ultrabooks. De hecho, a marcas como Dell y HP, se han unido otras como Samsung, principal fabricante mundial móvil, que ha confiado en Intel para sus nuevas Galaxy Tab 3.
En ella vemos en funcionamiento su SoC Intel Atom Clover Trail+, que cuenta no sólo con su procesador Z2560 a 1,6 GHz y una GPU PowerVr SXG544MP2, sino también con soporte LTE gracias a su XMM 7160. Una solución completa y de garantía que está viendo sus frutos. Pero aquí estamos hablando únicamente de sus Clover Trail+ Saltwell de 32nm.
El brillante futuro de Atom: Silvermont, Airmont y Goldmont
Si las cosas ya apuntaban maneras en el horizonte de Intel, sus nuevos SoCs Bay Trail, Cherry Trail y Willow Trail tienen todo lo necesario para arrasar con lo que se espera que ARM tiene previsto para el mercado en los próximos meses.
Entre nosotros ya está Bay Trail y sus procesadores Intel Silvermont de cuatro núcleos a 2,1 GHz, 22nm y 64 bits. El paso a 64 bits no sólo mejora sustancialmente su capacidad e interacción con memoria LDPDDR3, elevándola a 17 GB/s, sino que también supone la inclusión de GPUs propias de Intel, Ivy Bridge Generación 7, con un aumento de potencia de más del triple.
Pero esto sólo es la punta del iceberg. Antes de que acabe el 2014 Intel tiene previsto anunciar y lanzar de forma masiva sus SoCs Cherry Trail, con CPUs Airmont de cuatro núcleos a 2,7 Ghz y tecnología de 14nm, con los que esperan adelantar a ARM con bastante ventaja. En ellos veremos además las GPU Intel Broadwell Generación 8.
Y para el 2015 la propuesta de SoC de Intel se llama Willow Trail, y con ella vendrán los procesadores Goldmont y GPUs Generación 9. Una tecnología de la que todavía Intel no ha ofrecido muchos detalles pero que nos muestra que la intención de Intel en smartphones y tablets es consolidarse con propuestas claras y de futuro.
Aunque ahora las cosas han cambiado, y mucho, mientras ARM, con el apoyo de los principales fabricantes de SoCs móviles como Qualcomm, Mediatek, NVIDIA y Samsung, se han centrado sobre todo en el aumento de núcleos y la potencia, Intel ha trabajado duramente para evolucionar la miniaturización y eficiencia de sus procesadores, mejorando aún más la potencia.
El resultado es que, si hace relativamente poco tiempo sus procesadores partían de tecnología de 45nm, hoy en día con Atom Silvermont estamos ya en 22nm, y para el año que vienen llegarán a los 14nm, una evolución vertiginosa que sólo un fabricante del calibre de Intel podría haber llevado a cabo.
El apoyo de Google y Microsoft
Intel es también consciente de que llega al mercado con un poco de retraso con respecto a ARM, pero ha sabido responder a tiempo y ha contactado y colaborado con los miembros más importantes de la industria. Tanto Google como Microsoft respaldan a Intel y muestran claras pautas de que confían en ellos para sus desarrollos futuros.
Quizás una de las decisiones más acertadas en su momento por parte de Intel, y que muestra su compromiso con el mercado móvil y la importancia que le está dando, fue su amplia colaboración con Google para optimizar el soporte en Android. Algo que comenzó con Android ICS y el AOSP, que luego se ha mejorado con Jelly Bean, y se espera que llegue a su máximo esplendor con Key Lime Pie.
Pero además Microsoft lleva colaborando con Intel desde hace tiempo, tanto en ordenadores y portátiles, como ahora con los smartphones Windows Phone 8 y tablets Windows RT y Windows 8. Las optimizaciones de Windows 8.1 mejoran aún más el soporte para las nuevas características de los Intel Atom presentes y futuros.
Por estos motivos, los procesadores Atom suponen una apuesta segura para los próximos años, con el respaldo del primer y tercer sistema operativo móvil y contando con el soporte de más del 90% del mercado global.
La revolución Atom que está comenzando
Una de las muestras de las cosas que están por venir y de que las cosas están cambiando, es que cada vez vemos más fabricantes apostando por Intel. En un principio han sido los mercados emergentes y los smartphones de gama media, contando con fabricantes como Lenovo, Lava, Asus, etc… que llevan desde mediados de 2012 contando con Intel para varios de sus dispositivos.
Pero la mejora y evolución ha sido tal en poco más de un año, que ya podemos verlo en cada vez más fabricantes y dispositivos, incluyendo tablets, smartphones y ultrabooks. De hecho, a marcas como Dell y HP, se han unido otras como Samsung, principal fabricante mundial móvil, que ha confiado en Intel para sus nuevas Galaxy Tab 3.
En ella vemos en funcionamiento su SoC Intel Atom Clover Trail+, que cuenta no sólo con su procesador Z2560 a 1,6 GHz y una GPU PowerVr SXG544MP2, sino también con soporte LTE gracias a su XMM 7160. Una solución completa y de garantía que está viendo sus frutos. Pero aquí estamos hablando únicamente de sus Clover Trail+ Saltwell de 32nm.
El brillante futuro de Atom: Silvermont, Airmont y Goldmont
Si las cosas ya apuntaban maneras en el horizonte de Intel, sus nuevos SoCs Bay Trail, Cherry Trail y Willow Trail tienen todo lo necesario para arrasar con lo que se espera que ARM tiene previsto para el mercado en los próximos meses.
Entre nosotros ya está Bay Trail y sus procesadores Intel Silvermont de cuatro núcleos a 2,1 GHz, 22nm y 64 bits. El paso a 64 bits no sólo mejora sustancialmente su capacidad e interacción con memoria LDPDDR3, elevándola a 17 GB/s, sino que también supone la inclusión de GPUs propias de Intel, Ivy Bridge Generación 7, con un aumento de potencia de más del triple.
Pero esto sólo es la punta del iceberg. Antes de que acabe el 2014 Intel tiene previsto anunciar y lanzar de forma masiva sus SoCs Cherry Trail, con CPUs Airmont de cuatro núcleos a 2,7 Ghz y tecnología de 14nm, con los que esperan adelantar a ARM con bastante ventaja. En ellos veremos además las GPU Intel Broadwell Generación 8.
Y para el 2015 la propuesta de SoC de Intel se llama Willow Trail, y con ella vendrán los procesadores Goldmont y GPUs Generación 9. Una tecnología de la que todavía Intel no ha ofrecido muchos detalles pero que nos muestra que la intención de Intel en smartphones y tablets es consolidarse con propuestas claras y de futuro.
Las ventas de la BlackBerry Q10 se desploman
La BlackBerry Q10, el dispositivo con el que la compañía canadiense quería defender las virtudes del teclado físico en un mundo cada vez más táctil, está entrando demasiado pronto en un periodo de decadencia. El Wall Street Journal revela hoy que la Q10 está experimentado unas ventas asombrosamente bajas.
El diario neoyorquino cita a varios vendedores. Uno de ellos, Chris Jourdan, un distribuidor de Verizon Wireless que cuenta con 16 tiendas en el Medio Oeste de Estados Unidos, declaró que no ha visto “prácticamente ninguna demanda de la Q10“, y agregó que los pocos terminales que se venden son devueltos posteriormente por los clientes. Casi todo el stock fue devuelto a su proveedor de equipos.
Otro indicio de que los nuevos dispositivos BlackBerry no están vendiendo bien es que las tiendas de telefonía móvil no están viviendo la inundación de BlackBerry antiguas que normalmente se produce cuando se lanzan al mercado los nuevos modelos. Jeff Trachsel, director de Marketing de NextWorth, compañía que compra productos electrónicos usados, dijo que tanto el Q10 como el Z10 han resultado “nulos ” desde una perspectiva de intercambio.
Asimismo, un ejecutivo no identificado en una compañía canadiense valoraba igualmente a la baja la Q10. Este directivo fue mucho más gráfico: “el Q10, el que todos pensábamos que iba a ser el salvador, simplemente cayó al suelo y murió“. Este fracaso en su propia casa es un duro golpe para BlackBerry, que tenía la esperanza de que su país de origen le proporcionara fuertes ventas del Q10.
Un portavoz de BlackBerry se negó a hacer comentarios sobre las ventas de dispositivos. En su lugar, se refirió a los recientes acuerdos para suministrar los nuevos dispositivos a clientes corporativos, incluyendo Univision Communications, el Departamento de Defensa y ADP. La empresa debe informar de sus resultados trimestrales el 27 de septiembre.
El diario neoyorquino cita a varios vendedores. Uno de ellos, Chris Jourdan, un distribuidor de Verizon Wireless que cuenta con 16 tiendas en el Medio Oeste de Estados Unidos, declaró que no ha visto “prácticamente ninguna demanda de la Q10“, y agregó que los pocos terminales que se venden son devueltos posteriormente por los clientes. Casi todo el stock fue devuelto a su proveedor de equipos.
Otro indicio de que los nuevos dispositivos BlackBerry no están vendiendo bien es que las tiendas de telefonía móvil no están viviendo la inundación de BlackBerry antiguas que normalmente se produce cuando se lanzan al mercado los nuevos modelos. Jeff Trachsel, director de Marketing de NextWorth, compañía que compra productos electrónicos usados, dijo que tanto el Q10 como el Z10 han resultado “nulos ” desde una perspectiva de intercambio.
Asimismo, un ejecutivo no identificado en una compañía canadiense valoraba igualmente a la baja la Q10. Este directivo fue mucho más gráfico: “el Q10, el que todos pensábamos que iba a ser el salvador, simplemente cayó al suelo y murió“. Este fracaso en su propia casa es un duro golpe para BlackBerry, que tenía la esperanza de que su país de origen le proporcionara fuertes ventas del Q10.
Un portavoz de BlackBerry se negó a hacer comentarios sobre las ventas de dispositivos. En su lugar, se refirió a los recientes acuerdos para suministrar los nuevos dispositivos a clientes corporativos, incluyendo Univision Communications, el Departamento de Defensa y ADP. La empresa debe informar de sus resultados trimestrales el 27 de septiembre.
2013/08/28
Los bloqueadores de anuncios ganan adeptos
Una ventana imposible de cerrar por aquí, una descarga falsa allá y un sonido que no deja de sonar… La publicidad en Internet es cada vez más sofisticada y, en muchas ocasiones, molesta. Google Trends, la página que sirve para medir la evolución de una búsqueda, confirma la tendencia, cada vez más se intenta añadir un complemento para navegar con tranquilidad.
Adblock Plus es el servicio más popular para evitar la publicidad intrusiva. Funciona como un complemento para el navegador, aunque el nombre oficial es una extensión. Empezó para Firefox, pero ya tienen versión para Chrome, Opera y los móviles y tabletas Android. Este mismo mes han conseguido uno de los retos más complicados, ofrecer este mismo servicio en Internet Explorer.
Nacido en 2006 como un invento entre amigos, en 2011 se formalizó como una empresa radicada en Colonia (Alemania). En la actualidad cuenta con 15 trabajadores para servir a 61 millones de usuarios activos. En Estados Unidos rozan los 15 millones de suscriptores. Alemania, su cuna, le sigue con 9,5. En Francia ya superan cinco. En España esperan alcanzar los dos millones la próxima semana. En México registran 1,4 millones.
Su funcionamiento es sencillo. Se instala y a partir de ese momento desaparecen los anuncios molestos. Ya sean mensajes flotantes sobre un texto o ventanas emergentes. También hacen desaparecer los banners (anuncios alargados de las páginas web) animados o los que tienen sonido. Lo mismo sucede con los que contienen contenido engañoso como es el caso de falsos botones de descarga. Uno de sus avances más celebrados es la eliminación de los anuncios previos al visionado de un vídeo en YouTube.
Según un informe de Page Fair, el tipo de contenido afecta a la hora de bloquear la publicidad. Así los sitios en los que se suelen navegar con el freno publicitario con más frecuencia son los que tienen que ver, por este orden, con videojuegos, tecnología, cómics, adultos, entretenimiento, deportes, noticias, negocios, estilo de vida, actualidad local y viajes. Esta empresa irlandesa hizo el estudio tras estudiar los datos de 220 empresas que contrataron sus servicios para saber cuántos navegantes quitaban la publicidad al pasar por las páginas. El resultado fue del 22,7%. Sin embargo, les llamó la atención que en algunas de las páginas analizadas el uso de estos complementos había subido un 43% en los últimos cuatro meses.
Neil O’Connor, consejero delegado de Page Fair, alerta en la revista Forbes sobre el daño que hacen estos programas como Admuncher, Proximodo, o Abine o la citada alemana. “Cualquier de nuestros clientes puede ver cómo contar con un 25% de sus navegantes con este bloqueador puede hacer que su facturación disminuya 373.000 euros al año”. En su ejemplo se refiere a un editor con 90 millones de páginas vistas al mes.
Manuel Caballero, portavoz en español de Adblock Plus, insiste en que su labor es transparente y está en revisión constante: “No se trata de prohibir nada, sino de detectar la publicidad intrusiva y hacerla invisible. Presentamos unas directrices sobre lo que es aceptable y lo que no. Así queda claro lo que está en la lista blanca, publicidad no intrusiva y respetuosa, y lo que está en la negra”. Una de las ventajas de AdBlock Plus es que se puede adaptar al gusto del usuario y elegir qué tipo de publicidad acepta.
Adblock Plus es el servicio más popular para evitar la publicidad intrusiva. Funciona como un complemento para el navegador, aunque el nombre oficial es una extensión. Empezó para Firefox, pero ya tienen versión para Chrome, Opera y los móviles y tabletas Android. Este mismo mes han conseguido uno de los retos más complicados, ofrecer este mismo servicio en Internet Explorer.
Nacido en 2006 como un invento entre amigos, en 2011 se formalizó como una empresa radicada en Colonia (Alemania). En la actualidad cuenta con 15 trabajadores para servir a 61 millones de usuarios activos. En Estados Unidos rozan los 15 millones de suscriptores. Alemania, su cuna, le sigue con 9,5. En Francia ya superan cinco. En España esperan alcanzar los dos millones la próxima semana. En México registran 1,4 millones.
Su funcionamiento es sencillo. Se instala y a partir de ese momento desaparecen los anuncios molestos. Ya sean mensajes flotantes sobre un texto o ventanas emergentes. También hacen desaparecer los banners (anuncios alargados de las páginas web) animados o los que tienen sonido. Lo mismo sucede con los que contienen contenido engañoso como es el caso de falsos botones de descarga. Uno de sus avances más celebrados es la eliminación de los anuncios previos al visionado de un vídeo en YouTube.
Según un informe de Page Fair, el tipo de contenido afecta a la hora de bloquear la publicidad. Así los sitios en los que se suelen navegar con el freno publicitario con más frecuencia son los que tienen que ver, por este orden, con videojuegos, tecnología, cómics, adultos, entretenimiento, deportes, noticias, negocios, estilo de vida, actualidad local y viajes. Esta empresa irlandesa hizo el estudio tras estudiar los datos de 220 empresas que contrataron sus servicios para saber cuántos navegantes quitaban la publicidad al pasar por las páginas. El resultado fue del 22,7%. Sin embargo, les llamó la atención que en algunas de las páginas analizadas el uso de estos complementos había subido un 43% en los últimos cuatro meses.
Neil O’Connor, consejero delegado de Page Fair, alerta en la revista Forbes sobre el daño que hacen estos programas como Admuncher, Proximodo, o Abine o la citada alemana. “Cualquier de nuestros clientes puede ver cómo contar con un 25% de sus navegantes con este bloqueador puede hacer que su facturación disminuya 373.000 euros al año”. En su ejemplo se refiere a un editor con 90 millones de páginas vistas al mes.
Manuel Caballero, portavoz en español de Adblock Plus, insiste en que su labor es transparente y está en revisión constante: “No se trata de prohibir nada, sino de detectar la publicidad intrusiva y hacerla invisible. Presentamos unas directrices sobre lo que es aceptable y lo que no. Así queda claro lo que está en la lista blanca, publicidad no intrusiva y respetuosa, y lo que está en la negra”. Una de las ventajas de AdBlock Plus es que se puede adaptar al gusto del usuario y elegir qué tipo de publicidad acepta.
Las agencias de EEUU ven a Android como principal blanco de 'malware'
Android, el sistema operativo dominante en el mercado móvil, es el principal blanco de ciberataques debido a que muchos usuarios aún utilizan versiones antiguas del 'software', según un estudio del Departamento de Seguridad Nacional y el FBI.
Android fue blanco del 79% de todas las amenazas de 'malware' contra sistemas operativos en el 2012 y los troyanos en mensajes de texto representan cerca de la mitad de las amenazas, según el estudio de las agencias del Gobierno, publicado en el sitio en Internet Public Intelligence.
En comparación, cerca de un 19% de los ataques de 'malware' apuntaron contra el sistema Symbian de Nokia y menos de un 1% fue dirigido contra el software iOS de Apple, Windows de Microsoft y BlackBerry.
Android sigue siendo un "blanco primario para los ataques de 'malware' debido a su participación de mercado y arquitectura 'open source", recoge el estudio, dirigido a personal de la policía, bomberos, emergencias médicas y seguridad.
Android fue blanco del 79% de todas las amenazas de 'malware' contra sistemas operativos en el 2012 y los troyanos en mensajes de texto representan cerca de la mitad de las amenazas, según el estudio de las agencias del Gobierno, publicado en el sitio en Internet Public Intelligence.
En comparación, cerca de un 19% de los ataques de 'malware' apuntaron contra el sistema Symbian de Nokia y menos de un 1% fue dirigido contra el software iOS de Apple, Windows de Microsoft y BlackBerry.
Android sigue siendo un "blanco primario para los ataques de 'malware' debido a su participación de mercado y arquitectura 'open source", recoge el estudio, dirigido a personal de la policía, bomberos, emergencias médicas y seguridad.
Mejoran la predicción del riesgo de muerte en casos de insuficiencia cardiaca
Médicos españoles han creado una escala matemática para predecir el riesgo de mortalidad de los pacientes con insuficiencia cardiaca durante el primer año tras el diagnóstico.
Este proyecto, realizado por la Unidad de Investigación Clínica del Instituto de Investigación del hospital Doce de Octubre i+12, junto con los hospitales Virgen del Rocío y Valme de Sevilla, permite planificar de una forma más individualizada su tratamiento y así conseguir modificar la evolución de la enfermedad y mejorar su pronóstico, según un comunicado de la Comunidad de Madrid difundido hoy.
Se trata de un proyecto de investigación financiado por el Fondo de Investigación Sanitaria -FIS- del Instituto de Salud Carlos III, en el que también ha participado el Servicio de Medicina Interna del Doce de Octubre.
Para hacer el estudio se ha llevado a cabo un seguimiento durante un año de 600 pacientes con insuficiencia cardiaca recién diagnosticada, evaluando el tipo de patología cardiaca, las concentraciones de sodio y creatinina, y la capacidad de autonomía del paciente.
Esta última variable, según la nota, supone una novedad importante en este tipo de investigaciones, ya que la tendencia en los trabajos de investigación sobre riesgo en insuficiencia cardiaca es buscar marcadores biológicos complejos o alejados de la práctica clínica cotidiana que se identifiquen con factores pronóstico de la enfermedad, sin observar y cuantificar por ejemplo variables simples como el grado de autonomía para las actividades diarias de la persona a valorar.
Con estos datos, se ha elaborado la escala o regla de predicción clínica que permite determinar el riesgo de mortalidad de un paciente durante el primer año, tras iniciarse la enfermedad.
Según la información objeto de estudio en esta investigación, aproximadamente el 30 por ciento de los pacientes ha fallecido antes de cumplirse el primer año desde el diagnóstico inicial de la insuficiencia cardiaca.
Esta patología se produce cuando el corazón no es capaz de bombear sangre en la cantidad requerida por el cuerpo humano para desarrollar sus actividades habituales.
Se estima que la insuficiencia cardiaca afecta al 6,8 por ciento de los españoles mayores de 45 años, llegando a ascender hasta el 15 y 20 por ciento en las personas mayores de 85 años.
Este proyecto forma parte de la aportación del grupo español a la iniciativa conocida como 'Energing Risk Factors Collaboration', iniciada en 2006 por una agrupación internacional de científicos que pretende profundizar a través de un macroestudio en el conocimiento de nuevos factores de riesgo cardiovascular y en el comportamiento de los ya conocidos.
Tras repasar el papel de los lípidos, la glucemia y los marcadores inflamatorios en una cohorte de más de un millón de individuos, se ha podido especificar con mucha mayor precisión el tipo de relación que existe entre algunos componentes metabólicos y el riesgo de sufrir una enfermedad cardiovascular.
Estas investigaciones, divulgadas en la revista 'Cardiology Journals', forman parte de una serie de artículos recogidos en publicaciones científicas como 'The Lancet', 'Jama' y 'New England Journal of Medicine'.
Este proyecto, realizado por la Unidad de Investigación Clínica del Instituto de Investigación del hospital Doce de Octubre i+12, junto con los hospitales Virgen del Rocío y Valme de Sevilla, permite planificar de una forma más individualizada su tratamiento y así conseguir modificar la evolución de la enfermedad y mejorar su pronóstico, según un comunicado de la Comunidad de Madrid difundido hoy.
Se trata de un proyecto de investigación financiado por el Fondo de Investigación Sanitaria -FIS- del Instituto de Salud Carlos III, en el que también ha participado el Servicio de Medicina Interna del Doce de Octubre.
Para hacer el estudio se ha llevado a cabo un seguimiento durante un año de 600 pacientes con insuficiencia cardiaca recién diagnosticada, evaluando el tipo de patología cardiaca, las concentraciones de sodio y creatinina, y la capacidad de autonomía del paciente.
Esta última variable, según la nota, supone una novedad importante en este tipo de investigaciones, ya que la tendencia en los trabajos de investigación sobre riesgo en insuficiencia cardiaca es buscar marcadores biológicos complejos o alejados de la práctica clínica cotidiana que se identifiquen con factores pronóstico de la enfermedad, sin observar y cuantificar por ejemplo variables simples como el grado de autonomía para las actividades diarias de la persona a valorar.
Con estos datos, se ha elaborado la escala o regla de predicción clínica que permite determinar el riesgo de mortalidad de un paciente durante el primer año, tras iniciarse la enfermedad.
Según la información objeto de estudio en esta investigación, aproximadamente el 30 por ciento de los pacientes ha fallecido antes de cumplirse el primer año desde el diagnóstico inicial de la insuficiencia cardiaca.
Esta patología se produce cuando el corazón no es capaz de bombear sangre en la cantidad requerida por el cuerpo humano para desarrollar sus actividades habituales.
Se estima que la insuficiencia cardiaca afecta al 6,8 por ciento de los españoles mayores de 45 años, llegando a ascender hasta el 15 y 20 por ciento en las personas mayores de 85 años.
Este proyecto forma parte de la aportación del grupo español a la iniciativa conocida como 'Energing Risk Factors Collaboration', iniciada en 2006 por una agrupación internacional de científicos que pretende profundizar a través de un macroestudio en el conocimiento de nuevos factores de riesgo cardiovascular y en el comportamiento de los ya conocidos.
Tras repasar el papel de los lípidos, la glucemia y los marcadores inflamatorios en una cohorte de más de un millón de individuos, se ha podido especificar con mucha mayor precisión el tipo de relación que existe entre algunos componentes metabólicos y el riesgo de sufrir una enfermedad cardiovascular.
Estas investigaciones, divulgadas en la revista 'Cardiology Journals', forman parte de una serie de artículos recogidos en publicaciones científicas como 'The Lancet', 'Jama' y 'New England Journal of Medicine'.
Apple habría comprado su propio algoritmo de compresión de datos
Los datos lo son todo en el mundo actual… y cada vez son más y ocupan más espacio por lo que se aprecia el esfuerzo de dejar una menor “huella digital” haciendo que se necesite menor espacio para almacenarlos y su transmisión sea más veloz. Las grandes empresas son conscientes de los múltiples beneficios (incluidos económicos) en este sentido, de ahí que tenga todo su sentido la adquisición por parte de la empresa de la manzana mordida de la empresa sueca AlgoTrim especializada en este campo.
Ya Facebook, con sus más de mil millones de usuarios generando ingentes cantidades de datos sin parar (comentarios, fotos, vídeos…) es consciente de la creciente importancia de la gestión de los datos y de que estos ocupen lo menos posible.
En ese sentido se acaba de confirmar por parte de un portavoz de Apple la adquisición de AlgoTrim, una start-up sueca especializada en la compresión de datos sin pérdida de información.
Los primeros análisis estiman que el interés en Cupertino estaría dirigido a reducir la cantidad de datos que se emplean en iOS. También hay quien estima que otra posible aplicación de esta tecnología tendría que ver con la compresión relacionada con la imagen, al estilo de la tecnología de Nokia vista en su familia Pure View que posibilitaría una nueva generación de captura de imágenes de gran resolución (y baja cantidad de datos) en los dispositivos móviles de Apple.
Hasta hora AlgoTrim ha trabajado en la mejora de de la decodificación de imágenes para visualizarlas con mayor rapidez en la app Galería Google de la versión Ice Cream Sandwich de Android
Ya Facebook, con sus más de mil millones de usuarios generando ingentes cantidades de datos sin parar (comentarios, fotos, vídeos…) es consciente de la creciente importancia de la gestión de los datos y de que estos ocupen lo menos posible.
En ese sentido se acaba de confirmar por parte de un portavoz de Apple la adquisición de AlgoTrim, una start-up sueca especializada en la compresión de datos sin pérdida de información.
Los primeros análisis estiman que el interés en Cupertino estaría dirigido a reducir la cantidad de datos que se emplean en iOS. También hay quien estima que otra posible aplicación de esta tecnología tendría que ver con la compresión relacionada con la imagen, al estilo de la tecnología de Nokia vista en su familia Pure View que posibilitaría una nueva generación de captura de imágenes de gran resolución (y baja cantidad de datos) en los dispositivos móviles de Apple.
Hasta hora AlgoTrim ha trabajado en la mejora de de la decodificación de imágenes para visualizarlas con mayor rapidez en la app Galería Google de la versión Ice Cream Sandwich de Android
El himno argentino entra en el ADN de una bacteria en su 200 cumpleaños
Científicos argentinos lograron convertir, gracias a un algoritmo, el himno nacional en información no genética que puede ser almacenada en el ADN de una bacteria y, desde allí, ser recuperada y vuelta a transformar en música.
El proyecto fue realizado por un grupo de alumnos e investigadores del Instituto de Tecnología de la Universidad Argentina de la Empresa (UADE), ubicada en la capital argentina.
Además, diseñaron una herramienta web para que cualquiera pueda convertir música al formato genético del ADN (Ácido desoxirribonucleico) y viceversa.
"Queríamos demostrar que era posible almacenar información no biológica en ADN utilizando herramientas informáticas simples", explicó Federico Prada, Director de la licenciatura en Bioinformática de la UADE a cargo del proyecto.
Explicó que utilizaron como base dos publicaciones recientes de las revistas Science y Nature para desarrollar su propio algoritmo.
"La obra musical seleccionada era un detalle menor, pero nos decidimos por el himno nacional argentino porque este año es el bicentenario de su creación, queríamos homenajearlo de este modo", agregó Prada.
"Posiblemente lo más importante de las bacterias es su capacidad de duplicar la información genética cada 20 minutos. Son nuestras "fotocopiadoras de información". En una noche de crecimiento y división celular podríamos conseguir una copia del himno para cada habitante del planeta tierra", concluyó.
No afecta a la bacteria
Federico Prada coordinó las acciones de los estudiantes de Bioinformática Guido de Luca y Verónica Di Mateo y la docente Julieta Nafissi.
Guido de Luca explicó que el algoritmo, además de permitir transformar la música en información almacenable en el ADN, también guarda datos sobre la duración y el volumen de las notas.
Y agregó: "Hoy en día sólo acepta información musical en formato MIDI, pero estamos trabajando para que pueda aceptar cualquier información digital que se desee".
Introducir la información no afecta a la bacteria, según explica Julieta Nafissi.
"La bacteria sólo actúa como un conductor, como una biblioteca portadora de información. Las estanterías de madera que sostienen los libros en una biblioteca no saben leer, pero funcionan muy bien como soporte de información", detalló Nafissi. La investigadora agregó que "tampoco afectaría a una persona" pero que "el proyecto no está pensado para utilizar a personas como transportadores de información no biológica".
El himno estará en unas moléculas llamadas plásmidos que están circularizadas.
La bacteria se transformó en un organismo transgénico que contiene una molécula de ADN recombinante: una parte natural y otra modificada por el hombre.
Lo primero que hicieron fue encontrar un algoritmo que permitiera convertir música en una secuencia compuesta por nueve bases de ADN. Estas secuencias se forman de la combinación de cuatro nucleótidos, identificados con las letras A, C, G y T, que contienen información sobre la tonalidad, clave y duración de cada nota.
No solo lograron convertir la partitura del himno nacional argentino en una extensa sucesión de letras, sino que su función les permite traducir cualquier otra composición a lenguaje genético.
El 11 de mayo de 1813, la Asamblea General Constituyente y Soberana de Argentina sancionó como himno nacional la canción patriótica con letra de Vicente López y Planes y música de Blas Parera.
El himno fue presentado por primera vez en la casa de Mariquita Sánchez de Thompson, quien además entonó las primeras estrofas, tres días después.
El proyecto fue realizado por un grupo de alumnos e investigadores del Instituto de Tecnología de la Universidad Argentina de la Empresa (UADE), ubicada en la capital argentina.
Además, diseñaron una herramienta web para que cualquiera pueda convertir música al formato genético del ADN (Ácido desoxirribonucleico) y viceversa.
"Queríamos demostrar que era posible almacenar información no biológica en ADN utilizando herramientas informáticas simples", explicó Federico Prada, Director de la licenciatura en Bioinformática de la UADE a cargo del proyecto.
Explicó que utilizaron como base dos publicaciones recientes de las revistas Science y Nature para desarrollar su propio algoritmo.
"La obra musical seleccionada era un detalle menor, pero nos decidimos por el himno nacional argentino porque este año es el bicentenario de su creación, queríamos homenajearlo de este modo", agregó Prada.
"Posiblemente lo más importante de las bacterias es su capacidad de duplicar la información genética cada 20 minutos. Son nuestras "fotocopiadoras de información". En una noche de crecimiento y división celular podríamos conseguir una copia del himno para cada habitante del planeta tierra", concluyó.
No afecta a la bacteria
Federico Prada coordinó las acciones de los estudiantes de Bioinformática Guido de Luca y Verónica Di Mateo y la docente Julieta Nafissi.
Guido de Luca explicó que el algoritmo, además de permitir transformar la música en información almacenable en el ADN, también guarda datos sobre la duración y el volumen de las notas.
Y agregó: "Hoy en día sólo acepta información musical en formato MIDI, pero estamos trabajando para que pueda aceptar cualquier información digital que se desee".
Introducir la información no afecta a la bacteria, según explica Julieta Nafissi.
"La bacteria sólo actúa como un conductor, como una biblioteca portadora de información. Las estanterías de madera que sostienen los libros en una biblioteca no saben leer, pero funcionan muy bien como soporte de información", detalló Nafissi. La investigadora agregó que "tampoco afectaría a una persona" pero que "el proyecto no está pensado para utilizar a personas como transportadores de información no biológica".
El himno estará en unas moléculas llamadas plásmidos que están circularizadas.
La bacteria se transformó en un organismo transgénico que contiene una molécula de ADN recombinante: una parte natural y otra modificada por el hombre.
Lo primero que hicieron fue encontrar un algoritmo que permitiera convertir música en una secuencia compuesta por nueve bases de ADN. Estas secuencias se forman de la combinación de cuatro nucleótidos, identificados con las letras A, C, G y T, que contienen información sobre la tonalidad, clave y duración de cada nota.
No solo lograron convertir la partitura del himno nacional argentino en una extensa sucesión de letras, sino que su función les permite traducir cualquier otra composición a lenguaje genético.
El 11 de mayo de 1813, la Asamblea General Constituyente y Soberana de Argentina sancionó como himno nacional la canción patriótica con letra de Vicente López y Planes y música de Blas Parera.
El himno fue presentado por primera vez en la casa de Mariquita Sánchez de Thompson, quien además entonó las primeras estrofas, tres días después.
Los problemas sexuales y de pareja llenan 'las ciberterapias'
Las sesiones con el psicólogo abandonan el diván y se pasan a la pantalla de ordenador, al menos a juzgar por la cantidad de portales que anuncian “ciberterapias”. Precios más económicos, mayor flexibilidad horaria y la comodidad de no tener que desplazarse son los principales motivos por los cuales este tipo de consultas van al alza. Los colegios de psicólogos y profesionales de terapias presenciales reconocen la eficacia de estos tratamientos, pero advierten de que no todos los problemas pueden ser tratados solo a través de la red.
“Las ciberterapias” viven en la actualidad su máxima eclosión, coincidiendo con la llegada masiva de internet a los hogares. La sensación de lejanía con el profesional y la posibilidad de anonimato que ofrece la computadora hacen aflorar pacientes que de otro modo nunca llamarían a la puerta del psicólogo. Por eso no es de extrañar que los problemas de sexualidad y de pareja se sitúen en los primeros lugares del ranking de las consultas más frecuentes. Otras preocupaciones que colman la lista, según los expertos, son los problemas familiares y las relaciones entre padres e hijos. “La crisis provoca más tensiones familiares”, alertan.
El perfil de los usuarios son personas que “por timidez o por el propio trastorno – como fobia social, agorafobia y depresión profunda- o bien porque viven en el extranjero” prefieren utilizar internet para tratar su malestar, explica Lorena González, psicóloga clínica y codirectora de ciberterapias.com. Vicente Mars Llopis, director de psicología-online, descarta que los pacientes con brotes psicóticos y personas con tendencia suicida sean aptos para este tipo de terapias. Mientras que el decano del Colegio Oficial de Psicólogos de Catalunya, Josep Vilajoana, excluiría en general de las consultas on line las personas que sufren “trastornos mentales graves”.
Teléfono, correo electrónico o videollamada son los tres canales que se utilizan en “las ciberterapias”. Lorena González se decanta en su plataforma, formada por un equipo de psicólogos de diversas especialidades, por contactar con sus pacientes vía Skype. “La eficacia se reduce si tienes menos canales de comunicación”, afirma. Explica que el año pasado comenzó a prestar este servicio después de conocer a emigrantes españoles “que lo estaban pasando muy mal” en el extranjero y no disponían de un psicólogo de habla hispana en la misma ciudad.
Los límites de las consultas psicológicas on line
La ciberterapia “es igual que una sesión presencial siempre y cuando la conexión sea óptima”, aclara González. En este sentido Mars Llopis, que durante cinco años pasó consulta desde el ordenador, cuenta que la primera fase en una terpia on line es de valoración –“decides si es un caso para ti o no”-; y en caso afirmativo, el siguiente paso es consensuar con el paciente “una línea de trabajo”. Si el profesional decide que el problema no se puede tratar a distancia “debe derivar, motivar y ayudar” a la persona a conseguir un psicólogo que pueda atenderle “cara a cara”.
En ocasiones el paciente exige al profesional preservar su anonimato, algo que suele ocurrir con las personas “tímidas o paranoicas”, comenta Mars Llopis. En este sentido Lorena González detalla que en cualquier caso el equipo preserva la confidencialidad del que está al otro lado de la pantalla, que ni siquiera tiene que revelar su nombre verdadero. “Hay gente que nos pide al principio no poner la cámara, pero luego en las próximas visitas acaban aceptando”, relata. Mars Llopis añade que los pacientes con timidez se refugian rápidamente en el consejo on line, pero no cree que sea lo más adecuado para estos pacientes, “que deberían romper esas barreras y hacer terapia de habilidades sociales y en grupo”.
“La indicación más acertada es aquella que contempla un mínimo de trabajo presencial”, opina el decano del Colegio Oficial de Psicólogos de Catalunya, Josep Vilajoana, que añade que el organismo contempla dar más protagonismo a la psicología on line en la reforma de los estatutos que se pretende aprobar a principios del año que viene. Vilajoana también concibe este tipo de atención como parte del seguimiento de una terapia presencial en determinados casos: por ejemplo, un paciente con un trastorno mental importante que ya ha sido estabilizado y mantiene una buena relación con el profesional del área de salud mental.
Una de las cosas que más suele preocupar a los que por primera vez se interesan por conocer la dinámica de una terapia on line es si el contacto entre paciente y profesional es más frío que en un consultorio convencional. Lorena González reconoce que es algo que se planteó en un inicio, pero que la práctica le ha demostrado que “precisamente a causa de la sensación de lejanía, la gente pierde muchas barreras en cuanto a timidez e introversión, algo que ayuda a la hora de comunicar las emociones al principio de la terapia”.
Más económico
El precio de "una ciberterapia" puede oscilar entre 15 y 40 euros la sesión. Unas tarifas más asequibles que en las consultas presenciales. Al igual que ocurre en terapias cara a cara, el número de citas necesarias depende del estado de salud mental de cada paciente. Suele concertarse una visita por semana y a poco a poco se van espaciando las citas a medida que el paciente va mejorando. Una vez finalizada la terapia, “aconsejamos volver a pedir cita a los seis meses o al año” para descartar una recaída, explica Mars Llopis.
Cuidado con el intruso
“Nos tomamos muy en serio la persecución de la línea falsamente psicológica y esotérica”, avisa el decano del Colegio Oficial de Psicólogos de Catalunya. En este sentido pide precaución a la hora de diferenciar entre el psicólogo, actividad regulada por la ley, y la psicoterapia o terapia, que no lo están. En este sentido se expresa Mars Llopis cuando afirma que “hay mucho intrusismo en el sector”, gente sin cualificación ni preparación que “se autodenomina terapeuta” solo porque ha hecho algún cursillo. “Ni siquiera con la licenciatura ni el grado están capacitados para desarrollar este trabajo”, opina, y aclara que muchos problemas mentales son materia reservada para el psicólogo clínico.
Los orígenes de la ‘ciberterapia’
“Internet al principio no genera confianza”, reconoce Lorena González. Una duda que los psicólogos que atienden on line perciben cuando “alguien pide una cita y luego no se presenta o la anulan”. Explica que en Estados Unidos existe “una fuerte corriente” a utilizar videoconferencias en los tratamientos psicológicos on line, gracias a lo cual “se ha podido estudiar su eficacia”. En general, considera que en España a la gente le cuesta ir al psicólogo, “como si tuviera una connotación negativa” ya que se ha vinculado “la psicología con la histeria o la locura”, y en ocasiones se cree erróneamente que el psicólogo es solo “un amigo que escucha”.
Mars Llopis recuerda que la psicología empezó a tomar una vertiente clínica en la Segunda Guerra Mundial en Estados Unidos, época en la que había escasez de psiquiatras para atender a la población afectada, por lo que se acabó recurriendo al psicólogo, que pasó a formar parte del gabinete de crisis. “Pero en España no tenemos tradición y, en segundo lugar, los psiquiatras y médicos no fomentan el psicólogo”, lamenta. No obstante, reconoce que en la actualidad cada vez hay más gente que recurre a este tipo de ayuda.
Pero, ¿cómo saber si se trata de una mala racha o es preciso recurrir al consejo de un profesional en salud mental? Lorena González responde que siempre que uno se sienta “perdido, triste, le cueste adaptarse a una situación de cambio, tenga una autoestima baja o sienta malestar o sufrimiento en su vida cotidiana”.
“Las ciberterapias” viven en la actualidad su máxima eclosión, coincidiendo con la llegada masiva de internet a los hogares. La sensación de lejanía con el profesional y la posibilidad de anonimato que ofrece la computadora hacen aflorar pacientes que de otro modo nunca llamarían a la puerta del psicólogo. Por eso no es de extrañar que los problemas de sexualidad y de pareja se sitúen en los primeros lugares del ranking de las consultas más frecuentes. Otras preocupaciones que colman la lista, según los expertos, son los problemas familiares y las relaciones entre padres e hijos. “La crisis provoca más tensiones familiares”, alertan.
El perfil de los usuarios son personas que “por timidez o por el propio trastorno – como fobia social, agorafobia y depresión profunda- o bien porque viven en el extranjero” prefieren utilizar internet para tratar su malestar, explica Lorena González, psicóloga clínica y codirectora de ciberterapias.com. Vicente Mars Llopis, director de psicología-online, descarta que los pacientes con brotes psicóticos y personas con tendencia suicida sean aptos para este tipo de terapias. Mientras que el decano del Colegio Oficial de Psicólogos de Catalunya, Josep Vilajoana, excluiría en general de las consultas on line las personas que sufren “trastornos mentales graves”.
Teléfono, correo electrónico o videollamada son los tres canales que se utilizan en “las ciberterapias”. Lorena González se decanta en su plataforma, formada por un equipo de psicólogos de diversas especialidades, por contactar con sus pacientes vía Skype. “La eficacia se reduce si tienes menos canales de comunicación”, afirma. Explica que el año pasado comenzó a prestar este servicio después de conocer a emigrantes españoles “que lo estaban pasando muy mal” en el extranjero y no disponían de un psicólogo de habla hispana en la misma ciudad.
Los límites de las consultas psicológicas on line
La ciberterapia “es igual que una sesión presencial siempre y cuando la conexión sea óptima”, aclara González. En este sentido Mars Llopis, que durante cinco años pasó consulta desde el ordenador, cuenta que la primera fase en una terpia on line es de valoración –“decides si es un caso para ti o no”-; y en caso afirmativo, el siguiente paso es consensuar con el paciente “una línea de trabajo”. Si el profesional decide que el problema no se puede tratar a distancia “debe derivar, motivar y ayudar” a la persona a conseguir un psicólogo que pueda atenderle “cara a cara”.
En ocasiones el paciente exige al profesional preservar su anonimato, algo que suele ocurrir con las personas “tímidas o paranoicas”, comenta Mars Llopis. En este sentido Lorena González detalla que en cualquier caso el equipo preserva la confidencialidad del que está al otro lado de la pantalla, que ni siquiera tiene que revelar su nombre verdadero. “Hay gente que nos pide al principio no poner la cámara, pero luego en las próximas visitas acaban aceptando”, relata. Mars Llopis añade que los pacientes con timidez se refugian rápidamente en el consejo on line, pero no cree que sea lo más adecuado para estos pacientes, “que deberían romper esas barreras y hacer terapia de habilidades sociales y en grupo”.
“La indicación más acertada es aquella que contempla un mínimo de trabajo presencial”, opina el decano del Colegio Oficial de Psicólogos de Catalunya, Josep Vilajoana, que añade que el organismo contempla dar más protagonismo a la psicología on line en la reforma de los estatutos que se pretende aprobar a principios del año que viene. Vilajoana también concibe este tipo de atención como parte del seguimiento de una terapia presencial en determinados casos: por ejemplo, un paciente con un trastorno mental importante que ya ha sido estabilizado y mantiene una buena relación con el profesional del área de salud mental.
Una de las cosas que más suele preocupar a los que por primera vez se interesan por conocer la dinámica de una terapia on line es si el contacto entre paciente y profesional es más frío que en un consultorio convencional. Lorena González reconoce que es algo que se planteó en un inicio, pero que la práctica le ha demostrado que “precisamente a causa de la sensación de lejanía, la gente pierde muchas barreras en cuanto a timidez e introversión, algo que ayuda a la hora de comunicar las emociones al principio de la terapia”.
Más económico
El precio de "una ciberterapia" puede oscilar entre 15 y 40 euros la sesión. Unas tarifas más asequibles que en las consultas presenciales. Al igual que ocurre en terapias cara a cara, el número de citas necesarias depende del estado de salud mental de cada paciente. Suele concertarse una visita por semana y a poco a poco se van espaciando las citas a medida que el paciente va mejorando. Una vez finalizada la terapia, “aconsejamos volver a pedir cita a los seis meses o al año” para descartar una recaída, explica Mars Llopis.
Cuidado con el intruso
“Nos tomamos muy en serio la persecución de la línea falsamente psicológica y esotérica”, avisa el decano del Colegio Oficial de Psicólogos de Catalunya. En este sentido pide precaución a la hora de diferenciar entre el psicólogo, actividad regulada por la ley, y la psicoterapia o terapia, que no lo están. En este sentido se expresa Mars Llopis cuando afirma que “hay mucho intrusismo en el sector”, gente sin cualificación ni preparación que “se autodenomina terapeuta” solo porque ha hecho algún cursillo. “Ni siquiera con la licenciatura ni el grado están capacitados para desarrollar este trabajo”, opina, y aclara que muchos problemas mentales son materia reservada para el psicólogo clínico.
Los orígenes de la ‘ciberterapia’
“Internet al principio no genera confianza”, reconoce Lorena González. Una duda que los psicólogos que atienden on line perciben cuando “alguien pide una cita y luego no se presenta o la anulan”. Explica que en Estados Unidos existe “una fuerte corriente” a utilizar videoconferencias en los tratamientos psicológicos on line, gracias a lo cual “se ha podido estudiar su eficacia”. En general, considera que en España a la gente le cuesta ir al psicólogo, “como si tuviera una connotación negativa” ya que se ha vinculado “la psicología con la histeria o la locura”, y en ocasiones se cree erróneamente que el psicólogo es solo “un amigo que escucha”.
Mars Llopis recuerda que la psicología empezó a tomar una vertiente clínica en la Segunda Guerra Mundial en Estados Unidos, época en la que había escasez de psiquiatras para atender a la población afectada, por lo que se acabó recurriendo al psicólogo, que pasó a formar parte del gabinete de crisis. “Pero en España no tenemos tradición y, en segundo lugar, los psiquiatras y médicos no fomentan el psicólogo”, lamenta. No obstante, reconoce que en la actualidad cada vez hay más gente que recurre a este tipo de ayuda.
Pero, ¿cómo saber si se trata de una mala racha o es preciso recurrir al consejo de un profesional en salud mental? Lorena González responde que siempre que uno se sienta “perdido, triste, le cueste adaptarse a una situación de cambio, tenga una autoestima baja o sienta malestar o sufrimiento en su vida cotidiana”.
Suscribirse a:
Entradas (Atom)