Buscar

2014/11/07

La televisión de pago, preocupada por Netflix y HBO

Empresarios de la televisión de pago reunidos en Miami (EEUU) advirtieron este jueves que el modelo de vídeo bajo demanda o streaming puesto en marcha por Netflix supone una "amenaza" para los operadores tradicionales de una industria que mueve anualmente más de 27.000 millones de dólares en Latinoamérica.

Ariel Barlaro, vicepresidente de Dataxis Latin American, dijo a Efe que está en juego quién se queda con un mercado que actualmente tiene en Latinoamérica 53,7 millones de suscriptores de televisión de pago, ya sea por cable o satélite, ante la "amenaza" de servicios nuevos como Netflix, que en breve será secundada por una potencia televisiva como HBO.

"Esta industria, en Estados Unidos y en América Latina, se pregunta hoy cómo va a ser en el futuro", agregó Barlaro, ejecutivo de la compañía organizadora del foro NextTV Latin America, que reunió a cientos de empresarios del sector en Miami.

Los llamados over the top (OTT), como Neflix, ofrecen "una solución directa de entretenimiento" a menor precio, aunque dependen de la "calidad de internet que pueda tener el usuario", indicó David Guerra, vicepresidente de Emerging Markets Communications (EMC), un proveedor mundial de comunicaciones terrestre y satelital.

Guerra aseguró a EFE que este nuevo competidor ha generado el recelo de los operadores de cable.

La transformación de esta industria, explicó Barlaro, "vincula completamente" a Latinoamérica con Estados Unidos, ya que la región ya ha adoptado la "programación, modelo de negocio y formato estadounidenses".

El millonario negocio podrá estar en manos, según el experto, de "los operadores tradicionales, los nuevos servicios como Netflix y otros que seguramente irán a Latinoamérica, o directamente los estudios o grupos de medios de comunicación".

Barlaro aseguró que ambas regiones enfrentan el mismo dilema, pero mientras en Estados Unidos el mercado de la televisión de pago se saturó, al llegar al 90% de penetración en 2013, en Latinoamérica ha sido un "boom" en los últimos años al pasar del 20% de penetración de 2008 al 40% este año, con proyecciones de alcanzar el 55% en 2018.

Agregó que en Estados Unidos servicios como Netflix están generando desconexiones para los operadores de televisión de pago, mientras que en Latinoamérica ha sido muy "compensado", porque la región no tiene los niveles de penetración estadounidenses, y el cable y satélite son mercados "florecientes".

"Netflix se está convirtiendo prácticamente en el quinto operador en Latinoamérica", advirtió, sin embargo, el experto.

Esta plataforma estadounidense de cine y televisión por internet llegó a Latinoamérica en 2011 y ya cuenta con 3,3 millones de suscriptores, según datos de este año de Dataxis Latin American, compañía especializada en el negocio de la televisión.

En Latinoamérica, la mexicana América Móvil y la estadounidense DirecTV se llevan prácticamente la mitad del mercado, con 14,3 y 12,3 millones de suscriptores, respectivamente, y le siguen la mexicana Televisa, con 8,4; la argentina Cablevisión, con 3,5 millones; y la española Telefónica, con 3 millones.

Las alertas en esta industria saltaron a mediados de octubre cuando la estadounidense HBO anunció que a partir de 2015 iba a abrir en Estados Unidos la suscripción directa al usuario final, saltándose a los operadores de televisión de pago tradicionales.

En el foro de este jueves, los ejecutivos de canales de televisión y de operadores de cable se mostraron muy cautelosos, después de que el anuncio de HBO generara polémica en el sector.

La creciente competencia, principalmente por parte de Netflix, Hulu y Amazon.com, y los cambios en las tendencias de los consumidores llevaron a HBO a volcar sus productos en internet y apostar por el mercado del vídeo por streaming (emisión en directo).

"Esta convergencia al final es en beneficio del usuario final, porque ha hecho despertar a las compañías de cable" para que mejoren sus servicios si quieren retener a los suscriptores, agregó Guerra.

La comunidad médica reconoce su error: las grasas no son el problema

La ciencia médica se corrige a sí misma, con mayor o menor rapidez. A la iglesia le costó 350 años reconocer que la tierra no era el centro del universo. Sin embargo, en solo 50 años, la comunidad médica empieza a aceptar que la grasa no es la principal causa, ni de los ataques al corazón, ni de ese flotador alrededor de tu cintura.

Según la propia portavoz de la American Heart Association "ya no creemos que las dietas bajas en grasa sean la respuesta". En septiembre de este año se publica un estudio en el National Institutes of Health en EEUU, en el que se divide a 148 personas sanas en dos grupos. Un grupo sigue una dieta baja en grasas. El otro, una dieta baja en carbohidratos y alta en grasa y proteína.

Pasa un año, y contrariamente a lo que la mayoría de los médicos podrían esperar, estos son los resultados:

    Los participantes que siguieron una dieta baja en carbohidratos y alta en grasa y proteína perdieron más peso que los del grupo con la dieta baja en grasa.

    No solamente peso, sino que los de la dieta baja en carbohidratos perdieron más grasa en proporción, y conservaron o ganaron masa muscular, mientras que los de la dieta baja en grasa perdieron músculo.

    Los dos grupos redujeron sus niveles de colesterol en sangre, pero los de la dieta baja en carbohidratos redujeron su nivel de triglicéridos y aumentaron su nivel de colesterol HDL (el bueno).

    La fórmula de Framingham calcula el riesgo de sufrir un ataque al corazón en los próximos 10 años. Los participantes que siguieron una dieta baja en carbohidratos y alta en grasa y proteína vieron reducido su riesgo, mientras que los que siguieron una dieta baja en grasa, no.

La importancia de este estudio es monumental. Se está desmontando pieza a pieza la hipótesis lipídica, una teoría que la ciencia médica asumía sin reservas como verdadera, y que es la causa de que exista comida baja en grasa en el supermercado, y en última instancia, de que la gente esté más gorda y más enferma.
La falacia de la hipótesis lipídica

La hipótesis lipídica nació en los años 70, cuando los casos de infartos cardíacos estaban multiplicándose en EEUU. Aunque es más compleja, se puede resumir en la frase siguiente:

"Hacer que baje el colesterol en sangre reduce el riesgo de enfermedades cardiovasculares."

Cuando se habla de enfermedad cardiovascular se piensa siempre en la arteriosclerosis. Consiste en la formación de placas en las paredes de las arterias. Si las placas son grandes, los vasos sanguíneos terminan por obstruirse. Si se corta el riego sanguíneo a un tejido durante más de cinco minutos, el tejido muere. Es al final lo que le ocurre al corazón durante un infarto: parte del músculo cardíaco muere por falta de riego.

Pero ¿por qué se forman placas en las arterias? Aunque no se comprende totalmente, se sabe que hay una acumulación en las paredes de los vasos de lipoproteínas de baja densidad (LDL), que transportan colesterol. Estas moléculas se oxidan, y son atacadas por los glóbulos blancos. Si no llegan a tiempo las lipoproteínas de alta densidad (HDL) a limpiar el estropicio llevándose la grasa, se forma una placa de glóbulos blancos muertos, colesterol y cristales de calcio. Esta acumulación es la que obstruye la arteria.

Es decir, el problema surge cuando hay altos niveles de colesterol en forma de LDL, y bajos niveles de colesterol en forma de HDL. El colesterol no es malo por sí mismo, es una molécula esencial para el funcionamiento de tu organismo.

¿Cuál fue la respuesta en los años 70? Pues si el problema es el colesterol, la solución es hacer que baje el colesterol en sangre. Para conseguir esto, hay que comer menos comida con colesterol (grasas saturadas) y así habrá menos colesterol en sangre. Como dijo Mencken, "para cada problema complejo, existe una solución que es simple, elegante y equivocada". La hipótesis lipídica es todo eso.

El principal artífice de la hipótesis lipídica es el investigador de Minnesota Ancel Keys, autor del llamado "estudio de los siete países" un estudio con cohortes (grupos) a lo largo de 15 años en EEUU, Grecia, Finlandia, Italia, Holanda, la entonces Yugoslavia y Japón.

Este estudio está lleno de trampas: desde seleccionar los países donde los datos salían favorables a la teoría, y descartar los que no, hasta ignorar otros factores de riesgo, como el consumo de azúcar, tabaco o alcohol. Durante los cuarenta años siguientes, surgieron tantos estudios a favor como en contra, pero los que apoyaban la hipótesis lipídica se citaban seis veces más.

La hipótesis lipídica también justifica la existencia de las estatinas, los medicamentos más vendidos del mundo, y que son las famosas pastillas para hacer descender el colesterol.

Estas conclusiones se convirtieron casi en un dogma, y cuando un paciente acudía a la consulta con el colesterol LDL alto, y por tanto con riesgo de padecer arteriosclerosis, la receta era siempre la misma: nada de embutido, ni huevos, ni mantequilla, ni leche entera, ni queso, ni carne roja, y tome esta dosis diaria de estatinas durante el resto de su vida.

La hipótesis lipídica hace aguas por todos lados:

    Ya antes de la introducción de las estatinas se cuestionó el método y las conclusiones del estudio de los siete países

    Reducir el colesterol, sea por medio de la dieta o por la administración de estatinas, no reduce la mortalidad de los pacientes, y puede aumentarla.

    La hipótesis de Keys de que al reducir la grasa saturada se reducen las enfermedades cardiovasculares se ha descrito como "una falacia". Un meta análisis de 2014 (resumiendo 74 estudios anteriores) no encontró ninguna relación.

    Varios estudios recientes indican que son los azúcares los principales causantes del aumento del colesterol LDL (el malo)

    Por otro lado se ha comprobado que las grasas saturadas hacen aumentar el colesterol HDL (el bueno).

¿Quieres cuidar de tu corazón y adelgazar? Deja los cereales de desayuno. Come huevos con bacon.
No mueras de un ataque al corazón, anda

Si la grasa no es culpable, ¿qué tenemos que hacer para reducir el riesgo de morir de un ataque al corazón? Muchos de los consejos habituales siguen siendo válidos, y hay otros nuevos:

    Limita o elimina el azúcar, las harinas, pasta, cereales de desayuno, bebidas azucaradas, pasteles, zumos de fruta, y empieza a verlos como lo que son: precursores de la grasa en tus arterias y tu cintura.

    Muévete más: tienes que hacer ejercicio intenso al menos media hora, cinco veces por semana.

    Consume fibra en tu comida, sobre todo en forma de verduras, y en menor cantidad, de la fruta

    Olvídate del tabaco

    Limita el alcohol a una copa de vino al día

    Reduce tu grasa corporal, muy distinto de reducir tu peso.

    Reduce tu estrés: si estás estresado se producen radicales libres que oxidan el colesterol LDL

Resuelto el misterio sobre el origen de los penes

Cuando los vertebrados pasaron a tener un estilo de vida terrestre, tuvieron que adaptar su aparato locomotor y sus órganos reproductivos. Pero poco se sabe de cómo la evolución promovió el desarrollo de los genitales externos que permitieron a los animales reproducirse en tierra firme.

Esta parte del aparato reproductor presenta diferencias según la especie. Por ejemplo, los genitales de la serpiente y los del lagarto se derivan del tejido que da lugar a sus patas traseras, mientras que los penes de los mamíferos nacen de la cola. A pesar de estos notables contrastes, sus estructuras son funcionalmente análogas.

Un estudio publicado en la revista Nature y dirigido por Clifford Tabin, del departamento de genética de la Facultad de Medicina de Harvard, ha aclarado el porqué de las diferencias entre los genitales de los machos de pollo, ratón, lagarto y serpiente.

"¿Cómo surge una estructura equivalente de tejidos completamente diferentes? La respuesta resulta ser que hay un segundo tejido que envía señales que ordenan a las células vecinas la creación de los genitales externos", declara a Sinc Tabin.

Aves, reptiles y anfibios, así como algunos peces y mamíferos (por ejemplo, los marsupiales), poseen al final del tracto digestivo un órgano llamado cloaca, en el que se unen los conductos del aparato urinario y el reproductor. Según han averiguado los científicos de Harvard, en los embriones de pollo, la cloaca emite señales moleculares para que las células vecinas formen los genitales externos. Así que la ubicación de la cloaca determina qué tejidos reciben la primera señal.

En las serpientes y los lagartos, se encuentra más cerca del mesodermo lateral, el mismo tejido que hace que las extremidades reciban la señal molecular; mientras que en los mamíferos el tejido creador del pene está más cerca de la cola.
Una teoría probada en pollos

Para confirmar este hallazgo, los investigadores hicieron dos grupos de embriones de pollos. A unos les injertaron tejido de cloaca al lado de las extremidades, y a los del otro grupo, al lado de los brotes de la cola.

Lo que observaron en ambos casos es que las células más cercanas a la cloaca injertada respondieron a las señales y parcialmente se convirtieron en genitales.

"En un sentido más amplio, la importancia radica en el concepto de la evolución por ‘homología’. Una estructura que se encuentra en dos organismos diferentes es homóloga si la estructura fue heredada de un ancestro común que tenía una versión de esa estructura. Así, el ala de un murciélago, la aleta de una ballena y la mano son homólogos, todos derivan de la misma extremidad anterior de un antepasado común", explica Tabin.

En este caso, los genitales, aunque no son homólogos, sí reflejan un paralelismo a otro nivel, porque derivan del mismo programa genético y están inducidos por el mismo conjunto ancestral de señales moleculares: las de la cloaca.

Ahora que han entendido el origen del pene, los investigadores quieren averiguar lo que impulsa a las células de las hembras a convertirse en un clítoris. El hallazgo no solo resuelve un enigma biológico, sino que también podría ayudar a los millones de personas que nacen en el mundo con malformaciones genitales.

'Grand Theft Auto V' incluirá modo en primera persona

GTA V traerá importantes novedades en sus ediciones para PlayStation 4, Xbox One y PC, ya que Rockstar Games ha anunciado un modo en primera persona que da a los jugadores la oportunidad de explorar el mundo de Los Santos y el Condado de Blaine directamente a través de los ojos de los personajes.

"Disponible tanto en GTA V como en GTA Online, hemos realizado una serie de cambios para ajustar esta nueva perspectiva, como la creación de un sistema de cobertura opcional en primera persona, un nuevo sistema de apuntado, un esquema de control FPS más tradicional y la integración en el juego de miles de nuevas animaciones. También está disponible pulsando un botón, por lo que puedes cambiar fácilmente de una a otra perspectiva", explica una nota de la desarrolladora, que defiende como junto al nuevo modo en primera persona para Playstation 4, Xbox One y PC presenta cientos de añadidos y mejoras como resolución a 1080p y 30 fotogramas por segundo en PS4 y Xbox One (4K compatible para PC).

La edición para nueva generación incluirá una serie de importantes mejoras visuales y técnicas para hacer que Los Santos y el Condado de Blaine sean más envolventes. Además de la distancia de dibujado incrementada y la resolución aumentada, los jugadores pueden esperar una serie de añadidos y mejoras entre las que se incluyen nuevas actividades, armas, vehículos, vida salvaje adicional, tráfico más denso, un nuevo sistema de vegetación, efectos de daños y climáticos mejorados, y más de 100 nuevos temas y mezclas de DJs que regresan de las 17 emisoras de radio del juego. Grand Theft Auto V estará disponible en PlayStation 4 y Xbox One el 18 de noviembre. Llegará a PC el 27 de enero.

Aromas de cerveza para mejorar el sabor de las sin alcohol

El alcohol de la cerveza actúa como disolvente de multitud de componentes aromáticos, así que, cuando se elimina, como ocurre en las cervezas sin alcohol, se pierden aromas y sabor en la bebida. Es difícil recuperar esos compuestos, pero investigadores de la Universidad de Valladolid lo han conseguido mediante un proceso de pervaporación.

"Esta técnica consiste en usar una membrana semipermeable para separar dos fracciones a partir de la cerveza con alcohol: una fase líquida en la que queda retenido el alcohol, y otra gaseosa donde están los compuestos aromáticos", explica a Sinc el profesor Carlos A. Blanco, uno de los autores. "Después, esa fase gaseosa se puede condesar, extraer las sustancias aromáticas y añadirlas a la cerveza sin alcohol".

Para realizar el estudio, los científicos usaron una cerveza especial (con grado alcohólico 5,5%) y otra de reserva (6,5%) de las que extrajeron tres compuestos aromáticos: acetato de etilo, acetato de isoamilo y alcohol isobutílico. Luego añadieron estas sustancias a los dos tipos de cervezas casi sin alcohol que existen en el mercado: las 0,0 (con menos de 0,1%) y las sin alcohol (con menos del 1%).

Un panel de expertos las degustó. El 80% de los catadores prefirieron la cerveza 0,0 enriquecida con los aromas respecto a sus homólogas originales de fábrica, y ese porcentaje se elevó hasta el 90% para el caso de las cervezas sin alcohol. Los datos se han publicado en el Journal of Food Engineering.

"A la vista de estos estos resultados, concluimos que se produce una mejora del sabor, y por tanto de la calidad de este tipo de cerveza sin, ya que la mayoría de los miembros del panel prefirieron la cerveza aditivada frente a la original", subraya Blanco.

Los investigadores reconocen que con esta técnica todavía no se consigue atrapar todos los aromas y sabores asociados a la cerveza con alcohol, pero sí supone un avance para hacer más agradables las sin al consumidor.

España es el principal productor y consumidor de cerveza sin alcohol de la Unión Europea. Cerca del 13% de la cerveza que se vende en nuestro país es de este tipo, donde su consumo ha aumentado en los últimos años debido a las restricciones en la conducción y por razones de salud.

¿Por qué se hunde Softonic?

Desde mediados de los 90 proliferaron sitios web que funcionaban como grandes catálogos de aplicaciones para Windows libres y gratuitas y versiones de prueba de software comercial. Cuando el ancho de banda era un recurso escaso y caro, estos portales permitían a los desarrolladores ahorrarse costes de distribución y una forma de darse a conocer entre los usuarios. Softonic fue el pionero en nuestro país e hizo un buen trabajo, hasta el punto de que en 2012 contaba con 130 millones de usuarios únicos en todo el mundo, que les dejaron 29 millones de beneficios gracias a la publicidad incluida en la web.

Este éxito permitió a la empresa vender un 30% de las acciones en febrero de 2013 al fondo suizo Partners por 82,5 millones de euros. Pero fue entonces cuando empezó el calvario para sus usuarios. Softonic puso en marcha un sistemas de descargas premium de aplicaciones a través de SMS para aumentar sus beneficios. Las críticas les llevaron a abandonar este sistema y utilizar en su lugar unos instaladores propios para las aplicaciones que por defecto le metían al ordenador barras de herramientas para el navegador y otros programas que llenaban de anuncios nuestros PC. Los usuarios avanzados no tenían problemas en instalar las aplicaciones evitándolos, o descargando del diminuto enlace a la web del desarrollador que aparece en Softonic, pero muchos otros o no sabían distinguirlos o simplemente decían que sí a todo. No cabe duda de que muchos abandonaron Softonic por este motivo. No resulta raro que ese "amigo informático" al que se llama para arreglar el ordenador porque le pasa no se qué aconsejara vivamente evitar instalar programas desde Softonic.

Aunque en Softonic echan la culpa a los últimos cambios en el algoritmo que ofrece los resultados de búsqueda de Google, lo cierto es que según datos de Comscore ese cambio pudo suponer como mucho una caída del 10%. Lo cierto es que gracias a la autoridad lograda durante mucho tiempo,Google permitía a Softonic prácticas que penaliza en la mayoría de los sitios web, como páginas duplicadas en distintas direcciones con los mismos contenidos. Eso parece que se acabó a mediados de año gracias al nuevo algoritmo, pero no parece ser la fuente principal de sus problemas. De hecho, si buscamos programas populares como VLC la web española sigue estando muy bien posicionada.

Softonic se enfrenta también a otro problema grave, como es la propia utilidad de una web como la suya. Del mismo modo que los ordenadores no sólo reducen sus ventas sino que su porcentaje sobre el total de dispositivos conectados a internet es cada vez más pequeño, un portal de descargas debería estar presente en tabletas y móviles. Algo que resulta muy complicado cuando las tiendas de aplicaciones oficiales de Google, Apple y Microsoft son la vía por defecto para instalar apps y en la mayor parte de los casos la única. Softonic ha intentado entrar en ese mercado con tiendas de aplicaciones propias, pero es muy difícil alcanzar una cuota de mercado significativa frente a las presinstaladas. Encima, tanto Apple como Microsoft están llevando ese modelo a la informática tradicional, de modo que el mercado de Softonic parece estar menguando sin remedio.

Otros grandes portales de descargas de los 90 como Tucows han procurado prosperar diversificando su negocio. Softonic en cambio parece estar optando por mejorar su servicio ofreciendo contenidos propios centrados en el software que puede descargarse de su sitio web y diferenciado las páginas de descarga de programas con más texto propio procedente de sus editores. Aunque esta táctica puede servirles pare recuperar el favor de Google, la utilidad de un portal de descargas seguirá bajando en el futuro.

Facebook crea una función para donar por el ébola

Facebook se ha propuesto ayudar a combatir el ébola. Primero fue su fundador, Mark Zuckerberg, quien dio 25 millones de dólares a la causa. Y, hoy, la compañía ha anunciado una función que permite realizar donaciones a tres de las ONG que están trabajando con los enfermos en África: International Medical Corps, Cruz Roja y Save the Children.

Las organizaciones que participan en la lucha contra el ébola están recaudando fondos a través de Facebook para sus servicios de ayuda y asistencia. “Queremos ampliar estas llamadas a la acción y ayudar a las organizaciones a crear conciencia y conectar directamente con gente de todo el mundo”, afirma la empresa en un comunicado.

Durante la próxima semana, los usuarios verán un mensaje en la parte superior de la sección de “Últimas Noticias” (“News Feed”) con la opción de realizar donaciones. Todo el dinero recaudado se destinará directamente a las organizaciones benéficas que trabajan sobre el terreno, tal como se explica en la página creada para la ocasión.

Por otro lado, Facebook promocionará anuncios y mensajes de UNICEF dentro de la red social, que se centrarán en la detección, prevención y tratamiento del ébola.

Internet y móvil de emergencia

Muchas de las zonas más afectadas carecen de infraestructura de apoyo a las personas que luchan contra el ébola sobre el terreno, como la cobertura en telefonía fija y móvil. En colaboración con NetHope –un consorcio de 41 ONG internacionales–, Facebook está donando 100 terminales móviles de comunicación por satélite para el despliegue en áreas remotas de Guinea, Liberia y Sierra Leona, y para proporcionar servicios de voz y datos que respondan a las necesidades más prioritarias de los médicos y voluntarios.

Estos terminales, llamados dispositivos Broadband Global Area Network, se comunican a través de satélite y proporcionan servicios de telefonía y banda ancha móvil.

Centrándose en las áreas donde hay poca o ninguna capacidad de comunicaciones, NetHope desplegará estos terminales para ayudar a médicos y voluntarios con el rastreo de contactos, la comunicación, la gestión de casos y la movilización de la comunidad.

No es la primera vez que la red social de Mark Zuckerberg se implica en casos de crisis humanitarias. Tras el tifón de Haiyan en Filipinas, habilitó también un “botón para donar” a la Cruz Roja. Por otro lado, el mes pasado anunció el lanzamiento de una herramienta que permite saber si los amigos están a salvo tras un desastre natural.

Avanza el smartphone modular: comenzará a fabricarse el año próximo

Ya hablamos en varias ocasiones del Proyecto Ara de Google: un smartphone con componentes intercambiables en el que es posible actualizar la cámara o el espacio de almacenamiento sin tener que cambiar todo el equipo, usando unos módulos que se encastran en un esqueleto usando unos imanes especiales.

El proyecto nació dentro de Motorola, al mismo tiempo que nacía un movimiento llamado Phonebloks que apuntaba a lo mismo, pero planteando la modularidad para otros dispositivos, como una forma de reducir la basura electrónica. El celular es el más popular, y es por allí por donde comenzaron, pero no donde termina su idea. Ya hay un proyecto, por ejemplo, para crear un reloj de pulsera modular llamado Blocks.

En cualquier caso, todavía queda mucho camino por recorrer. Hace unos días la gente de Phonebloks difundió un video en el que muestran el trabajo que se está haciendo en Google; allí se puede ver cómo sería el cambio de módulos y qué aspecto general tendrá el primer modelo.
Ahora, según Digitimes, los módulos entrarán en producción el año próximo con Quantas y Foxconn jugando un papel importante. La idea es ofrecer los módulos en una tienda online (como Google ofrece ahora los dispositivos Nexus) para que los usuarios compren los que necesitan. En el sitio del Proyecto Ara confirman que será el año próximo cuando hagan una primera -y limitada- producción de componentes.

Está claro que, por ahora, el teléfono modular está pensado más para el entusiasta de la tecnología que para el usuario común, que encontrará en los dispositivos producidos en forma masiva mejores precios y formatos más delgados (aunque el costo de fabricar los módulos de una versión básica rondará los 100 dólares, a lo que hay que sumar el precio de venta de cada componente). Pero servirá también para empezar a medir los límites de este concepto, y cuánta gente hay interesada en algo así.

Amazon lanza Echo, su asistente personal con control de voz

 La tienda virtual Amazon lanzó este viernes su asistente personal con control de voz, Echo, un dispositivo que responde a preguntas y recibe órdenes, utilizando una tecnología similar a la de otros productos de la competencia como Siri de Apple o Google Now de Google.

Echo consiste en una torre de color negro con micrófono y altavoz que se activa cuando el usuario pronuncia una palabra clave (por defecto, la palabra es "Alexa", aunque se puede cambiar) y, una vez activada, se comunica verbalmente con el usuario.

Como con Siri de Apple, Google Now de Google o Cortana de Microsoft, Echo puede navegar por internet para encontrar las respuestas a las preguntas que se le formulen, dar la hora o comprobar la predicción meteorológica.

Además, al ser un producto de Amazon, Echo introduce la posibilidad de añadir verbalmente productos a la lista de la compra que el usuario tenga en su cuenta de Amazon.

"Creemos que hará la vida más fácil. Cuando tengas una pregunta o quieras algo, sólo tendrás que pedirlo", indicó Amazon en un comunicado, al presentar el nuevo producto.

La mayor diferencia de Echo, respecto a los asistentes personales con control de voz que ya existen en el mercado, es que se trata de un producto de hardware en sí mismo, mientras que el resto de asistentes son programas de software que deben instalarse en dispositivos como móviles o tabletas.

Echo salió a la venta en EE.UU. por 199 dólares ( 160 euros).

Google quiere saberlo todo: ahora se ofrece a almacenar tu ADN

Google es conocida por tener prácticamente todo tipo de proyectos entre sus manos y en cualquier tipo de terreno. El último, la medicina y la investigación. Hace unos meses, concretamente en marzo del año pasado, la compañía puso en marcha Google Genomics, un servicio de computación en la nube pero que pasó algo desapercibido debido a otras noticias que, en apariencia, tenían más importancia en el mundo del I+D.

El proyecto comenzó a gestarse hace año y medio, momento en el que científicos y trabajadores de Google se pusieron manos a la obra para trasladar los datos del ADN a servidores privados donde puedan ser “examinados”. No obstante, durante los últimos días la importancia de este nuevo servicio ha ido aumentando ya que los expertos se han interesado, y mucho, por éste. ¿Por qué? Almacenando, conectando y comparando millones de muestras de ADN podría ayudar a la investigación médica a encontrar soluciones para la gran mayoría de enfermedades, sobre todo aquellas hereditarias. Para conseguirlo, la propuesta de Google se basa en almacenar los datos del genoma de cualquier persona por 25 dólares al año.

Experimentación virtual, el futuro de la medicina

La idea de esta “nube de genoma” es conseguir que los científicos compartan información sobre enfermedades como el cáncer y ejecutar rápidamente todo tipo de experimentos como si de una búsqueda en internet se tratara. Obviamente para ello se necesita una gran potencia de computación ya que, por ejemplo, al descodificar un genoma humano se generan 200 TB de información. Por ello, ya hay compañías interesadas en almacenar datos de sus “clientes” y pacientes como Cancer Gnome Atlas.

Google y su “necesidad” de saberlo todo

¿Cuáles son los límites de Google? Si bien sus intenciones son envidiables, sobre todo si finalmente se consigue ayudar al mundo a evitar enfermedades mortales y tan “extendidas” como el cáncer o el Alzheimer, lo cierto es que puede parecer excesivo que desee almacenar nuestro ADN por una cantidad de dinero. Por ahora, aproximadamente 3.500 genomas de proyectos públicos están almacenados en los servidores de Google según el MIT y todo parece indicar que poco a poco este número irá aumentando, ayudando a extender la esperanza de vida de los humanos.