El periodismo internacional sigue sumido en una incierta convulsión debido a la doble crisis que sufre: la mundial que afecta a todos los estamentos, y la propia de los medios de comunicación (disminución de la publicidad, reducción del número de suscriptores, etc). La última noticia llegada del mundo de la información afecta al conglomerado de comunicación Time Warner, que ultima la venta de la mayor parte de sus revistas, incluida «People», al grupo Meredith según indicaron varios medios estadounidenses citando a fuentes conocedoras de las negociaciones.
Las conversaciones afectarían a todas las publicaciones impresas de Time Warner, salvo tres revistas: «Time», «Fortune» y «Sports Illustrated». En las negociaciones se incluye «People» -una de sus más preciadas joyas del grupo mediático- y otra veintena de títulos, principalmente dedicadas al entretenimiento y la cocina.
Las negociaciones se han mantenido en el más absoluto de los secretos, pero ha sido la propia revista «Fortune» la que ha destapado las conversaciones. A partir de ahí, todo se fue confirmando en las páginas de internet de los diarios «The New York Times» y «The Wall Street Journal», entre otros.
Despido de 480 empleados
La filtración llega semanas después de que Time Inc. anunciase el despido de un 6 % de sus 8.000 trabajadores (unos 480 empleados) ante las negras perspectivas que afrontan los medios de comunicación escritos debido a la reducción de las suscripciones y a la disminución de la publicidad.
El conglomerado Time Warner se forjó en torno a la revista semanal «Time», pero actualmente obtiene la mayor parte de sus beneficios del negocio televisivo (con el canal de pago HBO o los canales por cable como TNT o TBS) y la productora cinematográfica Warner Bros, según Efe.
Por su parte, el grupo Meredith, con sede en Des Moines (Iowa), tiene un total de 26 revistas de cocina, moda, decoración, jardinería, bricolaje y vida familiar, orientadas en general al público femenino. También tiene páginas de internet centradas en esos intereses, así como doce emisoras locales de televisión por todo el país, la mayoría de ellas afiliadas a grandes cadenas nacionales.
Buscar
2013/02/16
Telefónica reconoce unas pérdidas de 438 millones por la devaluación del bolívar
En un hecho relevante remitido a la CNMV, Telefónica ha reconocido que la decisión adoptada por el Gobierno de Venezuela el pasado 8 de febrero de 2013 en relación con la devaluación del bolívar de 4,3 bolívares fuertes por dólar a 6,3 bolívares fuertes por dólar, tendrá un impacto en las cuentas de la empresa.
Telefónica explica que la decisión adoptada por el Gobierno Venezolano sólo afecta a las estimaciones realizadas sobre el valor de liquidación de la posición neta en moneda extranjera relacionada con las inversiones en Venezuela, cuyo impacto en el ejercicio 2012 asciende a una pérdida aproximada, antes de impuestos, de 438 millones de euros, sin impacto en deuda. Fuentes de la compañía explican que el efecto se centra básicamente sobre los dividendos obtenidos en el país que están pendientes de repatriar.
La empresa señala que el nuevo tipo de cambio de 6,3 bolívares fuertes por dólar será utilizado a partir de 2013 en la conversión de la información financiera de las compañías venezolanas. En este sentido, Telefónica ha reconocido que la disminución de sus activos netos en Venezuela como consecuencia de la conversión a euros al nuevo tipo cambiario tendrá un impacto en el patrimonio del grupo cercano a 1.000 millones de euros, tomando como base los activos netos al 31 de diciembre de 2012.
Asimismo, Telefónica ha indicado que se producirá una reducción del contravalor en euros de los activos financieros netos denominados en bolívares fuertes, por un importe aproximado de 873 millones de euros.
Finalmente, la empresa ha explicado que los resultados y los flujos de efectivo procedentes de Venezuela serán convertidos al nuevo tipo de cambio devaluado a partir del 1 de enero de 2013.
Telefónica explica que la decisión adoptada por el Gobierno Venezolano sólo afecta a las estimaciones realizadas sobre el valor de liquidación de la posición neta en moneda extranjera relacionada con las inversiones en Venezuela, cuyo impacto en el ejercicio 2012 asciende a una pérdida aproximada, antes de impuestos, de 438 millones de euros, sin impacto en deuda. Fuentes de la compañía explican que el efecto se centra básicamente sobre los dividendos obtenidos en el país que están pendientes de repatriar.
La empresa señala que el nuevo tipo de cambio de 6,3 bolívares fuertes por dólar será utilizado a partir de 2013 en la conversión de la información financiera de las compañías venezolanas. En este sentido, Telefónica ha reconocido que la disminución de sus activos netos en Venezuela como consecuencia de la conversión a euros al nuevo tipo cambiario tendrá un impacto en el patrimonio del grupo cercano a 1.000 millones de euros, tomando como base los activos netos al 31 de diciembre de 2012.
Asimismo, Telefónica ha indicado que se producirá una reducción del contravalor en euros de los activos financieros netos denominados en bolívares fuertes, por un importe aproximado de 873 millones de euros.
Finalmente, la empresa ha explicado que los resultados y los flujos de efectivo procedentes de Venezuela serán convertidos al nuevo tipo de cambio devaluado a partir del 1 de enero de 2013.
El Gran Acelerador de Partículas, apagado para mantenimiento de dos años
El Gran Acelerador de Partículas (LHC, por sus siglas en inglés) del Centro Europeo de Física de Partículas (CERN), gracias al cual se avanzó en la comprensión del origen y fundamentos del Universo, entró este jueves en un largo periodo de mantenimiento que lo mantendrá dos años fuera de servicio.
El equipo que conduce el LHC confirmó que se extrajeron los últimos haces de protones del anillo del acelerador, localizado en un túnel circular de 27 kilómetros de circunferencia construido entre 50 y 175 metros bajo tierra en la frontera entre Suiza y Francia.
El acelerador fue diseñado para hacer chocar haces de protones o iones pesados lanzados en direcciones opuestas en colisiones que han generado intensidades de energía sin precedentes.
Este experimento permitió descubrir una nueva partícula que se tiene casi la total certeza es el "Bosón de Higgs", el gran elemento que falta en la teoría que sustenta la física moderna.
El equipo que conduce el LHC confirmó que se extrajeron los últimos haces de protones del anillo del acelerador, localizado en un túnel circular de 27 kilómetros de circunferencia construido entre 50 y 175 metros bajo tierra en la frontera entre Suiza y Francia.
El acelerador fue diseñado para hacer chocar haces de protones o iones pesados lanzados en direcciones opuestas en colisiones que han generado intensidades de energía sin precedentes.
Este experimento permitió descubrir una nueva partícula que se tiene casi la total certeza es el "Bosón de Higgs", el gran elemento que falta en la teoría que sustenta la física moderna.
Facebook confirma que sufrió un "ataque sofisticado" de hackers en enero
La red social Facebook ha confirmado este viernes que recibió un "ataque sofisticado" durante el pasado mes de enero por grupos de hackers sin que se hayan visto comprometidos datos de los usuarios, dos semanas después de que Twitter desvelara también ataques contra su plataforma.
"El mes pasado la seguridad de Facebook descubrió que nuestros sistemas habían sido objeto de un ataque sofisticado. El ataque ocurrió cuando un puñado de trabajadores (de Facebook) visitaron la web de un desarrollador móvil", informa la compañía en un comunicado.
Esta ataque se produce dos semanas después de que la red social Twitter también descubriera ataques cibernéticos contra su plataforma, así como los periódicos estadounidenses 'The New York Times', 'The Washington Post' y 'The Wall Street Journal', quienes los atribuyeron a organizaciones chinas.
En este sentido se manifiesta Facebook, que remarca que la red social "no fue la única (afectada) de este ataque". "Está claro que otros fueron atacados y sufrieron infiltraciones también recientemente", añade la red social, que dice tener más de 1.000 millones de usuarios activos.
"El mes pasado la seguridad de Facebook descubrió que nuestros sistemas habían sido objeto de un ataque sofisticado. El ataque ocurrió cuando un puñado de trabajadores (de Facebook) visitaron la web de un desarrollador móvil", informa la compañía en un comunicado.
Esta ataque se produce dos semanas después de que la red social Twitter también descubriera ataques cibernéticos contra su plataforma, así como los periódicos estadounidenses 'The New York Times', 'The Washington Post' y 'The Wall Street Journal', quienes los atribuyeron a organizaciones chinas.
En este sentido se manifiesta Facebook, que remarca que la red social "no fue la única (afectada) de este ataque". "Está claro que otros fueron atacados y sufrieron infiltraciones también recientemente", añade la red social, que dice tener más de 1.000 millones de usuarios activos.
La burocracia podría impedir la circulación de los coches sin conductor hasta 20 años
La tecnología de Google que permite a los coches conducirse solos estaría lista en un plazo de tres o cinco años. Sin embargo, las autoridades consideran que tardará entre 15 y 20 años en estar realmente disponible, ya que es necesario crear normas específicas para este tipo de coches, al igual que las compañías de seguros, que deberán adecuar unas pólizas que son obligatorias por ley para todo vehículo que circule por las carreteras.
Google pretende revolucionar el sector de los automóviles gracias a la tecnología de autoconducción de coches. Esta tecnología permite que los coches sean capaces de guiarse solos tan solo con el uso de un servicio de mapas y controlados por ordenador. Estos vehículos utilizan cámaras de vídeo, sensores por radar y un telémetro láser para ver el resto del tráfico.
Por el momento estos coches están en fase de pruebas en Estados Unidos, los cuales ya han recorrido más de 482.000 kilómetros (300.000 millas) sin registrar ningún accidente. Según asegura el gerente de producto de la tecnología de autoconducción de Google, Anthony Levandowski, a la agencia Bloomberg, esta tecnología puede estar disponible en los próximos tres o cinco años para ser utilizada por los usuarios, ya que todavía quedan muchos detalles que matizar.
"No puedo decir que vamos ser capaces de poner un coche de Google en un garaje el próximo año. Esperamos lanzar esta tecnología en los próximos cinco años. La forma en la que saldrá al mercado aún no se ha determinado", asegura.
Lo que sí tienen claro desde Google es que la compañía no fabricará coches en sí sino que solo proporcionará la tecnología de autoconducción. Pero antes de que esta tecnología salga al mercado tiene que cumplir una serie de requisitos en cuanto a normas de circulación y de seguros para el coche.
Según recoge la agencia Bloomberg, las autoridades determinan que esta tecnología de autoconducción de Google tardará más de lo que estima el propio Levandowski. La National Highway Traffic Safety Administration (NHTSA) asegura que tendrá que crear una serie de normas específicas para este tipo de vehículos y ver de qué manera realizar las pruebas para ello.
"Esta tecnología llega a ser un gran desafío para averiguar cómo hará el gobierno para establecer unas normas estándar en los diferentes escenarios donde cualquier fallo puede ocurrir", asegura uno de los administradores asociados sobre seguridad del vehículo de la NHTSA, Dan Smith.
Por otro lado, esta tecnología también supone un nuevo reto para el sector de las aseguradoras, sobre todo a la hora de realizar las pólizas de seguro. En este caso habría que determinar a quién asignar la responsabilidad en caso de accidente, a la empresa fabricante del software, al software en sí o al conductor.
"Hay una laguna legal en este momento, y por desgracia, habrá que llevarlo a los tribunales para resolverlo ", asegura el presidente del Insurance Information Institute, quien cree que los vehículos completamente autónomos todavía tardarán unos 15 o 20 años en llegar a las carreteras de EEUU.
Google pretende revolucionar el sector de los automóviles gracias a la tecnología de autoconducción de coches. Esta tecnología permite que los coches sean capaces de guiarse solos tan solo con el uso de un servicio de mapas y controlados por ordenador. Estos vehículos utilizan cámaras de vídeo, sensores por radar y un telémetro láser para ver el resto del tráfico.
Por el momento estos coches están en fase de pruebas en Estados Unidos, los cuales ya han recorrido más de 482.000 kilómetros (300.000 millas) sin registrar ningún accidente. Según asegura el gerente de producto de la tecnología de autoconducción de Google, Anthony Levandowski, a la agencia Bloomberg, esta tecnología puede estar disponible en los próximos tres o cinco años para ser utilizada por los usuarios, ya que todavía quedan muchos detalles que matizar.
"No puedo decir que vamos ser capaces de poner un coche de Google en un garaje el próximo año. Esperamos lanzar esta tecnología en los próximos cinco años. La forma en la que saldrá al mercado aún no se ha determinado", asegura.
Lo que sí tienen claro desde Google es que la compañía no fabricará coches en sí sino que solo proporcionará la tecnología de autoconducción. Pero antes de que esta tecnología salga al mercado tiene que cumplir una serie de requisitos en cuanto a normas de circulación y de seguros para el coche.
Según recoge la agencia Bloomberg, las autoridades determinan que esta tecnología de autoconducción de Google tardará más de lo que estima el propio Levandowski. La National Highway Traffic Safety Administration (NHTSA) asegura que tendrá que crear una serie de normas específicas para este tipo de vehículos y ver de qué manera realizar las pruebas para ello.
"Esta tecnología llega a ser un gran desafío para averiguar cómo hará el gobierno para establecer unas normas estándar en los diferentes escenarios donde cualquier fallo puede ocurrir", asegura uno de los administradores asociados sobre seguridad del vehículo de la NHTSA, Dan Smith.
Por otro lado, esta tecnología también supone un nuevo reto para el sector de las aseguradoras, sobre todo a la hora de realizar las pólizas de seguro. En este caso habría que determinar a quién asignar la responsabilidad en caso de accidente, a la empresa fabricante del software, al software en sí o al conductor.
"Hay una laguna legal en este momento, y por desgracia, habrá que llevarlo a los tribunales para resolverlo ", asegura el presidente del Insurance Information Institute, quien cree que los vehículos completamente autónomos todavía tardarán unos 15 o 20 años en llegar a las carreteras de EEUU.
Dentro de 5 años las computadoras se pondrán sensibles
¿Cuántas películas se han hecho fantaseando con la idea de que las computadoras imitan a los seres humanos y cobran vida? ¿En cuántas obras literarias de ciencia ficción los robots empiezan a sentir? Aunque estamos lejos aún, todo parece indicar que las computadoras del futuro podrán copiar los sentidos del hombre.
Según el último estudio Five in Five de IBM, en los próximos 5 años las computadoras tendrán la capacidad de imitar los sentidos humanos. A su modo podrán ver, oler, tocar, gustar y oír. "En IBM hablamos de la era de la computación cognitiva. Para lograr eso nuestros científicos están colaborando en avances que ayudarán a las computadoras a tener sentido del mundo que les rodea, del mismo modo que el cerebro humano usa los sentidos para relacionarse con el mundo", adelanta Mario Bolo, líder de Tecnología e Innovación de IBM Argentina.
Desde Intel aseguran que el resultado final será la computación perceptiva. "Según este concepto, las computadoras del futuro contarán con nuevas interfaces humanas por medio de la tecnología táctil, el reconocimiento facial y de voz, por interacciones basadas en gestos. El objetivo es hacer que el uso de las PC se vuelva más intuitivo", dice Manny Vara, educador de tecnología de la compañía. Para 2020 se estima, dice el ejecutivo, que habrá 25.000 millones de dispositivos inteligentes conectados. "Para satisfacer esta demanda de conexión se están desarrollando numerosos dispositivos, con capacidades de cómputo y de conexión a Internet para que puedan realizar tareas específicas, pero incorporando funciones inteligentes, intuitivas, conscientes del contexto y centradas en el usuario, más conocida como tecnología embebida", sostiene Vara.
Luis Massuh, director comercial de Sony Argentina, vaticina que la tendencia a futuro es que los equipos cuenten con funciones sensoriales y que su traslado será cada vez más cómodo. "En este sentido, Sony acaba de anunciar su última ultrabook, que es un híbrido entre notebook y tablet, tan ligero que se puede llevar en una mano y tan fino que cabe en cualquier hueco libre", dice el directivo.
Sensaciones
Para comprender más claramente cómo serán las computadoras es necesario conocer qué harán en la práctica. "Nuestros científicos están desarrollando aplicaciones que utilizarán tecnologías para simular el tacto. Por ejemplo será posible sentir el bordado o entramado de una manta hecha por un artesano que vive al otro lado del mundo a través de un smartphone", explica el ejecutivo de IBM.
Los sistemas también podrán mirar y reconocer los contenidos de imágenes y datos visuales, y darles sentido en forma similar a la que un humano visualiza e interpreta una fotografía. "Estas capacidades se podrán utilizar en el área de salud para interpretar información médica como imágenes de resonancias magnéticas, tomografías computadas, rayos X y ultrasonido para captar información adaptada a la medida de una anatomía o patologías en particular", detalla Bolo.
¿También podrán entender lo que quieren decirnos los bebes cuando lloran o gritan? Sensores de los equipos detectarán elementos del sonido como la presión, las vibraciones y ondas sonoras en diferentes frecuencias. Ese sistema escuchará nuestro entorno y medirá movimientos, o la tensión en un material, para prevenirnos si se avecina algún peligro. "Un ejemplo muy interesante es el del lenguaje de los bebes, que se entenderá como un idioma y permitirá decir a los padres o médicos lo que los niños pequeños están tratando de comunicar; cuándo el llanto puede indicar que el bebe tiene hambre, calor, cansancio o dolor", revela el ejecutivo de IBM.
Hasta la obesidad está entre los objetivos de estas tecnologías. Para crear recetas más sabrosas y sanas se está desarrollando un sistema que experimenta el sabor. "Esta tecnología puede usarse para ayudarnos a comer en forma más saludable, creando nuevas combinaciones de sabores que nos harán desear más un plato de verduras a la cacerola que una porción de papas fritas", dice Bolo.
Por último queda el sentido del olfato. En este caso, los ingenieros de IBM están intentando avances para una aplicación dirigida a la salud. "Mediante el análisis de los olores y de miles de moléculas en la respiración de una persona, los médicos tendrán ayuda para diagnosticar y monitorear el comienzo de afecciones hepáticas y renales, asma, diabetes y epilepsia, entre otras, detectando cuáles olores son normales y cuáles no, mediante un dispositivo que tendrá la capacidad de oler", explica Bolo.
Si bien estas predicciones son para los próximos 5 años, algunos sistemas ya se acercan bastante a esta idea porque poseen una capacidad muy similar a la del olfato. Hay equipos con rastreadores que se utilizan para detectar los productos químicos y peligros biológicos y tóxicos en el aire, y enviar una advertencia. Aunque no tengan exactamente la misma capacidad del olfato humano ya se están dando los primeros pasos en ese camino.
Consejeros digitales
Estos avances también tienen el potencial para mejorar la vida cotidiana de las personas en términos de seguridad, comodidad y confort. Por ejemplo, se podrán utilizar dispositivos electrónicos y equipos con sensores para reconocer situaciones de amenaza para la vida, proporcionando alertas inmediatas y sugiriendo acciones. Otra aplicación será vigilar a las personas que necesitan ayuda, como los ancianos que viven solos en casa.
Los televisores inteligentes y otros aparatos electrónicos detectarán qué quiere la gente, al ver al usuario y recordar sus necesidades y preferencias. Algunos ejemplos de aplicaciones de la tecnología de Intel es el sistema instalado en algunos automóviles que está basado en procesadores Atom. Incluye funciones de navegación y permite mostrar en tiempo real un diagnóstico del motor, actualizaciones meteorológicas y el estado del tránsito.
Vara describe asimismo el Home Energy Management System (HEMS), sistema de gestión de energía hogareño. Se trata de un panel de control que permite que los propietarios controlen el uso de energía de los aparatos conectados y fomenten nuevos hábitos para reducir el consumo de energía y controlar los costos.
El futuro está aquí
Cuando se piensa en las computadoras del futuro es inevitable mencionar a Watson, la supercomputadora de IBM que tiene la capacidad de procesar el lenguaje humano. "Watson ya puede emular el cerebro humano y comprender el lenguaje complejo que utilizamos, incluidos los giros idiomáticos, las ironías y los juegos de palabras. Ya se está utilizando en proyectos concretos, en especial en el área de diagnóstico médico", destaca Bolo.
Según Vara, en Intel esperan que la cuarta generación de los procesadores Core (hoy se encuentran en la tercera) y los sistemas basados en la tecnología táctil den lugar a una nueva tendencia de ultrabooks convertibles y tablets más finas que, al mismo tiempo, ofrezcan el desempeño necesario para obtener interacciones similares a las humanas.
Según el último estudio Five in Five de IBM, en los próximos 5 años las computadoras tendrán la capacidad de imitar los sentidos humanos. A su modo podrán ver, oler, tocar, gustar y oír. "En IBM hablamos de la era de la computación cognitiva. Para lograr eso nuestros científicos están colaborando en avances que ayudarán a las computadoras a tener sentido del mundo que les rodea, del mismo modo que el cerebro humano usa los sentidos para relacionarse con el mundo", adelanta Mario Bolo, líder de Tecnología e Innovación de IBM Argentina.
Desde Intel aseguran que el resultado final será la computación perceptiva. "Según este concepto, las computadoras del futuro contarán con nuevas interfaces humanas por medio de la tecnología táctil, el reconocimiento facial y de voz, por interacciones basadas en gestos. El objetivo es hacer que el uso de las PC se vuelva más intuitivo", dice Manny Vara, educador de tecnología de la compañía. Para 2020 se estima, dice el ejecutivo, que habrá 25.000 millones de dispositivos inteligentes conectados. "Para satisfacer esta demanda de conexión se están desarrollando numerosos dispositivos, con capacidades de cómputo y de conexión a Internet para que puedan realizar tareas específicas, pero incorporando funciones inteligentes, intuitivas, conscientes del contexto y centradas en el usuario, más conocida como tecnología embebida", sostiene Vara.
Luis Massuh, director comercial de Sony Argentina, vaticina que la tendencia a futuro es que los equipos cuenten con funciones sensoriales y que su traslado será cada vez más cómodo. "En este sentido, Sony acaba de anunciar su última ultrabook, que es un híbrido entre notebook y tablet, tan ligero que se puede llevar en una mano y tan fino que cabe en cualquier hueco libre", dice el directivo.
Sensaciones
Para comprender más claramente cómo serán las computadoras es necesario conocer qué harán en la práctica. "Nuestros científicos están desarrollando aplicaciones que utilizarán tecnologías para simular el tacto. Por ejemplo será posible sentir el bordado o entramado de una manta hecha por un artesano que vive al otro lado del mundo a través de un smartphone", explica el ejecutivo de IBM.
Los sistemas también podrán mirar y reconocer los contenidos de imágenes y datos visuales, y darles sentido en forma similar a la que un humano visualiza e interpreta una fotografía. "Estas capacidades se podrán utilizar en el área de salud para interpretar información médica como imágenes de resonancias magnéticas, tomografías computadas, rayos X y ultrasonido para captar información adaptada a la medida de una anatomía o patologías en particular", detalla Bolo.
¿También podrán entender lo que quieren decirnos los bebes cuando lloran o gritan? Sensores de los equipos detectarán elementos del sonido como la presión, las vibraciones y ondas sonoras en diferentes frecuencias. Ese sistema escuchará nuestro entorno y medirá movimientos, o la tensión en un material, para prevenirnos si se avecina algún peligro. "Un ejemplo muy interesante es el del lenguaje de los bebes, que se entenderá como un idioma y permitirá decir a los padres o médicos lo que los niños pequeños están tratando de comunicar; cuándo el llanto puede indicar que el bebe tiene hambre, calor, cansancio o dolor", revela el ejecutivo de IBM.
Hasta la obesidad está entre los objetivos de estas tecnologías. Para crear recetas más sabrosas y sanas se está desarrollando un sistema que experimenta el sabor. "Esta tecnología puede usarse para ayudarnos a comer en forma más saludable, creando nuevas combinaciones de sabores que nos harán desear más un plato de verduras a la cacerola que una porción de papas fritas", dice Bolo.
Por último queda el sentido del olfato. En este caso, los ingenieros de IBM están intentando avances para una aplicación dirigida a la salud. "Mediante el análisis de los olores y de miles de moléculas en la respiración de una persona, los médicos tendrán ayuda para diagnosticar y monitorear el comienzo de afecciones hepáticas y renales, asma, diabetes y epilepsia, entre otras, detectando cuáles olores son normales y cuáles no, mediante un dispositivo que tendrá la capacidad de oler", explica Bolo.
Si bien estas predicciones son para los próximos 5 años, algunos sistemas ya se acercan bastante a esta idea porque poseen una capacidad muy similar a la del olfato. Hay equipos con rastreadores que se utilizan para detectar los productos químicos y peligros biológicos y tóxicos en el aire, y enviar una advertencia. Aunque no tengan exactamente la misma capacidad del olfato humano ya se están dando los primeros pasos en ese camino.
Consejeros digitales
Estos avances también tienen el potencial para mejorar la vida cotidiana de las personas en términos de seguridad, comodidad y confort. Por ejemplo, se podrán utilizar dispositivos electrónicos y equipos con sensores para reconocer situaciones de amenaza para la vida, proporcionando alertas inmediatas y sugiriendo acciones. Otra aplicación será vigilar a las personas que necesitan ayuda, como los ancianos que viven solos en casa.
Los televisores inteligentes y otros aparatos electrónicos detectarán qué quiere la gente, al ver al usuario y recordar sus necesidades y preferencias. Algunos ejemplos de aplicaciones de la tecnología de Intel es el sistema instalado en algunos automóviles que está basado en procesadores Atom. Incluye funciones de navegación y permite mostrar en tiempo real un diagnóstico del motor, actualizaciones meteorológicas y el estado del tránsito.
Vara describe asimismo el Home Energy Management System (HEMS), sistema de gestión de energía hogareño. Se trata de un panel de control que permite que los propietarios controlen el uso de energía de los aparatos conectados y fomenten nuevos hábitos para reducir el consumo de energía y controlar los costos.
El futuro está aquí
Cuando se piensa en las computadoras del futuro es inevitable mencionar a Watson, la supercomputadora de IBM que tiene la capacidad de procesar el lenguaje humano. "Watson ya puede emular el cerebro humano y comprender el lenguaje complejo que utilizamos, incluidos los giros idiomáticos, las ironías y los juegos de palabras. Ya se está utilizando en proyectos concretos, en especial en el área de diagnóstico médico", destaca Bolo.
Según Vara, en Intel esperan que la cuarta generación de los procesadores Core (hoy se encuentran en la tercera) y los sistemas basados en la tecnología táctil den lugar a una nueva tendencia de ultrabooks convertibles y tablets más finas que, al mismo tiempo, ofrezcan el desempeño necesario para obtener interacciones similares a las humanas.
¿Baterías que se cargan en 10 minutos? Ahora es posible
Un equipo de investigadores de la Universidad de Carolina del Sur (USC) ha conseguido desarrollar una batería de iones de litio que utiliza nanopartículas de silicio poroso en vez de los ánodos de grafito tradicionales.
¿El resultado? Un diseño más barato e irrompible con rendimiento superior, capaz de multiplicar por tres la capacidad energética de los modelos actualmente disponibles en el mercado, de recargarse en cuestión de 10 minutos y de admitir procesos de producción en masa.
La única desventaja es que sólo dura 200 ciclos de carga en comparación con el medio millar de ciclos de las baterías basadas en grafito y de los sorprendentes 2.000 ciclos alcanzados anteriormente por otro diseño del mismo grupo de científicos, que utilizaba nanocables como base.
Ahora la meta es encontrar un nuevo material para el cátodo compatible con el silicio a nivel nanométrico y con el que se pueda crear una batería completamente actualizada. Mientras que un desarrollo más profundo de la elaboración de nanopartículas deberían impulsar la vida útil de la batería sin mayores problemas.
El producto resultante podría estar disponible a nivel comercial en el plazo de dos o tres años, soportando desde dispositivos del tamaño de un smartphone hasta máquinas de la potencia de un coche híbrido.
¿El resultado? Un diseño más barato e irrompible con rendimiento superior, capaz de multiplicar por tres la capacidad energética de los modelos actualmente disponibles en el mercado, de recargarse en cuestión de 10 minutos y de admitir procesos de producción en masa.
La única desventaja es que sólo dura 200 ciclos de carga en comparación con el medio millar de ciclos de las baterías basadas en grafito y de los sorprendentes 2.000 ciclos alcanzados anteriormente por otro diseño del mismo grupo de científicos, que utilizaba nanocables como base.
Ahora la meta es encontrar un nuevo material para el cátodo compatible con el silicio a nivel nanométrico y con el que se pueda crear una batería completamente actualizada. Mientras que un desarrollo más profundo de la elaboración de nanopartículas deberían impulsar la vida útil de la batería sin mayores problemas.
El producto resultante podría estar disponible a nivel comercial en el plazo de dos o tres años, soportando desde dispositivos del tamaño de un smartphone hasta máquinas de la potencia de un coche híbrido.
Suscribirse a:
Entradas (Atom)