Buscar

2011/09/02

El fundador de TechCrunch abandona su cargo como director del sitio


Michael Arrington, fundador del popular sitio de tecnología TechCrunch, ha anunciado que renuncia a su cargo de editor del sitio web para iniciar un fondo de capital de riesgo de 20 millones con el respaldo de sus nuevos jefes de AOL, que compró el sitio por 25 millones de dólares el año pasado.
Según recoge The Wall Street Journal, Arrington continuará escribiendo en el conocido blog, pero no ejercerá labores de supervisión editorial. Erick Schonfeld, que hasta ahora había desempeñado funciones de co-editor, se convertirá en editor interino hasta que AOL encuentre una persona que ocupe el cargo.

Rob Malda

Por otro lado, hace unos días se conocía que otro de los sitios más influyentes en materia de tecnología, Slashdot, perdía a su creador. Rob Malda, fundador de la web hace 14 años, ha renunciado a su cargo como editor jefe.
Malda, que lanzó Slashdot cuando todavía era un estudiante universitario, vendió el sitio a Andover en 1999, aunque posteriormente pasó por muchas manos hasta acabar en la actualidad en propiedad de Geeknet. El popular 'blogger' ha asegurado que no tiene planes laborales en un futuro inmediato.

Twitter busca desarrolladores para integrar su servicio en iOS

El cofundador de Twitter ha hecho un llamamiento a los desarrolladores para que colaboren en la integración del servicio de 'microblogging' en el sistema iOS 5. El objetivo es conseguir que aplicaciones de todo tipo en iPhone y iPad utilicen la plataforma, para extender los tweets en los dispositivos móviles de Apple.
En una nota colgada en el sitio de desarrolladores de Twitter, el cofundador de la compañía, Jack Dorsey, ha hecho un llamamiento: "Me gustaría pedir vuestra respuesta sincera. Queremos saber qué material necesitáis de nosotros para ayudaros a construir productos, impulsar la distribución y expandir vuestro alcance."
La relación de Twitter con los desarrolladores en los últimos tiempos no ha estado exenta de tensión. La restricción de su API por parte del servicio de 'microblogging' y el fin de las listas blancas han provocado las quejas de algunos programadores cuyo trabajo depende de la plataforma.
Ante la integración con iOS 5 que Twitter va a llevar a cabo, la compañía pide una movilización de los desarrolladores para llenar el iPhone y el iPad de aplicaciones que contengan características del servicio de microblogging. Dorsey ha mostrado confianza en el proceso de integración: "Muy pronto, dondequiera que haya un iPhone o un iPad siempre encontrarás Twitter."
"Si eres un desarrollador de iOS puedes añadir Twitter a tu aplicación para personalizar la experiencia para tus usuarios, ofrecerles mejores vías para iniciar sesión, enriquecer su experiencia, compartir pensamientos y contenido y ayudar a dar un impulso a tu distribución", anima Dorsey a quienes desarrollan aplicaciones para los dispositivos móviles de Apple.

Sanidad pide a Twitter que elimine las cuentas que fomentan la anorexia

Sanidad ha pedido a los responsables de Twitter que eliminen las cuentas de usuarios que fomentan la anorexia o la bulimia, petición que el ministerio ha hecho pública desde su propia cuenta (@sanidadgob) en la red de microblogging.
El ministerio ha cursado esta solicitud a través de la Unidad de Delitos Telemáticos de la Guardia Civil, ante el aluvión de internautas reclamando la denuncia de ciertas cuentas de Twitter dedicadas a hacer apología de la anorexia y la bulimia.
Ante el creciente número de quejas registradas en las últimas dos semanas, el ministerio decidió hacer un «barrido» de las cuentas que alojan estos contenidos, para solicitar a los responsables de Twitter un ejercicio de autorregulación, han confirmado fuentes de Sanidad.
«Estamos seguros de que serán sensibles a esta petición», han comentado esas mismas fuentes, que informaron de que se realizarán recopilaciones periódicas de cuentas conflictivas que vayan apareciendo para remitirlas periódicamente a Twitter.
La autorregulación de la red social para bloquear comentarios que promuevan la anorexia es la única vía para que estas publicaciones sean borradas, ya que su eliminación no se puede solicitar por vía judicial al no ser constitutivas de delito. 

Nuevas esperanzas contra la arritmia más común


La novedad farmacológica más destacada en el Congreso de la Sociedad Europea de Cardiología que acaba de concluir en París se llama apixaban. Su eficacia la avala un estudio con más de 18.000 pacientes, que se ha presentado en la reunión internacional y, lo que es más importante, se ha publicado en la revista médica de referencia, The New England Journal of Medicine.
Dos años antes, la misma publicación recogía datos similares de un medicamento muy parecido, el dabigatrán, que también demostró su eficacia en un gran ensayo clínico con un número similar de afectados por fibrilación auricular (FA), la forma más común de desajuste del ritmo cardiaco, o arritmia, que se calcula que afecta a entre medio millón y un millón de españoles, según explica el presidente de la Sociedad Española de Cardiología (SEC), Carlos Macaya.
Existe un tercer fármaco en liza, el rivaroxaban, que también ha presentado datos positivos en París. Todos ellos buscan la aprobación de las autoridades sanitarias europeas para prevenir eventos cardiovasculares la mayoría ya están autorizados para otros usos en personas con FA que, en su mayoría, siguen tratamiento en la actualidad con acenocumarol, un fármaco muy utilizado en España más conocido por su nombre comercial, Sintrom.
Se trata de un anticoagulante que funciona muy bien, pero que requiere de controles periódicos (más o menos de una vez al mes) para ajustar la dosis. Lo mismo sucede con la warfarina, un anticoagulante muy recetado fuera de España y con el que se comparan favorablemente la mayoría de los nuevos fármacos.

Problema económico

Según explica Macaya, estos medicamentos han demostrado reducir las embolias y las hemorragias, sobre todo las craneales. Con ello disminuyen también la mortalidad por FA. "Los datos científicos son muy conocidos, el problema es el económico", subraya este experto.
El presidente de la SEC señala que, aunque es difícil calcular el coste de los nuevos fármacos antes tienen que ser aprobado y se tiene que negociar su precio con las autoridades sanitarias de distintos países, este podría rondar los 150 euros al mes, lo que supone multiplicar por 50 el coste actual del tratamiento para la FA, "de entre dos y tres euros al mes".
Por esta razón, Macaya no tiene claro que el Sistema Nacional de Salud vaya a cubrir estos medicamentos para todo el mundo. "Habrá que verlo", reflexiona. El experto señala, además, que algunos de estos fármacos requieren de dos dosis diarias. "Hay mucha gente mayor entre los usuarios de Sintrom a los que les cuesta tomar varias dosis al día, por lo que existe el riesgo de que se olviden", concluye el presidente de la SEC.  

La década perdida de Estados Unidos


Hubo momentos, en los últimos años, cuando los dirigentes de Estados Unidos no estaban seguros del camino que tomaría la crisis.
En sólo un punto, se sentían absolutamente seguros: Estados Unidos no tomaría -mejor dicho: no podía- tomar la ruta de Japón.
La economía era demasiado flexible; las respuestas gubernamentales a la crisis, muy contundentes; y el electorado, extremadamente exigente como para permitir que el estancamiento al estilo japonés sucediera en suelo de Estados Unidos.
Si hoy le preguntáramos al secretario del Tesoro de Estados Unidos, Tim Geithner, nos diría lo mismo.
Pero, ¿qué diría el presidente de la Reserva Federal, Ben Bernanke?

Si, pero...

En una conferencia reciente a la que asistieron los gobernadores del banco central y economistas, Bernanke dijo que "no esperaba que el potencial crecimiento a largo plazo de la economía de Estados Unidos fuera a resultar afectado considerablemente por la crisis".
Pero Bernanke también dijo que para evitar un daño de ese tipo, los creadores de las políticas gubernamentales deben dar una serie de pasos difíciles.
Las dudas sobre la capacidad para confrontar esos desafíos es lo que lleva a muchas personas, dentro y fuera del país, a preguntarse si, después de todo, no se está yendo por el camino japonés.
Incluso hace seis meses, ese pesimismo sonaba un tanto exagerado.
Aunque hubo problemas en el sistema financiero estadounidense que ayudaron a desencadenar la recesión global de 2008-09, la pérdida de la productividad estadounidense fue mucho más pequeña que en otras economías avanzadas y la recuperación estadounidense fue más rápida que en la mayoría de los países europeos y Japón.
Pero la verdad es que esta recuperación fue mucho más lenta que en el pasado. Sin embargo, se sintió como que era el precio inevitable que se tenía que pagar tras la crisis financiera.

¿Aprendieron la lección?

El gobierno todavía sintió que habían aplicado las lecciones del experimento japonés y, por ende, había evitado el mismo destino.
Por ejemplo, la Fed había cortado, en menos de dos años, las tasas de interés a cerca de cero. Eso le tomó al Banco de Japón, en la década de los 90, seis años.
La respuesta fiscal a la crisis en Estados Unidos fue mucho más contundente (ver el gráfico 3), si bien es cierto que a un alto precio: las relaciones entre los dos principales partidos se enturbiaron de cara al futuro.

Pero, recientes revisiones de las cifras oficiales del Producto Interno Bruto hace que la crisis se vea mucho más profunda: se ha registrado una caída de 5,1% en la productividad nacional y no 4,1% como se pensó previamente.
La recuperación también se ve más débil.
El resultado es que el ingreso nacional no ha regresado al punto donde estaba antes de la crisis, como sí sucedió en Alemania, país que, de hecho, sufrió una recesión más profunda.

Desempleo

En términos de crecimiento económico, el desenvolvimiento de Estados Unidos en los últimos cinco años no ha sido mejor que el de Japón durante los cinco años que le siguieron al estallido de la burbuja de activos, a finales de los años 80. El desempleo estadounidense es considerablemente peor.
El panorama del empleo era un terreno inhóspito al inicio del año. Ahora, es peor, con una tasa de desempleo alrededor del 9% y con un récord de 40% de los desempleados en esa condición por más de seis meses.
En el pasado, los economistas han tendido a alabar la flexibilidad del mercado laboral estadounidense: el desempleo aumenta más rápidamente en una recesión, pero cae más velozmente a medida de que la economía se recupera. Además, el desempleo de largo plazo fue siempre mucho más bajo.

Hoy en día, esa flexibilidad laboral de Estados Unidos pareciera operar en sólo una dirección, mientras que el "sobre-regulado" mercado laboral alemán se ha desempeñado impresionantemente bien.
Algunas estadísticas destacan el fracaso de la economía estadounidense para crear empleos para su creciente población: en 1958, 85% de los hombres estadounidenses en edad de trabajar estaban trabajando. Hoy, menos del 64% tiene empleo y, en caso de que crean que es simplemente debido a que las mujeres entraron a la fuerza laboral, el porcentaje de todos los estadounidenses, hombres y mujeres, que tienen un empleo es menor que lo que se ha registrado desde inicios de la década de los 80.

Lecciones de la historia

Pero no se trata sólo de trabajos. En su último estudio sobre la economía de Estados Unidos, el Fondo Monetario Internacional analizó en detalle las últimas diez recesiones de Estados Unidos.
Tomando como base la mayoría de los indicadores clave, las dos crisis del siglo XXI (la de 2000-01 y 2008-09) han sido las peores.
Eso es lo que hace que muchos piensen que Estados Unidos ya sufrió una "década perdida", al menos en Main Street (es decir, en el bolsillo de los consumidores).
El ingreso promedio de los hogares estadounidenses cayó 3,6% entre 2001 y 2009.
Los ingresos reales volvieron a caer nuevamente en 2011, mientras que la inflación repunta y los salarios se mantienen en el mismo lugar.
La debilidad de los salarios es similar a la que experimentó Japón (vea el gráfico 8).

Como muestra el gráfico, Estados Unidos no es Japón todavía. Necesitaría otros cinco años de lo mismo para realmente seguir el camino de Japón.
El problema es que los analistas están empezando a ver otro síntoma que el Estados Unidos de 2011 comparte con el Japón de los 90: parálisis política.
Eso, más que el crecimiento débil o el actual nivel de endeudamiento público, es lo que más le preocupa a la agencias de riesgo.

¿Recuperación moderada?

Muchos economistas piensan que Estados Unidos podría experimentar una moderada, pero estable, recuperación económica en los próximos años.
Pero, como ha enfatizado Bernanke, eso requerirá que los políticos tomen decisiones difíciles, incluyendo un plan creíble de reducción, a largo plazo, de préstamos federales.
Asimismo, se debe evitar, el año que viene, poner en riesgo la recuperación económica con un retiro demasiado pronto del programa de estímulo.

Incluso -pese al acuerdo al que llegaron los legisladores sobre el límite de endeudamiento estadounidense- existe una gran posibilidad de que las discrepancias entre demócratas y republicanos tengan un efecto adverso: una excesiva rigidez a corto plazo, del orden del 2% del PIB en 2012, sin una sólida estrategia para encaminar la deuda pública hacia un patrón de reducción en cinco años.
Por todas estas razones, es un tanto fácil deprimirse sobre el futuro de Estados Unidos. También es sencillo entender por qué la agencia de calificación Standard & Poor's concluyó que la deuda del gobierno de Estados Unidos no sería triple-A por ahora.

¿Malbaratando a EE.UU.?

Pero, también se podrían encontrar razones para pensar que los pesimistas, entre ellos S&P, no están vendiendo bien a Estados Unidos.
¿Por qué? Porque dejando la política a un lado, muchos de los ajustes que la economía estadounidense necesitaba para frenar el aumento de su deuda y para competir en los mercados globales, ya están en marcha.
Los ahorros de las corporaciones y de los hogares han aumentado considerablemente y la productividad está despegando. El actual déficit por cuenta corriente ha ido cayendo, es decir, casi la mayoría del déficit presupuestario del país está siendo financiado por los propios ciudadanos (aunque un significante porcentaje de la deuda acumulada está bancos internacionales).
De acuerdo con Diana Choyleva, de Lombard Street Research, los costos laborales unitarios en la industria de Estados Unidos cayeron 2% en 2009 y otro 2,8% en 2010.
Las estadísticas de China son más difíciles de conseguir, pero el aumento de los precios y los salarios significa que los costos laborales unitarios de la compañías chinas han probablemente aumentado entre 2,5% a 4,3% al año.
Eso significa que, incluso con China permitiendo una nominal apreciación del yuan contra el dólar, compañías estadounidenses están siendo percibidas mucho más competitivas que hace pocos años.

¿Futuro asiático?

Quizás el siglo XXI le "pertenecerá a China y a India", como muchos sugieren. Pero, Estados Unidos ha sido dado de baja muchas veces antes. Las empresas globales a las que les fue bien en la década pasada, particularmente en el ámbito de la economía digital, saber apreciar a los iconoclastas, a lo que toman riesgos y quienes piensan creativamente.
Para bien o para mal, Estados Unidos es mejor conocido por esas características, mucho más que China o Alemania.
Independientemente de que sea un espejo japonés, la economía de Estados Unidos parece estar adentrándose en un camino difícil. Pero, mirando al otro lado del Atlántico, es difícil discutir que los países europeos están manejando sus problemas mucho más decididamente.
Y, a diferencia de Estados Unidos, las economías de la eurozona no tienen la demografía de su lado: en la mayoría de las naciones europeas, la fuerza laboral está encogiéndose y, por eso, probablemente, también la tasa de crecimiento potencial a largo plazo.
Esta, quizás, es la verdadera lección de la rebaja de la calificación de la deuda de Estados Unidos, y de la reacción de los mercados a esa noticia.
Inversionistas podrían tener una buena razón para preocuparse sobre el futuro de Estados Unidos, pero, por ahora, al menos el mundo todavía gira alrededor de Estados Unidos.
Si la dinámica financiera va a continuar conspirando para poner a la economía estadounidense en una permanente inestabilidad, eso podría ser una noticia, incluso peor, para el resto del mundo.



                    

Otra mano en la economía venezolana


El Estado venezolano se mete cada vez más en la economía. Con la nueva ley de Costos y Precios Justos, que para el gobierno de Hugo Chávez constituye un nuevo mecanismo en la "transición al socialismo", las autoridades tendrán la potestad de fijar los precios de productos y servicios en todos los sectores de la economía con excepción de la banca.
El objetivo, aseguran las autoridades, es combatir la especulación y la inflación, que alcanza el 26% y es la más alta de América Latina –y una de las más altas del mundo.

El decreto, con fuerza de ley, fue aprobado el mes pasado por Chávez en el marco de los poderes especiales que obtuvo en diciembre pasado a raíz de las emergencias por las lluvias.
Los empresarios aseguran que la normativa, que entrará en vigor en octubre, representa un peligro para la economía, no servirá para combatir la inflación y aumentará el desabastecimiento ya existente de algunos productos.
Algunos analistas consultados por BBC Mundo la consideran sencillamente "inaplicable".

Control y sanción

La ley prevé la creación de un sistema de administración de precios de venta (Sistema Nacional Integrado de Costos y Precios) y márgenes de ganancia, que busca promover el "uso de la planificación y el control de los costos empresariales".

También se establece una Superintendencia adjunta a la vicepresidencia que sancionará a los "especuladores" con penas que van desde multas hasta el cierre temporal.
Este organismo evaluará los costos y las ganancias y fijará los precios máximos de sectores como alimentos, salud, medicamentos, materiales de construcción y vivienda, educación y textiles.
El presidente Chávez dice que la ley dará "herramientas al Estado y al pueblo venezolano para derrotar la especulación, el acaparamiento y la voracidad del mercado y de la burguesía".
"Los empresarios y comerciantes privados que no tengan como práctica la usura, la especulación y el aprovechamiento no tienen que tener ningún temor", asegura el vicepresidente Elías Jaua.
Los sectores en los que el gobierno tiene mayor interés en regular son los de medicamentos, alimentos y útiles escolares, aunque no se fiscalizarán cigarrillos ni alcohol, según Jaua.

Más controles

La medida es vista con escepticismo desde algunos sectores.
Ya en los años ochenta del siglo pasado existió una Comisión Nacional de Costos, Precios y Salarios que intentó algo similar y fracasó.
Y desde 2003 el gobierno aplica un control de precios a productos considerados de primera necesidad.
Sin embargo, la medida no ha logrado detener la inflación y ha generado que haya desabastecimiento de algunos productos regulados.
Venezuela importa el 70% de los alimentos y con un tipo de cambio regulado los comerciantes se quejan de que algunos productos llevan hasta cinco años con el mismo precio de venta cuando el costo se ha elevado.
El aceite y la leche en polvo, por ejemplo, son difíciles de conseguir. Y cuando llegan a los anaqueles de los supermercados, vuelan.
Mientras el gobierno considera que la inflación se debe a la especulación y a los abusos del modelo capitalista, desde el sector empresarial se la considera una consecuencia de vivir bajo una economía centralizada y regulada por el Estado.
El principal gremio empresarial, Fedecámaras, estima que la ley trancará la economía y acentuará la escasez.

"Beneficio al consumidor"

Los defensores de esta ley aseguran que gracias a ella se establecerán mecanismos de control de precios a aquellas empresas cuyas ganancias son excesivas en proporción a sus costos.

"En Venezuela es necesario reformar un marco legal y un entorno institucional para tratar de controlar la especulación sobre todo, más que la inflación. Eso lo hace cualquier país del mundo", le dice a BBC Mundo el economista Víctor Martínez, ministros de Industria entre 2005 y 2007.
Pero reconoce que "si la ley no se aplica con dinamismo y agilidad, los costos van a ser más altos que el precio de venta y en esas condiciones el desestímulo para producir puede generar el fenómeno de la escasez".
Martínez considera que el gran beneficiado por la ley será el consumidor.
Y señala que esta normativa debe complementarse "con una política industrial y tecnológica para aumentar la productividad, la calidad y la competencia acompañada de una política para reindustrializar el país".
Martínez recuerda que hay 0,25 establecimientos industriales por cada 1.000 habitantes, mientras que Colombia y México tienen 1,2 y 1,7 respectivamente.
El economista Jesús Casique coincide.
"Venezuela tiene un problema fuerte de productividad, se requiere más oferta de bienes y servicios. El gobierno tiene que fortalecer el sector de manufacturas y el comercio".
Para el economista José Guerra, exdirector del Banco Central de Venezuela, la ley es inaplicable y ni siquiera sirve para combatir la inflación, opinión compartida por Casique.
"Una cadena de supermercados puede tener 13.000 productos distintos, entonces hay que hacer una estructura de costos para esos 13.000 productos. O una estructura de costos para cada tipo de pizza que venda una pizzería. Cambio un ingrediente y me cambia la estructura de costos".
"Se van a tener que concentrar en algunos productos básicos", indica Guerra, para quien esta "jugada del gobierno para contener la inflación" es "muy engorrosa".



¿Por qué los que tienen Mac no temen a los virus?


Es la pesadilla de todo usuario de Windows. De repente y sin previo aviso, el ratón deja de responder y aparece en la pantalla una ventana de alerta informándonos que el sistema operativo está experimentando un error irremediable.
Esa ventana se multiplica infinitamente, mientras la máquina emite un extraño pitido intermitente. No nos queda otra solución que apagar la computadora a la fuerza y rezar para que cuando la volvamos a encender todo funcione con normalidad.

En muchos casos no será así y el diagnóstico de lo sucedido incluirá la palabra virus.
Esta escena tan habitual para los que utilizan el sistema operativo de Microsoft hace que algunos se planteen cambiar sus computadoras por una Mac de Apple, ya que existe la creencia extendida de que estas no tienen virus.
Pero, ¿es eso realmente cierto? ¿Son las computadoras de la firma californiana inmunes a esos virus que hacen que compañías y particulares gasten cada año miles de millones de dólares en programas de protección?
La respuesta es no. Las Mac, como las computadoras que funcionan con Windows, pueden ser infectadas por un software malicioso (conocido como malware en inglés), que incluye, entre otros, a los temidos virus y troyanos.
clic Lea: Hacia dónde va Apple sin Steve Jobs
Pero los expertos coinciden en que la probabilidad de que una computadora de la familia Mac resulte infectada por uno de estos malwares es infinitamente menor que en el caso de los aparatos que utilizan el sistema operativo de Microsoft.

El sistema operativo

Las razones para ello son diversas y entre los expertos existen discrepancias, aunque la mayoría coincide en señalar a la fortaleza del sistema operativo de Apple y a su menor cuota de mercado como los motivos de la aparente inmunidad de las Mac ante las infecciones.
"El sistema operativo de Apple, el Mac OS X, no tiene tantas vulnerabilidades como Windows, por lo que a los piratas informáticos les cuesta más penetrarlo", le explicó a BBC Mundo el ingeniero informático mexicano Jaime Chevarría.
"Al ser un sistema de código abierto (término con el que se conoce al software distribuido y desarrollado libremente) no tiene los huecos o vacíos en la programación que tiene el sistema de Microsoft y que lo hacen más vulnerable", señala Chevarría.
El código abierto utilizado por Apple permite que cualquiera con conocimientos de programación pueda contribuir a detectar vulnerabilidades y así hacer más seguro el sistema frente a ataques.

En el caso de Windows, al ser un sistema de código cerrado, tan sólo los programadores de la propia compañía pueden encontrar esas fallas, lo que haría al sistema más frágil.
Chevarría también señala a la herramienta utilizada por Apple para la programación como uno de los factores que, en su opinión, hacen que las Mac sean menos vulnerables a los virus.
"El código de programación que se utiliza en la plataforma Macintosh es más seguro que el lenguaje de programación de Microsoft", asegura el experto.
"Así que podemos decir que el sistema operativo y los lenguajes de programación hacen a las Mac más fuertes frente a los virus", concluye Chevarría.
A estos dos elementos, algunos especialistas añadirían las vulnerabilidades que presenta el navegador Internet Explorer de Windows o las trabas que encuentran los usuarios de computadoras Apple para instalar ciertos programas que podrían facilitar la entrada de un virus.

Menor cuota de mercado

Pero la menor incidencia de los virus en las Mac no se debería tan sólo a cuestiones técnicas. Los expertos coinciden que un elemento importante es la diferencia abismal que existe entre la cuota de mercado de la que disfruta Windows en relación con la de las computadoras de Apple.
"Las computadoras que funcionan con Windows acaparan una cuota de mercado muchísimo mayor que las de Apple. Eso hace que a la mayoría de piratas informáticos les interese más buscar agujeros en la seguridad del sistema operativo de Microsoft", le explicó a BBC Mundo Joel Bosh, de la firma Mac Wizard, con sede en Miami, Estados Unidos.
Las cifras varían, pero Windows contaría aproximadamente con un 95% del mercado de las computadoras personales, frente al 4% de Mac y el 0,5% de otros sistemas operativos.
"No hay que olvidar que al final el que crea un virus en muchos casos lo hace para obtener algún beneficio económico y por eso es más rentable crear un virus para Windows que para el sistema operativo de Apple", asegura Bosh.
Al fin y al cabo, con los virus se busca infectar al máximo número de computadoras posible y en el caso de las Mac, por su reducido número de usuarios, la propagación de los programas maliciosos es limitada.

En cualquier caso, Bosh alerta que no hay que bajar la guardia: "En los último tiempos y a medida que las computadoras de Apple se venden más, han salido nuevos virus que atacan a su sistema operativo, como el llamado Mac Defender, lo que demuestra que es posible encontrar vulnerabilidades".
El malware al que se refiere Bosh estuvo causando problemas a los usuarios de Mac a principios de año.
MacDefender funcionaba mediante un mensaje falso que advertía a los usuarios que sus máquinas estaban infectadas por un virus, por lo que debían instalar el software anti-virus. Si los clientes aceptaban instalarlo, el programa comenzaba a cargar sitios con pornografía.
Este programa malicioso podría ser la primera llamada de atención de importancia para los que creen que las Mac no tienen virus.
Según el consultor tecnológico Graham Cluley, de la firma Sophos, "la gran mayoría de los malwares va dirigido a los usuarios de Windows".
"Cerca de 100.000 nuevos programas maliciosos para Windows se detectan todos los días", explica.
Pero el experto adivierte: "A pesar de que el que los malwares que existen para Mac OS X son muchos menos que los existentes para Windows, no hay razón para engañarse y pensar que no hay amenazas para las Mac ahí fuera".

Redes celulares ayudan a mejorar la asistencia en catástrofes


Poder seguir los movimientos de las poblaciones durante catástrofes naturales, que afectan a más de 100 millones de personas cada año, es clave para poder coordinar efectivamente la asistencia humanitaria.
Relevar esos datos no es una tarea sencilla; insume tiempo, se efectúa según evaluaciones desde el propio terreno y con datos segmentados.

Para mejorar la velocidad de recopilación y calidad de esta información, un grupo de investigadores realizó un experimento utilizando las redes de telefonía celular tras el terremoto y durante el brote de cólera que azotaron a Haití en 2010. Sus resultados fueron publicados ahora en la revista PLoS Medicine.
Allí, los científicos de la Universidad de Columbia (EE.UU.) y el Instituto Karolinska de Suecia describen un método que desarollaron para seguir el movimiento de unos dos millones de teléfonos celulares e informar a las agencias de asistencia humanitaria dónde era más urgente que intervinieran.

600.000 desplazados

Tras el terremoto de enero de 2010, se empezaron a conocer reportes de pobladores que dejaban la capital, Puerto Príncipe.

Los investigadores consiguieron que el mayor proveedor de celular del país, Digicel, les facilitara información (de la que previamente habían eliminado detalles personales) acerca de cuáles de las torres de telefonía del país eran utilizadas para hacer llamados y por cuántos dispositivos.
Con esos datos lograron estimar que 600.000 personas habían dejado la capital de Haití 19 días después del terremoto y consiguieron plasmar las nuevas concentraciones de población del país y los movimientos de los desplazados sobre un mapa.
Reportaron de inmediato los datos que obtuvieron a Naciones Unidas y otras organizaciones de ayuda que estaban trabajando en el terreno.
Lo mismo hicieron los investigadores durante el brote de cólera de octubre de 2010.
"Recibimos velozmente información de la telefonía celular y en menos de 12 horas pudimos enviar análisis describiendo qué áreas habían recibido gente de la zona afectada por el brote de cólera", explicó Linus Bengtsson, del Instituto Karolinska y uno de los autores del trabajo.
Eso también permitió "dar información sobre las áreas en riesgo potencial de experimentar nuevos brotes", agregó.
Las estimaciones que habían generado durante los días posteriores al terremoto coincidieron con un estudio a gran escala llevado a cabo por la ONU seis meses más tarde.

En conflictos, no

Bengtsson aseguró que su modelo puede utilizarse en cualquier parte del mundo, sobre todo teniendo en cuenta que el 86% de la población del planeta vive bajo cobertura de redes celulares.
"Tendremos que seguir evaluando el sistema en el futuro", le dijo a BBC Mundo. "Pero es muy prometedor".
Sin embargo reconoció que puede tener limitaciones en situaciones críticas que no sean desastres naturales, en los que "el objetivo de todos los actores es ayudar a los afectados".
En confrontaciones bélicas como la de Libia, sería difícil ponerlo en práctica.
"En una situación de conflicto hay que tener en cuenta los objetivos de las facciones que se enfrentan", explicó.
"Además, los operadores telefónicos podrían mostrarse reticentes a compartir la información si existiera un riesgo para ellos".

Otras tecnologías

La de la Universidad de Columbia y el Instituto Karolinska es una de las soluciones tecnológicas que se pudo poner a prueba en la secuencia de catástrofes que sufrió Haití.
No fue la única. Tras el terremoto, los haitianos utilizaron la web y las redes sociales para comunicarse entre sí, avisando a sus familiares dónde se encontraban.

Y el proyecto Ushahidi aprovechó esta capacidad de generar y difundir información para elaborar, tras el terremoto, un mapa en línea con los riesgos de infraestructuras, falta de agua y comida y personas desaparecidas.
"Después mandamos estos mapas a las organizaciones que se encuentran en el terreno, lo que les permite después cubrir las necesidades específicas que la gente envió", había contado entonces el cofundador de Ushahidi, Erik Hersman.
Esa organización también había llegado a un acuerdo con Digicel, que creó un número corto para que la gente pudiera mandar mensajes de texto con información.
Bengtsson dijo que en el futuro les gustaría poder trabajar con Ushahidi y otras organizaciones semejantes, desde una organización sin fines de lucro que los investigadores están creando.
"Estamos interesados en colaborar ampliamente con otras buenas iniciativas", aseguró.


EE UU demandará a cuatro grandes bancos por conceder las 'hipotecas basura'

La Agencia Federal de Finanzas de Estados Unidos prepara una demanda contra más de una docena de bancos por valorar erróneamente los títulos hipotecarios que se concedieron en plena burburja inmobiliaria, según informa el diario 'The New York Times'.

La demanda irá dirigida, entre otros, contra Bank of America, JP Morgan, Goldman Sachs y Deutsche Bank, según informan tres fuentes cercanas al caso, citadas por el rotativo estadounidense.
La agencia argumenta que estos grandes bancos no observaron la diligencia debida a la hora de calificar los títulos hipotecarios, ya que inflaron su valor, el cual se redujo significativamente con la aparición de los primeros deudores.

El objetivo de la agencia es recuperar las pérdidas millonarias que ocasionaron y que, en su mayoría, han tenido que sufragar los estadounidenses con subidas de impuestos. En concreto, pretende recuperar parte de las pérdidas ocasionadas por las agencias de calificación hipotecaria Fannie Mae y Freddie Mac, valoradas en unos 30.000 millones de dólares (21.043 millones de euros).
The New York Times señala que la agencia espera obtener una indemnización de 900 millones de dólares (631 millones de euros), la misma cifra que exigió el pasado mes de julio a USB, otra agencia de calificación hipotecaria, en una demanda similar.
Las fuentes citadas por el rotativo han explicado que la demanda se presentará antes del miércoles, cuando vence el plazo para presentar reclamaciones a tenor de las citaciones enviadas hace un año por la agencia a estos bancos.
De forma paralela, medio centenar de fiscales generales estadounidenses preparan una demanda contra varias entidades financieras -entre ellas Bank of America, JP Morgan y Citigroup- por los abusos cometidos con las hipotecas. Con ello esperan obtener 20.000 millones de dólares (14.029 millones de euros) que destinarán a pagar parte de las hipotecas en riesgo de ejecución.

Nueva beta de iOS 5 para los desarrolladores


Apple ha vuelto a lanzar una beta de la próxima versión de su sistema operativo para dispositivos móviles, iOS 5. Es la séptima vez que los desarrolladores consiguen una versión de prueba desde junio.
Como suele ser habitual en estos casos, ha sido Boy Genius Report quien ha publicado una copia completa del registro de cambios, algo que los desarrolladores no pueden hacer por el acuerdo de no divulgación que firman con Apple.
La mayoría de los cambios parecen ser parches para las versiones anteriores del software, pero también se han añadido herramientas para crear interfaces de usuario y Xcode.
Apple ya ha confirmado que lanzará iOS 5 como una actualización gratuita para los usuarios este otoño. Normalmente la compañía lanza varias versiones de prueba de sus grandes lanzamientos a los desarrolladores para que les dé tiempo a trabajar sobre cualquier fallo y a integrar nuevas características y APIs en sus aplicaciones.
iOS 5 beta 7 es la última de una serie de lanzamientos que se han producido cada pocas semanas: iOS beta 1 el 6 se junio; iOS beta 2 el 24 de junio; iOS beta 3, el 11 de julio; iOS beta 4 el 22 de julio; iOS beta 5 el 6 de agosto e iOS beta 6 el 19 de agosto.
En la nueva versión de iOS se ha realizado una revisión en profundidad del sistema de notificaciones, y se incluirá iMessage, una opción que permitirá a los usuarios de iOS chatear con otros sin costes. La nueva versión del software también estará unida al próximo servicio iCloud de la compañía, que permitirá a los usuarios intercambiar fotos, aplicaciones y ajustes de configuración entre dispositivos iOS, además de servir como una solución de backup en la nube.

Tres años con Google Chrome


Google Chrome, el navegador web de código abierto de Google, cumple hoy tres años desde que fuera lanzado.
Así lo ha confirmado la compañía en un post en su blog oficial. Para celebrarlo, Google ha preparado una infografía interactiva en la que realiza un repaso por la historia de la web, desde 1990 hasta nuestros días, y en la que se detallan los hechos más destacados gráficamente. Puede consultarse aquí.
Desde que fuera lanzado el 2 de septiembre de 2008, Google Chrome ha ido comiendo terreno a otros navegadores hasta afianzarse como tercer software más utilizado en el mundo para la navegación en Internet, minando sobre todo la supremacía de Internet Explorer de Microsoft y acercándose a la cuota de mercado que posee Firefox, de la Fundación Mozilla.
En algunos sistemas operativos de más reciente lanzamiento, como Windows 7, Google Chrome ya es el segundo navegador más usado en el mundo, rozando la cifra de Internet Explorer.
Chrome, que ya va por su 13 actualización, ha evolucionado en rapidez y seguridad durante estos tres años, e incluso ha evolucionado en un nuevo tipo de producto, el Chromebook, una especie de netbook que funciona con éste navegador y que realiza las funciones más básicas de cualquier PC.

A Google le interesan algo más que las patentes de Motorola

ric Schmidt, presidente de Google, ha dicho que la compra de Motorola Mobility por 12.500 millones de dólares tenía como obtenido la “adquisición de productos, y no sólo de patentes”.
La compra de Motorola Mobility ha permitido a Google acceder a 17.000 patentes registradas. De toda esa cantidad, 18 tiene una gran importancia porque están relacionadas con tecnologías esenciales para la industria de los smartphones, como los servicios de localización, diseños de antena, envíos de correo electrónico, pantallas táctiles, etc. Esas 18 patentes permitirían a Google proteger su sistema operativo Android frente a posibles litigios.
Y a pesar de la importancia de estas patentes, Google asegura que la compra no se realizó sólo por ellas, ya que “el equipo de Motorola tiene algunos productos increíbles”, asegura Schmidt.
Lo que está claro es que acuerdo ayudará a Google a expandir su negocio de smartphones de forma que pueda competir mejor con Apple y su iPhone.
Sobre la dimisión de Steve Jobs como CEO de Apple la semana pasada, Schmidt asegura que  ha realizado un magnífico trabajo como CEO y que “todos nos beneficiaremos de la tremenda innovación de Apple”, algo que dice como “orgullos ex-miembro de la junta de Apple”, recoge Bloomberg. Schmidt fue miembro de la junta de Apple mientras fue CEO de Google, abandonando su puesto en agosto de 2009, cuando creció la rivalidad entre las dos empresas. La expansión de Google en el mercado de software para telefonía móvil colocó a la compañía en competición directa con los productos de Apple, incluido el iPhone, que se lanzó en 2007.

La otra cara de Apple, a la luz

El volumen de residuos peligrosos producidos por los proveedores de Apple es especialmente grande en China, donde la compañías TIC acuden a por mano de obra barata. El hermetismo y opacidad de muchas de ellas impide conocer lo que ocurre con los residuos tóxicos.
Una investigación ha puesto de manifiesto que las prácticas productivas de más de 27 proveedores de Apple han tenido problemas ambientales. Por el contrario en el informe de responsabilidad publicado por la propia compañía no se mencionaba de ninguna violación basada en la contaminación del medioambiente.
Problemas de salud de los trabajadores, ventilación de los residuos químicos más agresivos por la noche, resoluciones de gobiernos locales que no van a ninguna parte son algunos de los puntos que denuncia el informe elaborado por diversas asociaciones ecologistas, y que recoge TechCrunch.
Aseguran que la ley china ampara, o hace la vista gorda al vertido de metales pesados o toneladas de residuos de cianuro, por ejemplo, a pesar del daño medioambiental. La divulgación selectiva o la no divulgación de los detalles de producción hace imposible que se conozcan estos procesos.
Tras los suicidios en Foxconn que daban pistas sobre las condiciones en las que se encontraban los trabajadores de los proveedores del gigante de Cupertino, éste es más cauteloso cuando da a conocer su informe de responsabilidad de proveedores que detalla las auditorías y las respuestas.