Los programas de la televisión representan ya el 32% de todos los comentarios que se realizan en Twitter durante la franja de prime time, a partir de las 9 de la noche. Esta cifra es solo ocho puntos más baja que la de EE.UU. o Reino Unido, según el informe mensual de Tuitele, que mide mensualmente los comentarios enviados a través de Twitter a los diferentes programas de las cadenas españolas. Realities y deportes acumulan la mayoría de todos los tuits.
Junio se cerró con nuevos récords: por primera más de 1,5 millones de telespectadores comentaron en las redes sociales algún programa mientras lo estaban viendo, un crecimiento del 9% respecto al mes anterior. En un año la cifra se ha multiplicado por diez.
También por primera vez se superaron los 8,8 millones de comentarios, un 11,3% más que en mayo. Hace un año fueron 1,5 millones.
Por programas, la final de Gran Hermano Catorce ha conseguido batir el récord de comentarios de una emisión, con más de 560.000, mientras que por su parte el partido entre España e Italia de la Copa Confederaciones ha registrado el récord de espectadores sociales únicos hasta la fecha, con más de 194.000.
Tras Gran hermano se sitúa la final de tenis de Roland Garros y, en tercer lugar, Un príncipe para Corina.
Buscar
2013/07/03
En Internet hay menos porno de lo que se piensa
En lo que se refiere a la pornografía, mucho es exageración, incluidas las estadísticas que regularmente se citan sobre cuánta pornografía hay en Internet.
Hoy en día parece estar de moda que los políticos, analistas y medios debatan la influencia que la pornografía está teniendo en los niños y adolescentes y cuál es el impacto de esto en el aprendizaje sobre el sexo. Y en esos debates se citan diferentes estadísticas. Pocas, sin embargo, pueden confirmarse.
Una cifra que suele presentarse una y otra vez es que 37% de Internet está compuesto de material pornográfico. Muchas de las personas que citan esta cifra la han tomado de un comunicado de prensa publicada en junio de 2010 por la firma de análisis de internet Optenet.
Un portavoz de la empresa dijo a la BBC que "las estadísitcas no están actualizadas y yo no las usaría para reflejar la realidad de internet actualmente". Eso podría deberse a que hoy en día hay muchos más datos.
Según cálculos del centro de investigación escandinavo Sintef, 90% de todos los datos que la humanidad ha producido se han generado en los pasados dos años.
Esta explosión se debe al incremento de la Red, los teléfonos inteligentes, redes sociales y los proyectos de "grandes datos" en los que empresas, gobiernos y científicos están involucrados.
Creador de mercado
Pero vale la pena preguntase si la cifra de 37% de Optnet fue precisa, incluso en 2010. La empresa firma que el dato surgió de una "muestra representativa" de casi cuatro millones de URL tomados de su base de datos de contenido de internet.
Sin embargo, ese mismo año el mayor estudio que se ha realizado sobre la sexualidad humana publicó una cifra muy diferente sobre cuántos de los sitios más populares de internet estaban dedicados a la pornografía.
Los académicos que lo llevaron a cabo basaron sus resultados en el análisis de millones de los sitios más frecuentados en el mundo. Su cálculo: sólo 4% de esos sitios eran porno.
Aunque los dos estudios no midieron exactamente los mismos factores -Optnet contó páginas, los académicos sitios- vale la pena notar que el número de páginas en un sitio no dice nada sobre su influencia en la audiencia.
Como lo sugieren otros estudios, es probable que los sitios porno sean desproporcionadamente grandes ya que su negocio es dar a los visitantes nuevo contenido y, como resultado, deben crear cientos de nuevas páginas cada día.
Así que, según estos estudios, los sitios porno tienen enormes archivos pero el número de páginas que la gente realmente ve es relativamente pequeño.
Esto significa que es mejor medir el número de visitantes que el tamaño del sitio, como señala el doctor Ogi Ogas, coautor de un amplio estudio en 2010, llamado "Mil millones de pensamientos retorcidos".
Entonces ¿por qué la gente elige la mención de los grandes números? "Los grandes números son más sensaciones y hacen mejores titulares" dice el doctor Ogas. "Pero esos grandes números siempre han sido un mito".
Es probable que tres años después la cantidad de porno en línea sea mucho menor, dice, debido a la consolidación en la industria del porno y al aumento de los sitios que duplican y sindican el contenido.
Estadísticas "zombis"
Un artículo en Extreme Tech a menudo es citado porque calculó que el 30% de todo el tráfico de la red es generado por sitios porno. El artículo llegó a esta cifra calculando cuánto tráfico generaba cada día un popular sitio porno y multiplicado ese número por "decenas" de otros sitios porno de tamaño similar que según éste estaban en la red.
Sin embargo, este tipo de matemática es problemático. Primero porque subestima cuántos datos viajan a través de la red cada día. Extreme Tech argumenta que el total de datos diarios en 2012 eran la mitad de un exabyte. Las cifras del gigante de hardware de internet Cisco indican que el número era de 1,4 exabytes.
También hay razones para cuestionar estos cálculos de tráfico. Extreme Tech indica que su sitio de ejemplo tenía 100 millones de visitantes cada día. Sin embargo, para un artículo diferente sobre sitios porno se le dijo a la BBC que ese sitio tenía un total mucho menor de visitantes diarios y que muchos otros sitios eran supervisados por la empresa de hosting Manwin.
Manwin señala que en todos los sitios tiene unos 70 millones de visitantes cada día. La cifra puede estar inflada debido a que, como han mostrado otros estudios, los sitios porno están construidos para ser generadores de clics.
Cada clic del ratón en un video o foto puede generar muchos más ya que un visitante es redirigido a sitios afiliados, anuncios o pop-ups. Así que es probable que el número de visitantes para estos sitios y consecuentemente cuánto tráfico generan sea mucho menor.
Un bloguero de Ministry of Truth llegó a una conclusión similar cuando analizó la estadística del 30% y varias otras en una serie de columnas. El bloguero concluyó que el porno forma un pequeño porcentaje del tráfico general y éste es mínimo comparado con YouTube o las principales redes sociales.
Por eso las cifras y hechos sobre el porno en internet suele descr¡birse como "estadísticas zombis" ya que, igual que éstos, se rehúsan a morir a pesar de los repetidos esfuerzos para matarlos. El dudoso origen de estas estadísticas es un hecho bien conocido en la industria de la tecnología. "Estamos conscientes de que muchas estadísitcas están siendo usadas en relación a la seguridad de internet y nos preocupa su precisión" indica Nicholas Lansman, secretario general de ISPA, que representa a empresas de abastecimiento de internet. Todo el que cite una estadística debe revisar su veracidad, dice.
"Es vital que cualquier decisión en relación a la seguridad en internet, igual que cualquier otra área política, esté basada en evidencia y no en mitos o afirmaciones" agrega.
Lo que vale la pena recordar es que incluso si hubiera mucho menos porno en línea que lo que la gente afirma, todavía sigue habiendo mucho, afirma el doctor Ogas.
"14% de las búsquedas y 4% de los sitios de internet están dedicados al sexo y realmente, si nos ponemos a reflexionar, éstos son números muy importantes" agrega.
Hoy en día parece estar de moda que los políticos, analistas y medios debatan la influencia que la pornografía está teniendo en los niños y adolescentes y cuál es el impacto de esto en el aprendizaje sobre el sexo. Y en esos debates se citan diferentes estadísticas. Pocas, sin embargo, pueden confirmarse.
Una cifra que suele presentarse una y otra vez es que 37% de Internet está compuesto de material pornográfico. Muchas de las personas que citan esta cifra la han tomado de un comunicado de prensa publicada en junio de 2010 por la firma de análisis de internet Optenet.
Un portavoz de la empresa dijo a la BBC que "las estadísitcas no están actualizadas y yo no las usaría para reflejar la realidad de internet actualmente". Eso podría deberse a que hoy en día hay muchos más datos.
Según cálculos del centro de investigación escandinavo Sintef, 90% de todos los datos que la humanidad ha producido se han generado en los pasados dos años.
Esta explosión se debe al incremento de la Red, los teléfonos inteligentes, redes sociales y los proyectos de "grandes datos" en los que empresas, gobiernos y científicos están involucrados.
Creador de mercado
Pero vale la pena preguntase si la cifra de 37% de Optnet fue precisa, incluso en 2010. La empresa firma que el dato surgió de una "muestra representativa" de casi cuatro millones de URL tomados de su base de datos de contenido de internet.
Sin embargo, ese mismo año el mayor estudio que se ha realizado sobre la sexualidad humana publicó una cifra muy diferente sobre cuántos de los sitios más populares de internet estaban dedicados a la pornografía.
Los académicos que lo llevaron a cabo basaron sus resultados en el análisis de millones de los sitios más frecuentados en el mundo. Su cálculo: sólo 4% de esos sitios eran porno.
Aunque los dos estudios no midieron exactamente los mismos factores -Optnet contó páginas, los académicos sitios- vale la pena notar que el número de páginas en un sitio no dice nada sobre su influencia en la audiencia.
Como lo sugieren otros estudios, es probable que los sitios porno sean desproporcionadamente grandes ya que su negocio es dar a los visitantes nuevo contenido y, como resultado, deben crear cientos de nuevas páginas cada día.
Así que, según estos estudios, los sitios porno tienen enormes archivos pero el número de páginas que la gente realmente ve es relativamente pequeño.
Esto significa que es mejor medir el número de visitantes que el tamaño del sitio, como señala el doctor Ogi Ogas, coautor de un amplio estudio en 2010, llamado "Mil millones de pensamientos retorcidos".
Entonces ¿por qué la gente elige la mención de los grandes números? "Los grandes números son más sensaciones y hacen mejores titulares" dice el doctor Ogas. "Pero esos grandes números siempre han sido un mito".
Es probable que tres años después la cantidad de porno en línea sea mucho menor, dice, debido a la consolidación en la industria del porno y al aumento de los sitios que duplican y sindican el contenido.
Estadísticas "zombis"
Un artículo en Extreme Tech a menudo es citado porque calculó que el 30% de todo el tráfico de la red es generado por sitios porno. El artículo llegó a esta cifra calculando cuánto tráfico generaba cada día un popular sitio porno y multiplicado ese número por "decenas" de otros sitios porno de tamaño similar que según éste estaban en la red.
Sin embargo, este tipo de matemática es problemático. Primero porque subestima cuántos datos viajan a través de la red cada día. Extreme Tech argumenta que el total de datos diarios en 2012 eran la mitad de un exabyte. Las cifras del gigante de hardware de internet Cisco indican que el número era de 1,4 exabytes.
También hay razones para cuestionar estos cálculos de tráfico. Extreme Tech indica que su sitio de ejemplo tenía 100 millones de visitantes cada día. Sin embargo, para un artículo diferente sobre sitios porno se le dijo a la BBC que ese sitio tenía un total mucho menor de visitantes diarios y que muchos otros sitios eran supervisados por la empresa de hosting Manwin.
Manwin señala que en todos los sitios tiene unos 70 millones de visitantes cada día. La cifra puede estar inflada debido a que, como han mostrado otros estudios, los sitios porno están construidos para ser generadores de clics.
Cada clic del ratón en un video o foto puede generar muchos más ya que un visitante es redirigido a sitios afiliados, anuncios o pop-ups. Así que es probable que el número de visitantes para estos sitios y consecuentemente cuánto tráfico generan sea mucho menor.
Un bloguero de Ministry of Truth llegó a una conclusión similar cuando analizó la estadística del 30% y varias otras en una serie de columnas. El bloguero concluyó que el porno forma un pequeño porcentaje del tráfico general y éste es mínimo comparado con YouTube o las principales redes sociales.
Por eso las cifras y hechos sobre el porno en internet suele descr¡birse como "estadísticas zombis" ya que, igual que éstos, se rehúsan a morir a pesar de los repetidos esfuerzos para matarlos. El dudoso origen de estas estadísticas es un hecho bien conocido en la industria de la tecnología. "Estamos conscientes de que muchas estadísitcas están siendo usadas en relación a la seguridad de internet y nos preocupa su precisión" indica Nicholas Lansman, secretario general de ISPA, que representa a empresas de abastecimiento de internet. Todo el que cite una estadística debe revisar su veracidad, dice.
"Es vital que cualquier decisión en relación a la seguridad en internet, igual que cualquier otra área política, esté basada en evidencia y no en mitos o afirmaciones" agrega.
Lo que vale la pena recordar es que incluso si hubiera mucho menos porno en línea que lo que la gente afirma, todavía sigue habiendo mucho, afirma el doctor Ogas.
"14% de las búsquedas y 4% de los sitios de internet están dedicados al sexo y realmente, si nos ponemos a reflexionar, éstos son números muy importantes" agrega.
Microsoft trabaja en un "sensor de estado de ánimo" para teléfonos móviles
Microsoft trabaja en una nueva tecnología para "smartphones" para detectar el estado de ánimo de su propietario y compartirlo de forma automática con amigos en las redes sociales.
Según la compañía "mejoraría la comunicación entre las personas" y, por el momento, ofrece una fiabilidad del 66 por ciento.
El diario digital Techworld ha revelado que la multinacional estadounidense realiza los primeros experimentos con "sensores de estados de ánimo" para teléfonos inteligentes, los cuales serían capaces de detectar sentimientos humanos.
Por ejemplo, este sensor podría captar tensión, felicidad, tristeza, aburrimiento, estrés o emoción.
Además, esta tecnología, denominada MoodScope, permitiría a los usuarios compartir automáticamente su humor con sus amigos a través de redes sociales como Facebook en tiempo real.
Según los investigadores, esta herramienta "mejoraría los medios sociales al saber cuándo es el momento oportuno para comunicarte con otros".
De acuerdo con el informe de Microsoft citado por Techworld, y a su vez por la agencia Europa Press, la precisión de este sensor oscilaría sobre un 66 por ciento.
Además, en un experimento realizado con 32 participantes se obtuvo un 95 por cierto de aciertos, tras dos meses de pruebas.
Microsoft destacó la posibilidad de que otros servicios se beneficien de esta tecnología, tales como sistemas de recomendación de vídeo y música que podrían ofrecer las plataformas Netflix o Spotify, por ejemplo.
De esta manera, en función del estado de ánimo del usuario en cada momento, se sugeriría un tipo de música u otra.
Según la compañía "mejoraría la comunicación entre las personas" y, por el momento, ofrece una fiabilidad del 66 por ciento.
El diario digital Techworld ha revelado que la multinacional estadounidense realiza los primeros experimentos con "sensores de estados de ánimo" para teléfonos inteligentes, los cuales serían capaces de detectar sentimientos humanos.
Por ejemplo, este sensor podría captar tensión, felicidad, tristeza, aburrimiento, estrés o emoción.
Además, esta tecnología, denominada MoodScope, permitiría a los usuarios compartir automáticamente su humor con sus amigos a través de redes sociales como Facebook en tiempo real.
Según los investigadores, esta herramienta "mejoraría los medios sociales al saber cuándo es el momento oportuno para comunicarte con otros".
De acuerdo con el informe de Microsoft citado por Techworld, y a su vez por la agencia Europa Press, la precisión de este sensor oscilaría sobre un 66 por ciento.
Además, en un experimento realizado con 32 participantes se obtuvo un 95 por cierto de aciertos, tras dos meses de pruebas.
Microsoft destacó la posibilidad de que otros servicios se beneficien de esta tecnología, tales como sistemas de recomendación de vídeo y música que podrían ofrecer las plataformas Netflix o Spotify, por ejemplo.
De esta manera, en función del estado de ánimo del usuario en cada momento, se sugeriría un tipo de música u otra.
Internet y su contaminante nube de efecto invernadero
Las energías renovables y un uso más eficiente de los centros de datos se ha convertido en una necesidad del sector tecnológico para frenar la contaminación que genera la nube, ese lugar etéreo en el que existe Internet y que en el mundo real es un emisor de gases de efecto invernadero.
La infraestructura que sustenta la Red demanda un 2% de la electricidad consumida en el planeta, según un estudio de la Universidad de Berkeley, y la organización ecologista Greepeace alerta de que la expansión de lo 'online' no es gratuita, al menos en términos medioambientales.
En su informe de 2012 '¿Cómo de limpia es tu nube?', Greenpeace indicó que Apple obtiene más de un 55% de la energía que utiliza de combustibles fósiles, porcentaje que duplica el de Google (28%) y es notablemente superior al de Microsoft y Facebook (39%).
La sospecha de que Apple estaba jugando sucio hizo que sus ejecutivos respondieran de forma tajante a los ecologistas, a los que acusaron de ser poco rigurosos con su investigación al tiempo que insistieron en que su centro de datos de Oregón funciona únicamente con energía renovable.
Conciencia medioambiental
La conciencia medioambiental está presente en la responsabilidad social corporativa de las grandes empresas de Silicon Valey. Recientemente Google y Facebook anunciaron sendos centros de datos sostenibles, ambos en el norte de Europa.
La empresa del buscador de internet y el sistema operativo Android se comprometió a financiar la construcción de una planta de energía eólica en Suecia cuya producción irá destinada durante 10 años a permitir el funcionamiento de un centro de datos de Google en Finlandia.
En el norte de Suecia, cerca de Finlandia, Facebook estrenó en junio "uno de los centros de datos más eficientes y sostenibles del mundo", según publicó en un comunicado. La instalación de la red social se alimenta de energía hidroeléctrica.
Los países nórdicos europeos se han convertido en uno de los destinos más populares para la implantación de centros de datos dadas sus condiciones climáticas.
El aire frío proveniente de regiones polares se utiliza como refrigerante natural para enfriar los miles de ordenadores conectados en red y permanentemente encendidos que realizan las operaciones de los usuarios en la nube, desde enviar correos electrónicos, hasta reproducir vídeos o almacenar archivos.
Pero el desafío de los centros de datos, más allá de evitar que se calienten sus procesadores, es de gestión.
Eficiencia energética
Un análisis sobre eficiencia energética encargado a la consultora McKinsey & Company por el diario The New York Times concluyó que sólo entre un 6% y un 12% de la electricidad gastada por los centros de datos se empleaba en operaciones de computación, el resto se perdía en mantener los aparatos encendidos por si acaso.
Las compañías tienen sus equipos funcionando aunque no estén realizando un trabajo para que estén listos por si surgiera alguna subida repentina de actividad en la red.
Un simposio organizado por Google el 6 de junio con el título de '¿Cómo de 'verde' es Internet?' constató el despilfarro energético inherente al crecimiento del uso de la red donde ninguna empresa quiere ver cómo su servidor deja de funcionar por un fallo eléctrico o por falta de capacidad para afrontar una mayor demanda de uso.
En ese camino hacia la eficiencia se originará, según los expertos, una concentración de los centros de datos que serán más grandes y más prácticos desde el punto de vista energético al funcionar como una economía de escala.
En la conferencia IEEE de este año en Denver (Colorado) sobre tecnologías limpias Microsoft apuntó otra fórmula para controlar cómo su estudio del comportamiento del mercado de la electricidad les había permitido optimizar el uso de sus centros de datos.
"Este análisis nos puede ayudar a determinar el mejor momento para realizar la computación que consume más energía, de esta forma podemos retrasarla a momentos en los que el sistema eléctrico esté siendo alimentado por fuentes renovables", explicó Josh Henretig, responsable de Estrategia de Medioambiental de Microsoft.
La infraestructura que sustenta la Red demanda un 2% de la electricidad consumida en el planeta, según un estudio de la Universidad de Berkeley, y la organización ecologista Greepeace alerta de que la expansión de lo 'online' no es gratuita, al menos en términos medioambientales.
En su informe de 2012 '¿Cómo de limpia es tu nube?', Greenpeace indicó que Apple obtiene más de un 55% de la energía que utiliza de combustibles fósiles, porcentaje que duplica el de Google (28%) y es notablemente superior al de Microsoft y Facebook (39%).
La sospecha de que Apple estaba jugando sucio hizo que sus ejecutivos respondieran de forma tajante a los ecologistas, a los que acusaron de ser poco rigurosos con su investigación al tiempo que insistieron en que su centro de datos de Oregón funciona únicamente con energía renovable.
Conciencia medioambiental
La conciencia medioambiental está presente en la responsabilidad social corporativa de las grandes empresas de Silicon Valey. Recientemente Google y Facebook anunciaron sendos centros de datos sostenibles, ambos en el norte de Europa.
La empresa del buscador de internet y el sistema operativo Android se comprometió a financiar la construcción de una planta de energía eólica en Suecia cuya producción irá destinada durante 10 años a permitir el funcionamiento de un centro de datos de Google en Finlandia.
En el norte de Suecia, cerca de Finlandia, Facebook estrenó en junio "uno de los centros de datos más eficientes y sostenibles del mundo", según publicó en un comunicado. La instalación de la red social se alimenta de energía hidroeléctrica.
Los países nórdicos europeos se han convertido en uno de los destinos más populares para la implantación de centros de datos dadas sus condiciones climáticas.
El aire frío proveniente de regiones polares se utiliza como refrigerante natural para enfriar los miles de ordenadores conectados en red y permanentemente encendidos que realizan las operaciones de los usuarios en la nube, desde enviar correos electrónicos, hasta reproducir vídeos o almacenar archivos.
Pero el desafío de los centros de datos, más allá de evitar que se calienten sus procesadores, es de gestión.
Eficiencia energética
Un análisis sobre eficiencia energética encargado a la consultora McKinsey & Company por el diario The New York Times concluyó que sólo entre un 6% y un 12% de la electricidad gastada por los centros de datos se empleaba en operaciones de computación, el resto se perdía en mantener los aparatos encendidos por si acaso.
Las compañías tienen sus equipos funcionando aunque no estén realizando un trabajo para que estén listos por si surgiera alguna subida repentina de actividad en la red.
Un simposio organizado por Google el 6 de junio con el título de '¿Cómo de 'verde' es Internet?' constató el despilfarro energético inherente al crecimiento del uso de la red donde ninguna empresa quiere ver cómo su servidor deja de funcionar por un fallo eléctrico o por falta de capacidad para afrontar una mayor demanda de uso.
En ese camino hacia la eficiencia se originará, según los expertos, una concentración de los centros de datos que serán más grandes y más prácticos desde el punto de vista energético al funcionar como una economía de escala.
En la conferencia IEEE de este año en Denver (Colorado) sobre tecnologías limpias Microsoft apuntó otra fórmula para controlar cómo su estudio del comportamiento del mercado de la electricidad les había permitido optimizar el uso de sus centros de datos.
"Este análisis nos puede ayudar a determinar el mejor momento para realizar la computación que consume más energía, de esta forma podemos retrasarla a momentos en los que el sistema eléctrico esté siendo alimentado por fuentes renovables", explicó Josh Henretig, responsable de Estrategia de Medioambiental de Microsoft.
Vinton Cerf: "Violar la ley no es un buen modelo de negocio"
Cuenta Vinton Cerf que cuando el ex primer ministro británico Tony Blair visitó Silicon Valley, en 2006, se reunió con un grupo de influyentes empresarios, a quienes preguntó qué podría hacer su país para replicar el modelo que ha convertido el norte de California en el centro de la innovación tecnológica mundial. Steve Jobs, el fundador de Apple, levantó la mano -"en contra de su costumbre", apunta con cierta sorna Cerf- y replicó: "Lo único que tenemos todos en común es que hemos fallado alguna vez".
Cerf, que concluye hoy una vista de menos de 48 horas a Madrid, se muestra impresionado con el alcance y la gestión de la crisis económica que vive España. No cree que el modelo de Silicon Valley sea fácilmente replicable, dice, a no ser que existan tres circunstancias: "Una cultura de tolerancia hacia el fracaso, unas buenas universidades, y dinero, no solo en capital riesgo sino también en los mercados". "España tiene una energía creativa enorme", añade Cerf; "es una pena que esté atrapada en esta situación, con una tasa tan alta de desempleo juvenil y tantos problemas para crear empresas".
El co-creador del conjunto de reglas que consiguieron que internet sea como hoy la conocemos es también vicepresidente de Google. El buscador está estos días tratando de explicar su papel en la polémica sobre PRISM, el programa de la agencia de seguridad estadounidense NSA que, según han revelan diarios como The Guardian, ha espiado a millones de ciudadanos gracias a un acceso directo a los servidores de, entre otras empresas, la propia Google. "Eso es falso", dice, rotundo, Cerf. "Puedo garantizar que no hay ninguna conexión directa de los servidores de Google con los del Gobierno estadounidense".
¿Está Google entregando nuestros datos al Gobierno de Estados Unidos?
Bajo algunas circunstancias, ofrecemos alguna información que ha sido requerida bien por los tribunales, bajo mandatos judiciales concretos, o bien por peticiones de la Agencia Nacional de Seguridad. También respondemos a requerimientos muy concretos de las fuerzas del orden, siempre justificados con una orden judicial. Alguna vez nos han pedido datos de una forma genérica, y siempre hemos respondido que no; hemos peleado y hemos dicho que nos parece inaceptable. No tengo un conocimiento directo de qué información ha sido recogida, pero lo que sí puedo asegurarle es que no ha sido recogida de forma directa desde nuestros servidores. No tenemos ninguna conexión con ninguna agencia de inteligencia de ningún tipo. Creo que es justo decir que hay una legislación en EEUU que ha permitido alguna actividad del tipo que describió este jueves The Guardian [la recolección de datos relacionados con correos electrónicos y llamadas], y eso provocará, seguro, algunos debates.
En Google, además, publicamos cada año nuestro informe de transparencia, en el que contamos todas las peticiones que recibimos de los gobiernos en todos los países en los que operamos. El nivel de detalle depende del país; normalmente se trata de datos agregados, y hemos protestado, ya que queremos dar más detalles. De hecho, hemos pedido al Gobierno estadounidense que nos deje ofrecer más datos a nuestros usuarios. Nuestra motivación es ilustrar cuál es el verdadero alcance de estas peticiones porque, en realidad, se trata de un número pequeño.
Hace tan solo unos días, Tim Berners-Lee, creador de la world wide web, recogía con usted un galardón en el Palacio de Buckingham y se mostraba preocupado porque los gobiernos y las empresas quieren el "control total" de internet. ¿Está usted de acuerdo?
Bueno, hay gobiernos que claramente quieren incrementar su control; el ejemplo típico es China, pero hay otros. Y después hay países que también tienen sus propias reglas, y desde luego no desembarcamos en ellos diciendo "hola, nuestro modelo de negocio es violar la ley". Ese no es un buen modelo de negocio.
¿Están entonces gobiernos y empresas incrementando su control?
Depende de lo que signifique "control". Sí es cierto que, si no hay mucha capacidad de elección, hay más control; nosotros creemos que las elecciones en el mundo de los proveedores de internet son importantes, y que es necesaria mayor competencia en el mercado. Por eso estamos haciendo cosas como el proyecto Loon, una red de globos para conectar comunidades aisladas a internet, o Google Fiber en EEUU, no solo para dar más elecciones si no para saber qué ocurre cuando ofreces un gigabit por segundo de acceso a internet, en lugar de 10 o 20 megabits.
¿Tenemos que renunciar a la privacidad o, al menos, a lo que era nuestro concepto de privacidad hace 20 o 30 años?
Déjeme echar la vista atrás a hace algo más de tiempo, 100 o 200 años. ¿Ha vivido alguna vez en un pueblo? Yo sí; viví en un pequeño pueblo de 3.000 habitantes en Alemania, donde no había privacidad, todo el mundo sabía lo que estaba haciendo todo el mundo. La privacidad es un accidente de las ciudades. Hay tanta gente en ellas que puedes creer que eres anónimo, así que esta noción de intimidad en gran parte surge de grandes grupos de gente que no se conoce. No digo que haya que descartarlo pero, según avanza la tecnología y se quiere incrementar la seguridad, se va haciendo más y más complicado mantener la privacidad. No sé cómo trazar esa línea, no soy un experto, pero no me gustaría vivir en un régimen en el que todo el mundo sepa todo de todos los demás, y vivamos todos muy seguros. Por otra parte, si nadie supiera nada de lo que nadie hace, los malos podrían perpetrar sus crímenes sin que se pudiera prever. No me gustaría vivir tampoco en esa situación. Todos queremos sentirnos seguros y, a la vez, pensar que tenemos el control de lo que la gente sabe de nosotros. Creo que, como sociedad, aún estamos decidiendo cuál es el lugar adecuado; estamos solo comenzando a entender qué significa que la tecnología forme parte de lo que somos.
Para afrontar la actual crisis, el Gobierno español ha optado por la austeridad y, entre otras cosas, está recortando en I+D y en educación, mientras las pequeñas empresas siguen teniendo muchas dificultades para acceder al crédito. ¿Cree que esta es la forma correcta de enfrentarse a una crisis?
La economía es un motor extremadamente complejo, con distintas partes que puedes ajustar de diferente manera. Las pequeñas empresas son, desde luego, las mayores creadoras de empleos y nuevos negocios, al menos en Estados Unidos, pero no pueden crecer si no hay mercado donde hacerlo. Cuando tienes una crisis como esta, si controlas tu moneda puedes tomar decisiones para inyectar dinero al mercado, pero esto es algo que ustedes ya no pueden hacer. Incluso peor, si recortas tus inversiones es aún más difícil estimular el crecimiento de tu economía. No soy economista, pero esta idea de la austeridad está desacreditada; todas estas situaciones, en el pasado, se han resuelto inyectando más dinero al sistema y apostando por el crecimiento. Me pregunto cuándo tiempo más podrán aguantar ustedes esta situación sin hacer un cambio radical.
Hace 41 años que usted y Bob Kahn presentaron los protocolos que sentaron las bases de internet. ¿Qué podemos esperar de cómo será la red dentro de otros 41 años?
Es muy difícil predecir eso. Imagine que una persona joven viaja ahora a los años 70. ¿Qué le pasaría? Probablemente, lo primero será que se rompería la nariz chocándose contra una puerta de cristal que no se abriría de forma automática. También pondría las manos bajo un grifo, esperando a que se abriera. Y nadie entendería que no usara el pomo de la puerta, o abriera el grifo. Así que es complicado saber qué esperaría alguien que viniera de dentro de 40 años y viajara al año 2013. Pero sí hay algunas cosas que se pueden predecir: seremos capaces de interactuar con todos los dispositivos de la casa, que se podrá controlar mediante voz y gestos. Conduciremos coches sin conductor. Tendremos traducción automática por voz. El entretenimiento será más complejo y rico que nunca; no sé si tendremos feelies o smellies en lugar de movies [juego de palabras entre la palabra película, movie, que proviene del verbo moverse o move, y feel, que significa tocar, y smell, oler]. Y la comunicación será una experiencia totalmente multimedia. En cualquier caso, yo no me fiaría mucho de mis propias predicciones. Hace 41 años, no podría haber imaginado todas las cosas que ahora hacemos gracias a internet.
"Internet es una gran máquina de copiar"
El Tribunal de Justicia europeo acaba de darle la razón a Google, que no tendrá que borrar datos de usuarios aunque lo pidan. Cerf ha reflexionado esta mañana en Madrid, durante el evento Big Tent, sobre el derecho al olvido en internet, y las consecuencias legales de tratar de obligar a los buscadores a borrar los datos a los que ofrecen acceso.
"Internet tiene la peculiaridad de que olvida cosas que querríamos que recordara y, en cambio, recuerda cosas que querríamos que olvidara", ha dicho Cerf. "Creemos que los buscadores tienen la facultad de borrar, pero, en realidad, solo son espejos que reflejan la información, no la guardan. Cambiar el espejo no cambiará la información, así que hay que dirigirse a la fuente original. Pero aunque consigas eliminar determinados datos de una página, internet es una gran máquina de copiar, algo que, por cierto, vuelve locos a los editores y propietarios de derechos de propiedad intelectual. Pero así es como funcionan las cosas. Si no quieres que esté en internet, no lo pongas".
Cerf, que concluye hoy una vista de menos de 48 horas a Madrid, se muestra impresionado con el alcance y la gestión de la crisis económica que vive España. No cree que el modelo de Silicon Valley sea fácilmente replicable, dice, a no ser que existan tres circunstancias: "Una cultura de tolerancia hacia el fracaso, unas buenas universidades, y dinero, no solo en capital riesgo sino también en los mercados". "España tiene una energía creativa enorme", añade Cerf; "es una pena que esté atrapada en esta situación, con una tasa tan alta de desempleo juvenil y tantos problemas para crear empresas".
El co-creador del conjunto de reglas que consiguieron que internet sea como hoy la conocemos es también vicepresidente de Google. El buscador está estos días tratando de explicar su papel en la polémica sobre PRISM, el programa de la agencia de seguridad estadounidense NSA que, según han revelan diarios como The Guardian, ha espiado a millones de ciudadanos gracias a un acceso directo a los servidores de, entre otras empresas, la propia Google. "Eso es falso", dice, rotundo, Cerf. "Puedo garantizar que no hay ninguna conexión directa de los servidores de Google con los del Gobierno estadounidense".
¿Está Google entregando nuestros datos al Gobierno de Estados Unidos?
Bajo algunas circunstancias, ofrecemos alguna información que ha sido requerida bien por los tribunales, bajo mandatos judiciales concretos, o bien por peticiones de la Agencia Nacional de Seguridad. También respondemos a requerimientos muy concretos de las fuerzas del orden, siempre justificados con una orden judicial. Alguna vez nos han pedido datos de una forma genérica, y siempre hemos respondido que no; hemos peleado y hemos dicho que nos parece inaceptable. No tengo un conocimiento directo de qué información ha sido recogida, pero lo que sí puedo asegurarle es que no ha sido recogida de forma directa desde nuestros servidores. No tenemos ninguna conexión con ninguna agencia de inteligencia de ningún tipo. Creo que es justo decir que hay una legislación en EEUU que ha permitido alguna actividad del tipo que describió este jueves The Guardian [la recolección de datos relacionados con correos electrónicos y llamadas], y eso provocará, seguro, algunos debates.
En Google, además, publicamos cada año nuestro informe de transparencia, en el que contamos todas las peticiones que recibimos de los gobiernos en todos los países en los que operamos. El nivel de detalle depende del país; normalmente se trata de datos agregados, y hemos protestado, ya que queremos dar más detalles. De hecho, hemos pedido al Gobierno estadounidense que nos deje ofrecer más datos a nuestros usuarios. Nuestra motivación es ilustrar cuál es el verdadero alcance de estas peticiones porque, en realidad, se trata de un número pequeño.
Hace tan solo unos días, Tim Berners-Lee, creador de la world wide web, recogía con usted un galardón en el Palacio de Buckingham y se mostraba preocupado porque los gobiernos y las empresas quieren el "control total" de internet. ¿Está usted de acuerdo?
Bueno, hay gobiernos que claramente quieren incrementar su control; el ejemplo típico es China, pero hay otros. Y después hay países que también tienen sus propias reglas, y desde luego no desembarcamos en ellos diciendo "hola, nuestro modelo de negocio es violar la ley". Ese no es un buen modelo de negocio.
¿Están entonces gobiernos y empresas incrementando su control?
Depende de lo que signifique "control". Sí es cierto que, si no hay mucha capacidad de elección, hay más control; nosotros creemos que las elecciones en el mundo de los proveedores de internet son importantes, y que es necesaria mayor competencia en el mercado. Por eso estamos haciendo cosas como el proyecto Loon, una red de globos para conectar comunidades aisladas a internet, o Google Fiber en EEUU, no solo para dar más elecciones si no para saber qué ocurre cuando ofreces un gigabit por segundo de acceso a internet, en lugar de 10 o 20 megabits.
¿Tenemos que renunciar a la privacidad o, al menos, a lo que era nuestro concepto de privacidad hace 20 o 30 años?
Déjeme echar la vista atrás a hace algo más de tiempo, 100 o 200 años. ¿Ha vivido alguna vez en un pueblo? Yo sí; viví en un pequeño pueblo de 3.000 habitantes en Alemania, donde no había privacidad, todo el mundo sabía lo que estaba haciendo todo el mundo. La privacidad es un accidente de las ciudades. Hay tanta gente en ellas que puedes creer que eres anónimo, así que esta noción de intimidad en gran parte surge de grandes grupos de gente que no se conoce. No digo que haya que descartarlo pero, según avanza la tecnología y se quiere incrementar la seguridad, se va haciendo más y más complicado mantener la privacidad. No sé cómo trazar esa línea, no soy un experto, pero no me gustaría vivir en un régimen en el que todo el mundo sepa todo de todos los demás, y vivamos todos muy seguros. Por otra parte, si nadie supiera nada de lo que nadie hace, los malos podrían perpetrar sus crímenes sin que se pudiera prever. No me gustaría vivir tampoco en esa situación. Todos queremos sentirnos seguros y, a la vez, pensar que tenemos el control de lo que la gente sabe de nosotros. Creo que, como sociedad, aún estamos decidiendo cuál es el lugar adecuado; estamos solo comenzando a entender qué significa que la tecnología forme parte de lo que somos.
Para afrontar la actual crisis, el Gobierno español ha optado por la austeridad y, entre otras cosas, está recortando en I+D y en educación, mientras las pequeñas empresas siguen teniendo muchas dificultades para acceder al crédito. ¿Cree que esta es la forma correcta de enfrentarse a una crisis?
La economía es un motor extremadamente complejo, con distintas partes que puedes ajustar de diferente manera. Las pequeñas empresas son, desde luego, las mayores creadoras de empleos y nuevos negocios, al menos en Estados Unidos, pero no pueden crecer si no hay mercado donde hacerlo. Cuando tienes una crisis como esta, si controlas tu moneda puedes tomar decisiones para inyectar dinero al mercado, pero esto es algo que ustedes ya no pueden hacer. Incluso peor, si recortas tus inversiones es aún más difícil estimular el crecimiento de tu economía. No soy economista, pero esta idea de la austeridad está desacreditada; todas estas situaciones, en el pasado, se han resuelto inyectando más dinero al sistema y apostando por el crecimiento. Me pregunto cuándo tiempo más podrán aguantar ustedes esta situación sin hacer un cambio radical.
Hace 41 años que usted y Bob Kahn presentaron los protocolos que sentaron las bases de internet. ¿Qué podemos esperar de cómo será la red dentro de otros 41 años?
Es muy difícil predecir eso. Imagine que una persona joven viaja ahora a los años 70. ¿Qué le pasaría? Probablemente, lo primero será que se rompería la nariz chocándose contra una puerta de cristal que no se abriría de forma automática. También pondría las manos bajo un grifo, esperando a que se abriera. Y nadie entendería que no usara el pomo de la puerta, o abriera el grifo. Así que es complicado saber qué esperaría alguien que viniera de dentro de 40 años y viajara al año 2013. Pero sí hay algunas cosas que se pueden predecir: seremos capaces de interactuar con todos los dispositivos de la casa, que se podrá controlar mediante voz y gestos. Conduciremos coches sin conductor. Tendremos traducción automática por voz. El entretenimiento será más complejo y rico que nunca; no sé si tendremos feelies o smellies en lugar de movies [juego de palabras entre la palabra película, movie, que proviene del verbo moverse o move, y feel, que significa tocar, y smell, oler]. Y la comunicación será una experiencia totalmente multimedia. En cualquier caso, yo no me fiaría mucho de mis propias predicciones. Hace 41 años, no podría haber imaginado todas las cosas que ahora hacemos gracias a internet.
"Internet es una gran máquina de copiar"
El Tribunal de Justicia europeo acaba de darle la razón a Google, que no tendrá que borrar datos de usuarios aunque lo pidan. Cerf ha reflexionado esta mañana en Madrid, durante el evento Big Tent, sobre el derecho al olvido en internet, y las consecuencias legales de tratar de obligar a los buscadores a borrar los datos a los que ofrecen acceso.
"Internet tiene la peculiaridad de que olvida cosas que querríamos que recordara y, en cambio, recuerda cosas que querríamos que olvidara", ha dicho Cerf. "Creemos que los buscadores tienen la facultad de borrar, pero, en realidad, solo son espejos que reflejan la información, no la guardan. Cambiar el espejo no cambiará la información, así que hay que dirigirse a la fuente original. Pero aunque consigas eliminar determinados datos de una página, internet es una gran máquina de copiar, algo que, por cierto, vuelve locos a los editores y propietarios de derechos de propiedad intelectual. Pero así es como funcionan las cosas. Si no quieres que esté en internet, no lo pongas".
Google News añade nuevas funciones para paliar el cierre de Google Reader
El servicio de noticias de Google ha añadido nuevas funciones para que la pérdida de Google Reader, el lector de RSS que la compañía cierra este lunes 1 de julio, sea más llevadera para los usuarios. Entre estas nuevas funciones, los usuarios tendrán acceso a través de Google Noticias a nuevos apartados, como la previsión del tiempo para cuatro días, un editor o los resultados deportivos.
La fecha de cierre de esta plataforma estaba fijada, desde el mes de marzo, cuando Google lanzó un comunicado a través de su blog oficial, y de nada han servido las quejas y las firmas de los usuarios para impedirlo. En ese comunicado, Google señalaba que el uso de Reader había bajado considerablemente y que, por lo tanto, preferían centrarse a partir de ahora en el desarrollo y promoción de otros servicios.
Para facilitar a los usuarios la búsqueda de un nuevo lector de RSS con el que estar al día de las últimas noticias, Google proporcionó un plazo, desde el pasado mes de marzo hasta este 1 de julio, para que los usuarios pudiesen descargar todos sus archivos y cambiar de plataforma. Sin embargo, los usuarios aún no han encontrado un sustituto claro, pues entre otras cosas lo que más gustaba de Google Reader, y que se va a echar de menos, era su sencilla interfaz y su compatibilidad con dispositivos móviles.
Según recoge The Next Web, Google Noticias incluye a partir de ahora un apartado con la previsión del tiempo para cuatro días, un editor y la posibilidad de consultar los resultados deportivos. La nueva función meteorológica está pensada para mostrar el tiempo en una localidad predeterminada, pero se puede configurar para mostrar el de un lugar específico. Además, el servicio ofrece enlaces a otros canales como The Weather Channel y Weather Underground si se quiere obtener información más detallada.
La función 'Editors' Picks', la cual permite a los usuarios elegir el tipo de noticias que quieren ver en su página principal, se limita, de momento, a las categorías de tecnología y negocios. Por su parte, los resultados de eventos deportivos que aparecen ahora en Google Noticias se limitan, por el momento, a fútbol americano, baloncesto, béisbol y hockey, aunque se esperan nuevas incorporaciones en un futuro próximo.
Aún con todas estas novedades, el descontento de los usuarios ante el cierre de Reader continúa, incluso iniciaron una recogida de firmas a través de Change.org para intentar detener el cierre. Según la compañía, el cierre es definitivo.
La fecha de cierre de esta plataforma estaba fijada, desde el mes de marzo, cuando Google lanzó un comunicado a través de su blog oficial, y de nada han servido las quejas y las firmas de los usuarios para impedirlo. En ese comunicado, Google señalaba que el uso de Reader había bajado considerablemente y que, por lo tanto, preferían centrarse a partir de ahora en el desarrollo y promoción de otros servicios.
Para facilitar a los usuarios la búsqueda de un nuevo lector de RSS con el que estar al día de las últimas noticias, Google proporcionó un plazo, desde el pasado mes de marzo hasta este 1 de julio, para que los usuarios pudiesen descargar todos sus archivos y cambiar de plataforma. Sin embargo, los usuarios aún no han encontrado un sustituto claro, pues entre otras cosas lo que más gustaba de Google Reader, y que se va a echar de menos, era su sencilla interfaz y su compatibilidad con dispositivos móviles.
Según recoge The Next Web, Google Noticias incluye a partir de ahora un apartado con la previsión del tiempo para cuatro días, un editor y la posibilidad de consultar los resultados deportivos. La nueva función meteorológica está pensada para mostrar el tiempo en una localidad predeterminada, pero se puede configurar para mostrar el de un lugar específico. Además, el servicio ofrece enlaces a otros canales como The Weather Channel y Weather Underground si se quiere obtener información más detallada.
La función 'Editors' Picks', la cual permite a los usuarios elegir el tipo de noticias que quieren ver en su página principal, se limita, de momento, a las categorías de tecnología y negocios. Por su parte, los resultados de eventos deportivos que aparecen ahora en Google Noticias se limitan, por el momento, a fútbol americano, baloncesto, béisbol y hockey, aunque se esperan nuevas incorporaciones en un futuro próximo.
Aún con todas estas novedades, el descontento de los usuarios ante el cierre de Reader continúa, incluso iniciaron una recogida de firmas a través de Change.org para intentar detener el cierre. Según la compañía, el cierre es definitivo.
Nokia se hace con el 100% de Nokia Siemens para crecer en las redes móviles
Agitación en el negocio de los fabricantes de equipos de redes de telecomunicaciones. Nokia comunicó ayer que ha llegado a un acuerdo con la compañía alemana Siemens para comprar su participación del 50% en la joint venture compartida Nokia Siemens Networks (NSN) por un importe cercano a 1.700 millones de euros.
En un comunicado, el grupo finlandés explicó que abonará un total de 1.200 millones de euros en efectivo, mientras que el resto se pagará a través de un crédito garantizado del grupo germano, que deberá ser devuelto un año después del cierre de la operación. En este sentido, la venta ha sido aprobada por los consejos de administración de ambos grupos y debería estar cerrada a lo largo de este tercer trimestre una vez que reciba el visto bueno de las autoridades de la competencia.
Los mercados financieros vieron bien la operación. Las acciones de Nokia subieron un 3,5% durante la sesión de ayer (llegaron a avanzar hasta un 8% a la apertura), mientras que los títulos de Siemens subieron un 2,4%.
Diversos analistas consideraron que Nokia va a adquirir unos activos de relevancia a buen precio. Nokia Siemens, que tiene un total de 60.000 empleados en todo el mundo, ha mejorado poco a poco su rentabilidad. La firma, que ha aplicado en los últimos años una estrategia de contención del gasto, registró un beneficio operativo pro forma de 822 millones de euros durante 2012, un 145% más que en el ejercicio anterior. Con esta evolución, la empresa acabó el año con una tesorería de 1.300 millones de euros.
Nokia Siemens se ha concentrado en negocios de valor añadido, como el ligado a las redes de móvil 3G, donde compite con rivales como Ericsson, Alcatel-Lucent y las chinas ZTE y Huawei.
Ahora, bajo el mando directo de Nokia, la empresa podría fortalecer su posición, tal y como señaló Stephen Elop, consejero delegado del grupo escandinavo. Y es que Nokia Siemens, que seguirá siendo una división separada del grupo Nokia, se ha visto sacudida en los últimos tiempos por los rumores sobre su posible venta a grupos de capital riesgo. De hecho, la prensa especializada alemana publicó Siemens ha estado negociando la venta de su participación, operación que no se cerró por el desacuerdo en los precios a pagar.
Elop recordó que Nokia tenía una liquidez de 4.500 millones de euros a la conclusión del primer trimestre, afirmando que es el momento correcto para llevar a cabo la adquisición de la citada participación de Siemens en el fabricante de redes.
En un comunicado, el grupo finlandés explicó que abonará un total de 1.200 millones de euros en efectivo, mientras que el resto se pagará a través de un crédito garantizado del grupo germano, que deberá ser devuelto un año después del cierre de la operación. En este sentido, la venta ha sido aprobada por los consejos de administración de ambos grupos y debería estar cerrada a lo largo de este tercer trimestre una vez que reciba el visto bueno de las autoridades de la competencia.
Los mercados financieros vieron bien la operación. Las acciones de Nokia subieron un 3,5% durante la sesión de ayer (llegaron a avanzar hasta un 8% a la apertura), mientras que los títulos de Siemens subieron un 2,4%.
Diversos analistas consideraron que Nokia va a adquirir unos activos de relevancia a buen precio. Nokia Siemens, que tiene un total de 60.000 empleados en todo el mundo, ha mejorado poco a poco su rentabilidad. La firma, que ha aplicado en los últimos años una estrategia de contención del gasto, registró un beneficio operativo pro forma de 822 millones de euros durante 2012, un 145% más que en el ejercicio anterior. Con esta evolución, la empresa acabó el año con una tesorería de 1.300 millones de euros.
Nokia Siemens se ha concentrado en negocios de valor añadido, como el ligado a las redes de móvil 3G, donde compite con rivales como Ericsson, Alcatel-Lucent y las chinas ZTE y Huawei.
Ahora, bajo el mando directo de Nokia, la empresa podría fortalecer su posición, tal y como señaló Stephen Elop, consejero delegado del grupo escandinavo. Y es que Nokia Siemens, que seguirá siendo una división separada del grupo Nokia, se ha visto sacudida en los últimos tiempos por los rumores sobre su posible venta a grupos de capital riesgo. De hecho, la prensa especializada alemana publicó Siemens ha estado negociando la venta de su participación, operación que no se cerró por el desacuerdo en los precios a pagar.
Elop recordó que Nokia tenía una liquidez de 4.500 millones de euros a la conclusión del primer trimestre, afirmando que es el momento correcto para llevar a cabo la adquisición de la citada participación de Siemens en el fabricante de redes.
El proyecto de la tablet de bajo coste Aakash del gobierno indio sigue vivo
Desde hace años el gobierno indio está interesado en la creación de una tablet de bajísimo precio para distribuirla entre sus estudiantes. Tras varios prototipos y propuestas, la nueva Aakash IV podría ser la última oportunidad para llevarlo a cabo.
No es la primera vez que oímos hablar de la tablet Aakash, pero esta vez parece ser que si no consiguen que un fabricante pueda crearla de forma masiva, con el coste y las especificaciones propuestas por el Ministry of Human Resource Development (MHRD) y el Department of Electronics and Information Technology (DeitY) del gobierno indio, no habrá más intentos.
La idea es una tablet que cumpla al menos estos mínimos: pantalla de 7″ y resolución 800 x 480, con un procesador capaz de mostrar vídeo a 720p y 30 fps, con soporte OpenGL ES 2.o, 1 GB de RAM DDR3, 4 GB de memoria interna, microSD, WiFi 802.11 b/g/n, Bluetooth 2.1 y con cámara frontal de 0,3 MP.
Pero además debe tener soporte para un accesorio externo que le de la posibilidad de hacer llamadas y conexión de datos online 3G. También debe tener soporte completo USB que permita la conexión de teclados, ratones, impresoras y adaptadores Ethernet.
Aunque quizás lo más curioso es que ya no sólo tendrá Android Jelly Bean 4.2.1 como sistema operativo, también necesitará soporte para Ubuntu en una microSD y permitir boot dual. Todo esto con un coste que mejore los 35 dólares de las versiones anteriores. Esperemos que finalmente sean capaces de conseguirlo.
No es la primera vez que oímos hablar de la tablet Aakash, pero esta vez parece ser que si no consiguen que un fabricante pueda crearla de forma masiva, con el coste y las especificaciones propuestas por el Ministry of Human Resource Development (MHRD) y el Department of Electronics and Information Technology (DeitY) del gobierno indio, no habrá más intentos.
La idea es una tablet que cumpla al menos estos mínimos: pantalla de 7″ y resolución 800 x 480, con un procesador capaz de mostrar vídeo a 720p y 30 fps, con soporte OpenGL ES 2.o, 1 GB de RAM DDR3, 4 GB de memoria interna, microSD, WiFi 802.11 b/g/n, Bluetooth 2.1 y con cámara frontal de 0,3 MP.
Pero además debe tener soporte para un accesorio externo que le de la posibilidad de hacer llamadas y conexión de datos online 3G. También debe tener soporte completo USB que permita la conexión de teclados, ratones, impresoras y adaptadores Ethernet.
Aunque quizás lo más curioso es que ya no sólo tendrá Android Jelly Bean 4.2.1 como sistema operativo, también necesitará soporte para Ubuntu en una microSD y permitir boot dual. Todo esto con un coste que mejore los 35 dólares de las versiones anteriores. Esperemos que finalmente sean capaces de conseguirlo.
Windows 8 ya cuenta con más de 100.000 aplicaciones
La compañía de Redmond ha confirmado la noticia vía Twitter y lo cierto es que a pesar de que el sistema operativo diseñado para PCs y tabletas no ha tenido el éxito de ventas esperado, su tienda Windows Store tiene un número consdierable de aplicaciones.
La semana pasada la empresa de Steve Ballmer celebró su conferencia Build 2013 para desarrolladores y dio a conocer la versión preliminar de Windows 8.1, la actualización que llegará a Windows 8 y vendrá con el botón de inicio tradicional, mejoras en la función de busquedas, y compatibilidad con impresoras 3D.
Entre las novedades anunciadas está la activación de una función de actualización automática de aplicaciones, que hará que estas de actualicen en segundo plano sin la intervención del usuario, como sucede en iOS 7.
Otros estrenos que llegarán en breve al universo Microsoft serán la aplicación de Facebook para Windows 8, pensada en el tirón de la red social en muchos de sus clientes, la red social de geolocalización Foursquare, el servicio de opiniones de usuarios yelp, y por último la aplicación musical Songza.
La semana pasada la empresa de Steve Ballmer celebró su conferencia Build 2013 para desarrolladores y dio a conocer la versión preliminar de Windows 8.1, la actualización que llegará a Windows 8 y vendrá con el botón de inicio tradicional, mejoras en la función de busquedas, y compatibilidad con impresoras 3D.
Entre las novedades anunciadas está la activación de una función de actualización automática de aplicaciones, que hará que estas de actualicen en segundo plano sin la intervención del usuario, como sucede en iOS 7.
Otros estrenos que llegarán en breve al universo Microsoft serán la aplicación de Facebook para Windows 8, pensada en el tirón de la red social en muchos de sus clientes, la red social de geolocalización Foursquare, el servicio de opiniones de usuarios yelp, y por último la aplicación musical Songza.
Windows 8 supera a Vista y ya es el tercer sistema operativo
El más reciente sistema operativo lanzado por Microsoft, Windows 8, alcanzó durante el mes de junio el 5,1% de usuarios de sistemas operativos de escritorio, según los datos de la firma de análisis de mercado Net Applications. Esto le convierte en el tercer sistema operativo más utilizado en el mundo.
La ruptura de la barrera del 5% coloca al último sistema operativo de Microsoft por encima de Windows Vista, que sólo logró un 4,62% de cuota en el ámbito de los sistemas operativos el mes pasado.
Las cifras de junio muestran una ganancia de cuota de mercado del 4,27% para Windows 8 respecto a su porcentaje de mayo, siguiendo su línea de crecimiento continuo desde el lanzamiento oficial en octubre. Durante el mismo periodo, Vista ha visto caer en picado su popularidad, aunque su cuota de junio mostró en realidad un ligero aumento del 4,51% respecto a mayo.
De acuerdo con CNET, que recoge el estudio de Net Applications, el sucesor de Vista, Windows 7, sigue liderando el panorama de los sistemas operativos, con una participación del 44,37% el pasado mes de junio. El veterano Windows XP continúa ocupando el segundo lugar, con el 37,17%.
En cuanto al resto de sistemas operativos, los sistemas Windows acapararon el 91.51% del mercado en junio; seguidos por los Mac OS, con 7,2%, y Linux, con un 1,28%. Dentro de los sistemas de Apple, el Mac OS X 10.8 Mountain Lion es el más utilizado, con un 3,14% de los usuarios. Le siguen el Mac OS X 10.6 Snow Leopard y el Mac OS X 10.7 Lion, con un 1,76% y un 1,73% respectivamente.
La ruptura de la barrera del 5% coloca al último sistema operativo de Microsoft por encima de Windows Vista, que sólo logró un 4,62% de cuota en el ámbito de los sistemas operativos el mes pasado.
Las cifras de junio muestran una ganancia de cuota de mercado del 4,27% para Windows 8 respecto a su porcentaje de mayo, siguiendo su línea de crecimiento continuo desde el lanzamiento oficial en octubre. Durante el mismo periodo, Vista ha visto caer en picado su popularidad, aunque su cuota de junio mostró en realidad un ligero aumento del 4,51% respecto a mayo.
De acuerdo con CNET, que recoge el estudio de Net Applications, el sucesor de Vista, Windows 7, sigue liderando el panorama de los sistemas operativos, con una participación del 44,37% el pasado mes de junio. El veterano Windows XP continúa ocupando el segundo lugar, con el 37,17%.
En cuanto al resto de sistemas operativos, los sistemas Windows acapararon el 91.51% del mercado en junio; seguidos por los Mac OS, con 7,2%, y Linux, con un 1,28%. Dentro de los sistemas de Apple, el Mac OS X 10.8 Mountain Lion es el más utilizado, con un 3,14% de los usuarios. Le siguen el Mac OS X 10.6 Snow Leopard y el Mac OS X 10.7 Lion, con un 1,76% y un 1,73% respectivamente.
Suscribirse a:
Entradas (Atom)