Buscar

2010/07/05

Wikipedia pierde colaboradores

Fuente: Cope.

La Wikipedia concita fervientes entusiastas y airados detractores. Los motivos de discrepancia son la dificultad para ser editor de sus artículos, la calidad de éstos y el sesgo ideológico que se aprecia en algunos.
En abril de 2009, Felipe Ortega, profesor de la madrileña Universidad Rey Juan Carlos, presentó su tesis doctoral, titulada “Wikipedia: A quantitative analiysis”. Pueden encontrarla íntegra en la web de GSyC/Libresoft de la URJC, donde Ortega trabaja como investigador postdoctoral y manager de proyectos, y sigue rastreando la evolución de este proyecto digital.

Su tesis ha sido la primera en ofrecer un estudio cuantitativo detallado de las diez mayores ediciones (idiomas) de Wikipedia. Algunas conclusiones de su trabajo saltaron a la prensa con un tono alarmista. En noviembre de 2009 llegaron a las páginas del Wall Street Journal (27-11-2009): “Wikipedia gana en madurez, pero los voluntarios abandonan” fue el titular. El artículo se refería a los editores o usuarios activos de la enciclopedia, los que crean o corrigen artículos. Para Wikipedia es muy importante que sus visitantes introduzcan discusiones, cambios, revisiones: que hagan que esté “viva”.

Hay dos tipos de editores: los registrados y los anónimos. El registrado es el que ha abierto una cuenta para participar en Wikipedia escribiendo o revisando artículos, es decir, introduciendo o proponiendo correcciones, contribuyendo a la discusión sobre artículos que suscitan dudas o críticas. El editor anónimo no tiene autoridad de ningún tipo ni capacidad de decisión mayor que la de otro colaborador. En otro orden superior están los bibliotecarios, con funciones de vigilancia y decisión.

Ortega señala que la pérdida de editores en Wikipedia es una tendencia que se detecta desde hace un par de años. “Para la versión inglesa –comenta–, la pérdida de editores es de unos 20.000 al mes. Dado que esta versión de la enciclopedia digital tiene más de cien mil editores activos cada mes, el fenómeno no es preocupante ahora mismo. Sin embargo, de mantenerse supondría un grave problema”.

DESERCIONES DE VOLUNTARIOS

Las declaraciones de Ortega escocieron un poco a Jimmy Wales, cofundador y presidente honorario de Wikipedia, que se apresuró a interpretar las cifras de forma comedidamente optimista. En una entrevista para The Daily Telegraph (27-11-2009), Wales negó que Wikipedia estuviera perdiendo miles de editores voluntarios.

Sin embargo, en el propio blog de la fundación que alberga la enciclopedia, en una nota hecha pública, se reconoce la “consistencia” de los datos aportados por Ortega y sitúa la polémica en otra interpretación de las cifras de editores que colaboran con la enciclopedia.

En suma, Wikipedia no cuestiona la veracidad de los datos aportados por Ortega. Éste explicaba que el modo de cuantificar la retención de editores es distinta para él y para Wikipedia. Los datos que presenta Wikipedia hacen referencia al número de editores activos cada mes dentro del total de editores de que dispone la enciclopedia. Ortega insiste en que es perfectamente compatible que se produzca un descenso en el número de editores disponibles –el dato que él señala– con que la cifra de editores activos cada mes esté más o menos estabilizada.

MUCHOS SE CANSAN PRONTO

El pasado mes de febrero hubo una tarde de conferencias dedicada a la Wikipedia en Medialab Prado, en Madrid. El Medialab es un taller abierto de activismo digital. Habían invitado a Miguel Vidal y Felipe Ortega. Este aportó una serie de datos que atemperan las frases triunfalistas de Wikipedia sobre sí misma, como ser el quinto lugar más visitado de Internet, o ser “la obra de referencia más grande jamás creada por el ser humano”. En el Medialab Prado, Ortega aportó una serie de datos muy pertinentes sobre la evolución de Wikipedia:

• Hay un gran porcentaje de participación. El 65% de los usuarios son simples lectores, el 25% son editores ocasionales y el 10% son editores regulares.

• Las mujeres se involucran en la Wikipedia más que los hombres: el 82% de las usuarias son editoras, frente al 41% de hombres.

• A pesar de la gran cantidad de contribuyentes totales, la mayor parte del trabajo es de una pequeña comunidad de editores muy activos: un 5% de editores realizan el 90% de revisiones.

• El 36% de los usuarios tienen solo estudios secundarios. El otro gran grupo, con un 30% , son graduados superiores, y sólo un 5% tienen un doctorado. Los restantes se distribuyen a partes casi iguales entre los que no pasaron de la enseñanza primaria (13% ) y los que tienen título de máster (16% ).

• Los voluntarios se cansan “relativamente pronto” del proyecto, si se los compara con los de otras comunidades de gran tamaño en Internet como Debian (una de las distribuciones de Linux más importantes). De hecho, como promedio, realizan sus aportaciones durante un poco menos de un año y luego lo dejan. Pero esa media debe mucho a los más constantes: la mediana es de 142 días, o sea, la mitad de los editores no persevera más de ese tiempo, cinco meses escasos. Hay sin embargo, ediciones con medianas más altas: 201 días la alemana y 188 la francesa.

• Pese al incremento de popularidad de la Wikipedia, el número de artículos editados tiende a mantenerse constante, en todos los idiomas analizados. Lo mismo ocurre con el número de discusiones activas.

• Al estudiar la extensión de los artículos de cada idioma, vemos que en todos los idiomas hay dos “poblaciones” de artículos: los cortos, de unas 100 palabras, y los largos, de unas 350. En la Wikipedia inglesa y en la alemana, la mayor parte de los artículos son cortos. En cambio, en la Wikipedia española, la mayor parte de los artículos son largos.

• En la Wikipedia inglesa, los debates forman parte del proceso de edición: nada menos que un 80% de artículos tienen debates. Sin embargo, en la Wikipedia española sólo un 20% tienen hilos de discusión.

ARTÍCULOS MUY REVISADOS

Otros datos facilitados por Ortega dan idea de la calidad del contenido.

Hasta que un artículo se nomine como destacado han de pasar una media de 1.000 días. Un artículo destacado es el que ha sido revisado en detalle por la comunidad wiki y promocionado tras un proceso de votación. Es una clase de artículo que trata de equipararse con trabajos profesionales. La propia Wikipedia los califica como “algo que puede ofrecer”.

Se observa un creciente número de ediciones deshechas, o sea, cambios o añadidos que introdujeron usuarios y que después fueron suprimidos por editores de mayor autoridad. Los artículos están en continua revisión, aunque los destacados ya no tanto, pues han logrado superar las revisiones. Las revisiones y discusiones sobre los artículos también forman parte del contenido de Wikipedia. Ahora bien, muchos nuevos colaboradores se encuentran con que sus aportaciones han sido eliminadas por haber violado alguna norma de uso, lo que no supone precisamente un estímulo. En 2008 los editores borraron el 25% de las nuevas entradas, frente al 10% en 2005.

Los artículos destacados tienen, por término medio, 10 veces más editores que los artículos normales, casi 200 veces más en la edición inglesa. Como además los artículos destacados siempre son revisados por editores de más experiencia, resulta claro que están mucho más elaborados.

MÁS RIGOR

¿Qué razones puede haber para explicar las deserciones de los editores? Hay dos tipos de hipótesis. Una, de la propia Wikipedia, es que hay menos temas sobre los que se pueda escribir una nueva entrada. “Pero, en realidad –señala Ortega–, hay más de mil temas abiertos, sobre los que los internautas han pedido que se publique una entrada y sobre los que nadie ha escrito nada todavía. Prueba fehaciente de que, realmente, queda trabajo por hacer”.

Ortega tiene otra explicación. La enciclopedia ha introducido nuevos criterios de política editorial, más rigurosos, que a los nuevos editores les cuesta asumir. Ello explicaría que el grueso de las tareas recaiga en editores veteranos, algunos con más de tres años dedicados voluntariamente a la tarea, un periodo de tiempo muy largo, si se tiene en cuenta que la mitad de los editores se dedica a esta labor durante menos de seis meses.

Esta disparidad de esfuerzos se ha estudiado aplicando el coeficiente de Gini (el que se emplea, por ejemplo, para estudiar la desigualdad de la distribución de la riqueza en un país). Resulta que un 12-15% de los editores hace la mayor parte de la contribución, un 85% de los artículos editados cada mes.

IDEALES ALTRUISTAS

¿Se puede prever cuál será el futuro de Wikipedia? Quizá dentro de unos meses será necesario que Felipe Ortega nos comunique los resultados de sus nuevos estudios. Porque Wikipedia está a expensas de su propio modelo colaborativo: depende de las donaciones de sus usuarios y la mantienen viva aquellos internautas-editores que, con gran deseo de colaborar y ánimo desinteresado y altruista, crean nuevos artículos, discuten los que existen y mejoran lo que ya está hecho.

Esta es la declaración de una de esas personas anónimas que han dedicado muchas horas a colaborar en la enciclopedia, una genuina expresión del modo de ser wikipedista: “Para mí, Wikipedia es una experiencia enriquecedora, porque concuerda perfectamente con mis ideales, que son incluso libertarios… concuerda con mi visión de un conocimiento compartido, de la puesta en común de la materia gris sin buscar una contrapartida, por el bien de todas y todos… Para mí, Wikipedia es una herramienta fantástica para compartir conocimientos de manera totalmente desinteresada”

Wikipedia deja de funcionar durante una hora por un "apagón interno"

Fuente: Cinco Dias.

En un primer momento, la compañía anunció a través de su Twitter oficial que estaban "teniendo problemas" ya que el sitio web de la Fundación Wikimedia no funcionaba con normalidad. No obstante, apenas una hora después, agradecía la "paciencia" de los usuarios y anunciaba la solución al fallo.
Según explica Wikipedia en su blog técnico, se trataban de "fallos intermitentes" en un centro de datos en Tampa (Florida) que supuso un "impacto" en el resto de proyectos de la fundación. Asimismo, anunciaba que en cuatro horas aproximadamente todos los servicios volverían a la normalidad.

Robots aéreos que inspeccionan fábricas, graban en Hollywood y salvan vidas

Fuente: Canarias7.

Investigadores de la Universidad de Sevilla han coordinado el proyecto del Programa Marco 'Aware', un sistema de robots aéreos que se aplica en tareas como la inspección de fábricas o la grabación de películas de Hollywood y que se prevé emplear además en casos de emergencia y protección civil.

Así lo ha indicado a Efe el director de este grupo de investigación, Aníbal Ollero, que ha explicado que el sistema 'Aware' se ha integrado en helicópteros no tripulados con redes de sensores en tierra, a fin de que estos robots aéreos puedan cooperar entre sí, portar cargas y desempeñar tareas tan diversas como las mencionadas.

Ollero ha explicado que, en el marco de esta iniciativa, se desarrolló la primera demostración en el mundo de transporte de una carga mediante tres helicópteros acoplados, que lograron depositar estos objetos en la parte superior de una estructura que simulaba un edificio en llamas.

"Conseguimos así que varios helicópteros de bajo coste transportaran conjuntamente una misma carga, lo que puede aplicarse, por ejemplo, en situaciones de emergencia en las que fuese necesario suministrar equipos de primera necesidad a víctimas o desplegar dispositivos de comunicaciones", ha indicado el responsable del proyecto.

Una de las empresas europeas implicadas en el proyecto ya ha empleado el sistema 'Aware' en la inspección de chimeneas de industrias químicas.

A este respecto, Ollero ha puntualizado que, de no contar con estos robots, la fábrica tendría que haber paralizado su actividad y se tendrían que haber contratado a técnicos especializados para su supervisión, lo que implicaría "pérdidas de cerca de un millón de euros" para la compañía.

Además, los helicópteros no tripulados de 'Aware' están siendo utilizados por una productora cinematográfica con sede en Bélgica, Estados Unidos y otros países asiáticos para grabar planos picados y aéreos gracias a la posibilidad que brindan los robots de "perseguir" a los actores por el aire mientras portan una cámara.

Este proyecto obtuvo hace pocos meses uno de los premios 'Europ-Euron 2010' a la generación de tecnologías muy innovadoras y su transferencia a las empresas.

Está considerado el reconocimiento más prestigioso de Europa en el ámbito de la robótica y es concedido por la Plataforma Europea de Robótica EUROP (dirigida por empresas), la Red Europea de Robótica EURON (con 218 instituciones de 27 países) y la sociedad EUnited Robotics.

Opera lanza la versión 10.60 de su navegador

Fuente: Libertad Digital.

Entre otras novedades, la nueva versión contará con geolocalización, es decir, la posibilidad de ubicar al usuario en un mapa mediante la determinación de su posición. Sin embargo, debido a los problemas de privacidad que provoca esta tecnología, Opera garantiza que el internauta tendrá un control total sobre cuando se utiliza esta función.
Opera es el primer navegador en incorporar la reproducción de vídeo mediante el formato abierto WebM impulsado por Google y que permite una reproducción optimizada de vídeo en el navegador en cualquier plataforma.
La seguridad sigue siendo un valor importante a la hora de elegir navegador y el equipo de Opera ha querido destacar una nueva funcionalidad anti-fraude y anti-phising de AVG, manteniendo al día al usuario sobre las últimas amenazas de internet.

Un 20 por ciento de los usuarios de Internet en España buscan información política a través de las 'web' de los partidos

Fuente: Yahoo!

Un 20 por ciento de los usuarios de Internet en España buscan información política 'on-line' a través de las páginas 'web' de los partidos políticos, según se desprende del estudio 'Internet y participación política en España' realizado por el Centro de Investigaciones Sociológicas (CIS).
Además, tan sólo un 3 por ciento está suscrito a algún boletín electrónico sobre actualidad política. En cambio, la mayoría de los internautas españoles que se interesa por esta cuestión acude a las ediciones 'on-line' de los medios de comunicación tradicionales: prensa, radio y televisión.
En cualquier caso, son más --un 55 por ciento-- los que no siguen la información política 'on-line'. Dado que aproximadamente el 50 por ciento de la población, según la muestra, no puede ser considerado usuario de Internet, estos porcentajes se reducen a la mitad.
El estudio también refleja de manera conjunta los niveles de lectura de prensa a través de Internet y a través del formato tradicional en papel. Así, la gran mayoría de los lectores de prensa siguen optando en exclusiva por la edición tradicional, mientras que una parte muy pequeña --en torno al 10 por ciento-- consulta, además, las versiones 'on-line'.
MOVILIZACIÓN POLÍTICA
Sobre la actividad movilizadora a través la red, el 32 por ciento de los usuarios asegura que recibe correos electrónicos en este sentido. Además, constatan que los estímulos negativos --un mail criticando a un candidato, por ejemplo-- son más frecuentes que los positivos: un 27 por ciento frente a un 11 por ciento respectivamente.
Además, un 22 por ciento de los internautas asegura haber recibido algún correo convocándoles a una manifestación y prácticamente el mismo porcentaje ha recibido un manifiesto o petición. Aún con todo, los estímulos movilizadores 'on-line' para acudir a una manifestación son menos frecuentes que los que se producen cara a cara.
Por otra parte, el 29 por ciento de los usuarios ha utilizado la red para comunicarse con una asociación u organización, el 16 por ciento para plantear alguna queja ante la administración, mientras que el 5 por ciento lo ha empleado para entrar en contacto con algún partido o político. El 20 por ciento ha participado en algún foro, 'web' o 'blog' con contenidos.
Finalmente, el estudio refleja que el 28 por ciento de los internautas participan simultáneamente 'off-line' y 'on-line'. En cambio, un 15 por ciento se movilizan políticamente sólo a través de Internet, ya que no participan a través de modos tradicionales. Según concluye el estudio, si bien "hay espacio para la movilización de nuevos participantes, el refuerzo del modo tradicional es la pauta más habitual de la red".

Hallan fósiles de hace más de 2,100 millones de años

Fuente: Pueblo en Linea.

Hasta ahora se daba por hecho que la aparición de los organismos multicelulares se había producido hace unos 600 millones de años. Pero el descubrimiento en Gabón de unas pequeñas estructuras datadas en 2100 millones de años podría cambiar totalmente esta idea.

El descubrimiento en Gabón de más de 250 fósiles en excelente estado de conservación ha aportado la prueba, por primera vez, de la existencia de unos organismos multicelulares de 2.100 años de antigüedad. Nunca antes se había visto una forma de vida tan desarrollada perteneciente a una época tan temprana.

Los investigadores descubrieron unas pequeñas estructuras de entre 10 y 12 centímetros de diámetro cuya morfología no podían explicar por simples mecanismos fisicoquímicos. Tras realizar una serie de análisis pudieron observar que contenían materia orgánica transformada en pirita, es decir que fueron organismos vivos hace millones de años.

El equipo internacional de científicos, dirigido por Abderrazak El Albani, del Centro Nacional de Investigación Científica francés, ha hallado en un yacimiento de Gabón lo que a ojos de un profano parecen "galletas", como describen los científicos, pero son en realidad fósiles de organismos pluricelulares que vivieron hace 2.100 millones de años. Fueran lo que fueran, habitaron el planeta 1.500 millones de años antes de la explosión cámbrica, cuando se suponía que aparecieron de manera repentina los animales multicelulares.

"Está claro que eran animales, vegetales, algas u hongos, pero hace falta más investigación para aclararlo", señala El Albani. Su hipótesis es que estos organismos nacieron tras la Gran Oxidación, hace 2.400 millones de años, cuando surgieron las primeras bacterias capaces de liberar oxígeno y la atmósfera de la Tierra se transformó.

El niño «spiderman» que escala paredes con aspiradoras

Fuente: ABC.

La pasión por parecerse a Spiderman, el popular superhéroe creado en la década de los sesenta por el guionista estadounidense Stan Lee, es lo que ha llevado a un joven británico de tan sólo trece años a construir su propio sistema para trepar por las paredes. La historia la encontramos en el blog de Miguel Jorge, que se ha hecho eco de las informaciones recogidas en Dvice y The Sun.
Este pequeño gran científico del King's Collegue de Londres cuenta como trató de emular a su personaje favorito echando mano de dos planchas de madera, dos aspiradoras de 1.400 watios de potencia, algo de grasa para agarrar las zonas de escalada y, por supuesto, mucho ingenio. Hibiki Kono, así es como se llama este particular Peter Parker, ha declarado que no tiene miedo y que confía completamente en las capacidades de su invención; "solía disfrazarme de Spiderman cuando era más pequeño y me encantan todas sus películas, así que ahora es genial poder escalar paredes como él, aunque no me dejan subir demasiado alto".
Efectivamente, aunque el profesor de tecnología del joven, está realmente sorprendido y orgulloso del talento del joven, sus padres han decidido prohibirle aquello de hacer alpinismo en la habitación de su casa para evitar un posible derrumbe del techo. Merece la pena echar un vistazo al vídeo que ha grabado la BBC para mostrar lo alto que puede llegar el pequeño Hibiki.

¿Qué uso le podrá dar Ud. a la TV digital que desarrollan empresas argentinas?

Fuente: iProfesional.

La llegada de la TV digital abierta abre para las empresas de software y servicios informáticos argentinas una oportunidad de negocios para el mercado interno y el externo.
Es que más allá de la venta de televisores y decodificadores adaptados al estándar japonés-brasileño, elegido el año pasado por el Gobierno nacional, existe una amplia gama de posibles actividades, entre ellas la interactividad y el desarrollo de aplicaciones como juegos. Estos desarrollos informáticos no se limitan a los televisores sino también a la señal que se recibe en los teléfonos móviles.
Una parte clave de estos posibles negocios es la caja que recibe la señal, en la jerga set-top-box (STB). Este equipo, que sintoniza, se asemeja a una PC porque tiene un procesador, un disco duro y memoria operativa.
En los STB se instala un software denominado “Ginga”, que interpreta la señal recibida y la enlaza con las instrucciones que le envía el usuario. El entorno está realizado bajo el formato de código abierto.
Al igual que la norma japonesa-brasileña, Ginga tiene origen en el país vecino. Se pueden desarrollar aplicaciones como la guía de canales y programas, juegos, aplicaciones de salud o de educación, aplicativos relativos al clima o deportes, y sistemas de video bajo demanda.
Las empresas de software locales apuntan a desarrollos interactivos, como la votación del televidente en un “reality show” mediante el control remoto; o el pedido de información adicional durante un ciclo determinado, como programas de turismo.
Otros usos posibles vinculan al contenido televisivo con el comercio como, por ejemplo, compras con tarjeta de crédito.
El Laboratorio de Investigaciones de la Facultad de Ciencias Informáticas (Lifia) de la Universidad de La Plata trabajó en la liberación del Ginga.
Como no es sencillo encontrar los profesionales para realizar la programación para este entorno, las empresas que desarrollan programas para la industria televisiva nucleadas en la Cámara de Software y Servicios Informáticos (CESSI), el Ministerio de Planificación y el Lifia suscribieron un convenio para la transferencia de conocimientos, a cambio de aplicaciones interactivas para televisión digital.
Gesta empresaria
El grupo de empresas, denominado Gesta, esta integrado por las firmas Way, Hardata, Lupa Corporation, Ryaco y Sofrecom. El acuerdo permitirá investigar y desarrollar las aplicaciones para navegar en la televisión por Internet como si fuera una computadora.  El equipo de trabajo es encabezado por uno de los profesionales informáticos más prestigiosos del país: Gabriel Baum, ganador del Premio Sadosky de Oro 2005 y miembro del directorio de la Comisión de Investigaciones Científicas de la Provincia de Buenos Aires (CIC). Baum coordina junto a la Facultad de Informática de la Universidad Nacional de La Plata.
Baum explicó así el proceso: “Dentro del proyecto de la televisión digital se incorpora un decodificador, una pequeña computadora que posibilita usar un televisor analógico para recibir la señal digital. Lo nuevo es que permite la interactividad entre la TV y la persona. Junto con la señal, aparecen datos y, con ellos, pequeños programas que hacen que la persona usando el control remoto tenga alguna interacción con el televisor”.
El experto subrayó que ya se realizó una prueba tomando la señal del canal Encuentro sobre una enfermedad, que hablaba de sus síntomas y posibles tratamientos.
“A eso le agregamos la posibilidad, en un momento dado, de que el televidente apretando un botón pueda recibir información adicional, como por ejemplo la historia de esa enfermedad o cómo se descubrió. Y con otro botón se presenta un resumen sobre lo que ya pasó en el programa”, explicó Baum.
El aparato no tiene límites para recibir canales, aunque en este momento sólo lo emite canal 7, pero estamos en una etapa experimental y vamos a seguir investigando”, señaló.
En la Argentina, según afirmó Baum, el nivel de conectividad a la red de redes es muy bajo, de alrededor del 20% de la población. Debido a ello, uno de los objetivos de la TV digital terrestre es que más personas puedan estar conectadas.
“Primero se da la señal de televisión, y después, con una PC con acceso a Internet, los usuarios podrán navegar con un mayor grado de conectividad, pero el sólo hecho de que ya se pueda tener televisión gratis es un paso muy importante”, sostuvo el investigador.
Así se permitirá a los usuarios capacitarse en lo laboral, informarse sobre campañas de prevención para la salud, y hasta contestar encuestas, con un alto grado de personalización.
Según señaló el experto, no es obligatorio que los decodificadores tengan Ginga, ya que se puede ver televisión digital sin ese programa. Y, además, los dispositivos que no lo tienen son más económicos, ya que agregarle ese programa requeriría más memoria y un procesador más potente.
El “Ginga.ar”, como se llama la versión local del entorno que desarrolló el equipo interdisciplinario platense integrado por diseñadores, ingenieros electrónicos, investigadores y becarios que coordina Baum, se incorporará a los decodificadores que se distribuirán entre agosto y septiembre próximos.
“En países como Japón, nadie se conecta a Internet desde el decodificador, porque la gran mayoría navega en la computadora. Tienen cables por todos lados. Pero en la Argentina, donde la gente de más bajos recursos no está conectada, tener acceso gratuito a un medio masivo como la televisión es un salto interesante”, señaló. Con el tiempo, todo convergerá en un mismo aparato, y habrá cinco pantallas que confluyan en una sola.
Por ejemplo, la firma Ryaco desarrolla la primera aplicación interactiva para TV digital sobre la gripe A, donde el televidente es guiado sobre síntomas, centros sanitarios dónde acudir, etc. Se trata de una especie de test que guía al usuario a través de preguntas sobre qué debe hacer.
Apuestas“Las compañías de software son las que más oportunidades tienen con la TV digital", explicó a iProfesional.com Adrián Hettema, director general de Sofrecom Argentina, una firma dedicada a brindar soluciones tecnológicas mediante el desarrollo de software, proyectos de infraestructura de tecnologías de la información (TI) para carriers y empresas y outsourcing.
El empresario informó que comenzó en su firma la capacitación de técnicos. El objetivo no es sólo el mercado interno sino el externo, dado que el estándar japonés-brasileño también fue adoptado en Chile, Perú y Ecuador, entre otras naciones.
Además de la TV digital, Sofrecom se enfoca en las soluciones de software para telefonía móvil, otro sector donde el mercado se amplió mucho en los últimos años. Al respecto, Hettema señaló a este medio que se trabaja en el desarrollo de una solución para TV digital móvil junto con la Universidad de La Plata. En principio piensan en usuarios de Blackberry, para adaptarla luego a los de iPhone.
Para el empresario, el país “tiene más oportunidades que Brasil para exportar know how”, y recordó que “mercados mucho más maduros que éste no tienen la cantidad de empresas que hay acá para aprovechar esta oportunidad”.
Sofrecom Argentina es una compañía del Grupo France Telecom con sede matriz en Francia, y que trabaja en este país desde 1992. La filial local tiene 537 empleados y facturó el año pasado u$s18 millones. Para este año estiman alcanzar los u$s22 millones.
ReparosSin embargo, desde una firma de origen brasileño manifestaron sus reparos frente a las decisiones oficiales sobre la TV digital en materia de software. Carlos Maiztegui, director de la compañía Totvs en la Argentina, advirtió en una conferencia de prensa que aún no está publicada la “norma industrial” que defina las especificaciones con las cuales el país adhiere a la norma japonesa-brasileña.
En Totvs, que trabaja en el mercado de TV digital en Brasil a partir de una alianza con la empresa Quality, llamado TQTVD, también señalaron si la norma incluirá la posibilidad de desarrollar aplicaciones en Java sobre Ginga, desarrollado en el país gobernado por Lula da Silva.

La NASA confirma que el Jabulani es impredecible si va a más de 72 Km/h

Fuente: 20minutos.

El aluvión de críticas que jugadores, técnicos y expertos han dedicado al Jabulani, el balón del Mundial de Sudáfrica, han llevado a la mismísima NASA a analizar el comportamiento y la aerodinámica del esférico. Y los resultados no pueden ser más contundentes: es impredecible.
Los porteros de Inglaterra, Argelia, Japón o Ghana han protagonizado algunas de las cantadas más sonadas del mundial de Sudáfrica. Pero todos ellos, villanos crucificados por sus aficiones, tienen ya una coartada a la que agarrarse: el Jabulani es errático e impredecible. Y no se trata de una simple impresión o de sus sensaciones dentro del campo. Lo dice ni más ni menos que la NASA.
Con la ayuda de un jugador profesional de la Liga estadounidense (Stephen Beitashour, de los San José Earthquakes) expertos en aerodinámica de la NASA estudiaron al detalle el comportamiento del polémico balón. Las conclusiones del estudio señalan que a una velocidad superior a los 72 kilómetros por hora, el Jabulani es impredecible.
El poco peso del balón, unos 440 gramos, hacen que al ser golpeado con violencia el esférico experimente un denominado efecto nudillo ('knuckle' en inglés) que hace que su dirección varíe de forma totalmente aleatoria durante su vuelo. Un efecto que además se ve potenciado por la ubicación de las ciudades sudafricanas en las que se juegan los partidos ya que todas se encuentran por encima de los 1.000 metros sobre el nivel del mar.
Veremos si el 'efecto Jabulani' se deja notar en la recta final del Mundial que afrontan las cuatro selecciones supervivientes en la competición: Holanda, Uruguay, Alemania y España.

Google contra todos

Fuente: El Pais.

Google no se da tregua. Hace años compitió con Microsoft, ofreciendo correo electrónico y editor de textos. Posteriormente imitó a Apple, diseñando sistemas operativos para portátiles y teléfonos. Ahora, el gran buscador parece empeñado en ganarle la partida de las redes sociales a Facebook. Sus primeros intentos (Orkut, Buzz) han resultado totalmente fallidos. Sus ingenieros vuelven manos a la obra, con un proyecto que lleva el título provisional de Google Me.
Se trata de una nueva red social creada a imagen y semejanza de Facebook, según fuentes que conocen el proyecto. Es el reconocimiento tácito del fracaso de Google Buzz, una suerte de red social malograda porque se erigió exclusivamente sobre el correo de Gmail y que originó numerosas protestas y una demanda colectiva en EE UU por violación de la intimidad de los usuarios. A cinco meses de su lanzamiento, Buzz es ya una reliquia.
Un ex jefe tecnológico de Facebook, Adam D'Angelo, explicó recientemente en Quora, su página web, el porqué de Google Me: "Se han dado cuenta de que Buzz no era suficiente y que necesitaban construir una red social completa, de primera clase. Lo están haciendo a imagen de Facebook".
Facebook, por su parte, ha sido mucho más discreto, y mucho más eficiente, en sus ansias expansionistas. Desde abril, gracias a su servicio Facebook Connect y su protocolo Open Graph, sus botones "Me Gusta" y "Recomendar" aparecen en un millón de páginas web. Los usan, habitualmente, 100 de sus 400 millones de usuarios. Los hábitos de estos internautas quedan almacenados, posteriormente, en los servidores de la gran red social.
Esa es la amenaza silenciosa contra Google. Un usuario de Facebook puede buscar recomendaciones (restaurantes, tiendas, música, libros) entre los hábitos de sus amigos. Facebook, por tanto, tiene el potencial de un buscador más personalizado que Google, que no deja de ser una gran maraña de enlaces anónimos, unidos por algoritmos.
Comparada con sus principales competidores, Google es la segunda empresa en beneficios: 8.312 millones de dólares en 2009. Le sigue, de lejos, Apple, con 5.720 millones. La última es Facebook, que según Reuters, no superó el último año los 800 millones. La reina indiscutible sigue siendo, a pesar de todo, empedernidamente, Microsoft: 14.570 millones de beneficios netos en 2009. Un buen estado de salud económica para una empresa que da la impresión de quedar a la zaga en todas las nuevas tendencias online.
Pero, al fin y al cabo, esa es solo una impresión. Microsoft se ha mantenido en una excelente salud, quedándose al margen de guerras que no ha querido hacer suyas. Por ejemplo, su servicio de correo, con marcas como Hotmail, dispone de más de 360 millones de usuarios, según Comscore. Gmail, de Google, tiene algo menos de 200 millones. Le supera incluso Yahoo, que parece haberse quedado fuera de todas las apuestas pero tiene en realidad unos 300 millones de clientes.
Google y sus ingenieros llevan ya más de una década intentando cambiar las reglas del juego. Lo cierto es que, de momento, son número uno indiscutible en una sola cosa: Búsquedas en la Red. Su sistema de ensayo y error ha dado, de momento, magros resultados.