Buscar

2008/12/05

Ojo: consolas peligrosas

Fuente: El Mundo.

A menudo, lo barato termina por salir caro. Si hablamos de venta de consolas por Internet, los muy barato probablemente saldrá rana, o incluso peligroso, alertan en el Reino Unido.

Funcionarios británicos de aduanas publicaron una advertencia en vísperas de la vorágine consumista navideña, y después de requisar versiones falsas de las consolas de juegos de Nintendo con adaptadores eléctricos potencialmente peligrosos.

"En el mejor de los casos, esas consolas ser una gran decepción el día de Navidad. En el peor de los casos, podrían causar un daños e incluso heridas", dijo Pamela Rogers, del servicio de aduanas.

Los productos, versiones de Nintendo DS y DS Lite que fueron comprados en sitios de Internet principalmente con base en Asia, cuestan unas 40 libras (46 euros) en lugar de las usuales 100 libras (115 euros).

Rogers advirtió a la gente para que tome precauciones cuando compre tales artículos en la Red, y afirmó que deberían realizarse dichas compras en sitios con cierta reputación y sujetos a regulación.

"Estamos pidiendo a todos los padres preocupados que sean diligentes. Cuando una ganga parezca demasiado buena para ser verdad, a menudo se trata precisamente de eso, que es una falsificación", dijo Mike Rawlinson, director general de la división de investigación de fraude de Nintendo.

Bluetooh 10X será lanzado el próximo año

Fuente: Tengo Un Mac.
El Bluetooth Special Interest Group ha anunciado que introducirá dos nuevos estándares a mediados del 2009, el primero denominado 10X trabajará con la red WLAN y acelerará la transferencia de datos hasta 30 Mbps.
La segunda llamada 100X utilizará el sistema USB sin cables y debería llegar a una velocidad de transmisión de 300 Mbps.
Se espera que la Bluetooh 10X revolucione el acceso inalámbrico para dispositivos móviles pues la funcionalidad abre muchas posibilidades, en cambio la 100X deberá esperar hasta que la integración de UWB pueda dar cabida a radios de mayor velocidad.

Crean el primer robot domesticable

Fuente: Tendencias 21.

El Robotics Research Laboratory de la Universidad de Luisiana, en Estados Unidos, avanza –a grandes pasos según un comunicado de dicha universidad- en el desarrollo de un robot que cuenta con una novedosa tecnología, no aplicada hasta la fecha.

Se trata del AgBot, una máquina que se mantiene con energía solar, y que ya sabe plantar césped y semillas. Pero no sólo podrá usarse como jardinero, señalan sus creadores, ya que en el futuro esperan poder añadirle al robot otras funciones.

Y en eso radica la novedad tecnológica: en que los científicos pretenden que el AgBot sea como una especie de robot “programable”. Así, por ejemplo, si uno quiere que limpie los aseos, puede comprar un módulo específico que, una vez colocado en el AgBot, hará que éste los limpie. O si uno se va de viaje, le compra otro módulo al robot para que sea capaz, por ejemplo, de detectar que entran intrusos en la casa.

Es decir, que el robot podría hacer cualquier función, dependiendo del módulo que se le coloque. Ahora mismo, AgBot (exclusivamente como robot jardinero) está siendo preparado para el mercado, al que los investigadores esperan que salga a un precio barato. Los clientes potenciales: los dueños de casas, pero también los clubes de golf o los dueños de campos de baseball.

En el futuro se convertirá, según sus creadores, en el primer robot domesticable, capaz de “aprender” a realizar la función que se desee a base de cambiar su programación.

Motoman, el robot nipón que te monta una cámara o te fríe una hamburguesa

Fuente: Pixfans.

Esa afición que los japoneses tienen por la robótica nos deja cada poco un nuevo modelo con habilidades sorprendentes, y cada vez más precisas y mejoradas. En el caso de este Motoman SDA10, desarrollado por Yaskawa Electric, lo que más sorprende es su versatilidad, pues tanto es capaz de montar una cámara de fotos como de atender un local de comida rápida, reconociendo lo que piden los clientes con su sistema de reconocimiento de voz.

Rockstar trabaja en un parche para la versión PC de GTA IV

Fuente: 3D Juegos.

Cuando GTA IV llegó a Xbox 360 y PS3 en abril de este año, los jugadores lo acogieron con los brazos abiertos alabando el gran trabajo de Rockstar de forma unánime, tanto por su experiencia jugable como por sus virtudes técnicas. Lamentablemente parece que la reacción de la comunidad de jugadores ante la reciente versión de PC no está siendo igual de unánime, alegando buena parte de ellos diversos problemas de rendimiento, un pobre “frame rate”, problemas con texturas e incluso casos de cuelgues.

Queremos dejar claro que estos casos no son generalizados, aunque por desgracia más comunes de lo que desearía la propia Rockstar, que lejos de escurrir el bulto los ha reconocido afirmando que trabajan en un parche para solucionarlos.

"Somos conscientes de que una pequeña parte de jugadores están teniendo problemas al ejecutar GTA IV en sus PCs. Queremos asegurarles que estamos trabajando para solventar estas incidencias lo antes posible", comentaba un representante de Rockstar.

Al parecer muchos de los afectados con alguno de estas incidencias tienen un punto en común, una tarjeta gráfica de la serie Nvidia 7900 y un driver “puñetero” que causa tanto problemas de rendeado como rendimiento general muy bajo en el juego. De acuerdo con Rockstar “Nvidia está trabajando para lanzar un nuevo driver lo antes posible”.

Para resolver cualquier problema técnico con el juego, Rockstar recomienda consultar la página oficial de soporte técnico donde se listan diversos FAQs e información actualizada para resolver incidencias comunes.

Un programa informático permite "descifrar" la letra de los médicos

Fuente: La Vanguardia.

La empresa Thera del Parque Científic Barcelona, surgida de la Universidad de Barcelona, ha desarrollado una aplicación informática que interpreta el lenguaje natural que escriben los médicos y otros profesionales de la salud cuando redactan sus informes y los codifica automáticamente.

Este sistema es capaz de interpretar las expresiones y abreviaturas que utilizan habitualmente los profesionales de la salud y adaptarse a cualquier sistema de codificación, lo que hace posible su aplicación en todos los ámbitos de atención médica: atención primaria y clínica, servicios de radiología, urgencias o consultas externas, entre otros.

La aplicación se utiliza ya en la Fundación Puigvert de Barcelona con una fiabilidad superior al 95% y permitirá mejorar la gestión de esta información y el control que tienen los centros de salud sobre su actividad.

Además, dispone de un registro más fiable sobre la incidencia de ciertas patologías y ampliará el conocimiento acerca de su sintomatología y evolución, ha informado el Parque Científico El sistema de codificación desarrollado por Thera -denominado hCOD- se basa en tecnologías de inteligencia artificial y procesamiento del lenguaje y su nivel de resolución permite detectar la información contenida en los diagnósticos que no es codificable por falta de información clínica.

También puede tratar el multi-diagnóstico, corregir los errores ortográficos e incluso operar simultáneamente en diversas lenguas. Hasta ahora, las aplicaciones de codificación automática se basaban generalmente en sistemas de coincidencia terminológica.

Sin embargo, en el "entorno real" de los centros de salud, donde el médico utiliza libremente la lengua, se restringen sus posibilidades de codificar correctamente toda la información. "El objetivo al crear este sistema ha sido disponer de una herramienta que, además de mejorar la labor de codificación y gestión de la información, también facilite un retorno al equipo médico, de manera que el esfuerzo que supone este trabajo se vea recompensado con una información útil para los profesionales que la gestionan", ha explicado el director de Thera, Enric Castelló.

La neutralidad de Internet peligra

Fuente: La Voz de Galicia.

Una de las decisiones más acertadas que tomaron los técnicos e ingenieros que diseñaron Internet fue la de decidir transmitir la información a través de ella dividida en paquetes, en lugar de hacerlo en una sola pieza. De esta forma se evitaba que problemas en las líneas o en cualquiera de los dispositivos por los que tuviera que pasar la información dieran al traste con la transmisión si estos se producían antes de haber transmitido todos los datos, pues el protocolo TCP/IP que rige la transmisión de estos paquetes es lo suficientemente inteligente como para darse cuenta de si faltan uno o varios, y de volver a pedirlos en ese caso.

Así, a Internet le da igual la información que viaja dentro de cada paquete y los trata a todos por igual, actuando de forma similar a como lo hace un cartero, leyendo la dirección de destino de cada paquete y encargándose de llevarlo allí independientemente de su contenido.

En este sentido, al tratar por igual todos los paquetes, se dice entonces que Internet es una red neutra, y esa es una de sus mayores virtudes, ya que el usuario tiene -o debería tener- la seguridad de que va a funcionar igual de bien o igual de mal sea cual sea el uso que esté haciendo de ella en cualquier momento.

Pero desde hace unos años los operadores de telecomunicaciones, en especial en Estados Unidos, vienen hablando de la posibilidad de poder analizar el tipo de información que contienen los paquetes y de tratarlos de forma distinta en función de lo que contengan y de su origen y destino.

Su argumento es que en los últimos años la popularización de contenidos como imágenes, sonido y vídeo en Internet y del uso de redes de intercambio de archivos hace que la demanda de ancho de banda crezca cada vez más, lo que les está obligando a hacer importantes inversiones en infraestructura, y que hay que buscar formas de financiarlas o, en su defecto, de controlar el uso que se hace de ellas.

Lo lógico parece pensar que estas inversiones tendrían que ser pagadas con los ingresos que las operadoras obtienen de sus clientes, ya sean usuarios finales como usted o como yo, o de empresas que pagan por tener sus servidores en Internet para que los demás podamos usarlos. Pero las operadoras se frotan las manos pensando en la posibilidad de suscribir acuerdos financieros con diversos proveedores de contenidos de tal forma que estos les pagarían una cierta cantidad de dinero para que la navegación por sus páginas fuera más rápido que por otras.

Así, el buscador A iría más rápido que el buscador B para los clientes de una operadora determinada, o los vídeos del sitio X irían más rápidos que los del sitio Y en virtud de esos acuerdos comerciales, acuerdos de los que el cliente probablemente no sería consciente.

Otra opción, y de hecho ya se han dado casos de esto, es que una operadora decida tratar de forma distinta el tráfico que circula por su red según sea de un tipo u otro, como por ejemplo tuvo que reconocer ONO en el 2006, que hacía penalizando tráfico P2P, o Telefónica en Chile, que hacía lo mismo con el tráfico de llamadas telefónicas a través de Internet.

Sin discriminación

Pero estos planteamientos pueden ser enormemente dañinos, porque, parafraseando a Tim Berners-Lee, el inventor de la World Wide Web, buena parte del éxito de Internet ha estado en que cuando alguien paga para conectarse a ella pueda usarla para cualquier aplicación que quiera, sin ningún tipo de discriminación por quién es o por lo que está haciendo.

Se trata de poder pagar por un servicio de mejores o peores características, pero de que nadie pueda pagar por tener acceso exclusivo o prioritario a algunos usuarios.

La neutralidad de Internet también es importante de cara a la igualdad de oportunidades para aquellas empresas que quieran arrancar un nuevo proyecto en la Red, ya que, si llegado el caso las operadoras ofrecieran mejores resultados para aquellas empresas que pudieran pagar más, es fácil ver que algunas, sin necesidad de mencionar nombres, lo tendrían muy fácil, mientras que las más pequeñas y quizás más innovadoras probablemente no tendrían los recursos como para pagar por este tratamiento preferencial.

No se trata, en cualquier caso, de pedir que el acceso a Internet sea gratuito, ni de decirles a las operadoras que no ofrezcan varias opciones distintas de conexión, pues cada usuario pagará lo que necesite o lo que estime necesario, y quizás regular por ley y comprobar que efectivamente cada operadora mantiene la neutralidad de sus conexiones puede ser complicado. Pero sí es muy importante mantenerse al tanto de que existe la posibilidad de que nuestras conexiones a Internet no funcionen exactamente como pensamos y de intentar asegurarse que al menos las operadoras estén obligadas a ser transparentes con lo que hacen.