Buscar

Mostrando entradas con la etiqueta datos. Mostrar todas las entradas
Mostrando entradas con la etiqueta datos. Mostrar todas las entradas

2010/09/24

El gran banco de datos del español hablado estará en la Red en 2011

El Mundo

El primer gran banco de datos de la lengua hablada española estará en Internet en 2011, quince años después del nacimiento de un proyecto de cooperación internacional único en el ámbito de la lingüística al que se han sumado 17 países de ambos lados del Atlántico.
Los especialistas que participan en esta experiencia se reunirán la próxima semana en la Fundación Comillas, que auspicia, junto a la Real Academia Española, este Proyecto para el Estudio Sociolingüístico del Español de España y América (PRESEEA).
Su coordinador es el catedrático de la Universidad de Alcalá de Henares y director académico del Instituto Cervantes, Francisco Moreno Fernández, quien ha explicado, en una entrevista, que el congreso de Comillas (Cantabria) servirá para ultimar detalles y aclarar dudas.

El proyecto

PRESEEA dio sus primeros pasos en la madrileña Universidad de Alcalá de Henares en 1996 y desde entonces se han sumado cuarenta equipos de investigadores de ambos lados del Atlántico, que han recopilado los materiales que se pondrán a disposición de lexicógrafos, sociolingüistas y todos los interesados en el uso de la lengua española, en cualquier rincón del mundo.
Su análisis permitirá conocer hasta qué punto llegan las diferencias y las semejanzas entre los hablantes de una lengua, que Moreno define como un "conjunto de variedades" y también "hacia dónde va el español, tanto en el plano de la pronunciación como en el gramatical o en el del discurso".
Los materiales proceden de hablantes españoles y americanos de todas las edades, estratos sociales y niveles de instrucción. "Ahora mismo es el mayor proyecto de cooperación internacional en materia de lingüística, por el número de investigadores a los que reúne y por la ambición de sus objetivos", ha asegurado su coordinador.

En Internet

Parte de la información recopilada puede consultarse ya en Internet y de hecho, es utilizada en tesis doctorales, memorias e "infinidad de trabajos de investigación que se irán publicando poco a poco", ha precisado el experto.
Además, los materiales de PRESEEA formarán parte del Corpus del Español del Siglo XXI, la gran base de datos que elabora la Real Academia Española y que estará disponible en 2013, en su tercer centenario.
Los lingüistas sostienen que, para que se pueda apreciar "un estado diferente de la lengua", tienen que transcurrir 50 años, ha explicado Moreno.
"Si pensamos en cómo hablaban nuestros abuelos, reconoceríamos diferencias, no sólo léxicas, sino también gramaticales, de giros, en algunos aspectos sintácticos. Su lengua nos resulta un poco antigua y eso que percibimos como hablantes normales, se puede medir desde el punto de vista de la lingüística", ha puntualizado.
Moreno ha apuntado que los cambios sintácticos en una lengua son "muy lentos", pero los léxicos, los que más separan a unas regiones hispánicas de otras, pueden producirse "con gran rapidez".

Evolución

El proyecto mostrará la forma de hablar español a comienzos del nuevo siglo aunque la idea es emprender una segunda fase para comprobar si las tendencias de cambio se confirman. Eso supondría estudiar "en vivo" cómo va evolucionando una lengua, algo que no se ha hecho nunca, ha asegurado el estudioso.
Por ahora, los investigadores han detectado que el español hablado está perdiendo formas verbales del subjuntivo, que se conserva mejor en América que en España, y con ellas, sutilezas gramaticales.
Pero esa tendencia es común a todas las lenguas, que caminan hacia la simplificación "para ser más económicas, para decir el mayor número de cosas con el menor esfuerzo posible", ha indicado Moreno.

Español

El experto ha argumentado que sería "bastante difícil" encontrar en el mundo anglohablante o francófono una experiencia como PRESEEA, que es más factible en el ámbito del español porque existe un sentimiento de comunidad lingüística "muy poderoso".
"Nuestra tendencia natural es a entendernos con el otro, a obviar las diferencias para potenciar lo que tenemos en común", ha subrayado.
En su opinión, los hispanohablantes estarán cada vez más cohesionados como comunidad lingüística, porque el alcance de los medios de comunicación y el aumento de la movilidad hacen que los 450 millones de personas que comparten lengua tengan un mayor contacto y se conozcan más.
Algunos de sus antecesores vaticinaron que el nacimiento de los nuevas repúblicas americanas iba a "romper el español en mil pedazos", como pasó con el latín, pero ese temor queda lejos. "Si eso fue una amenaza en el siglo XIX, ahora nos encontramos con todo lo contrario", ha sentenciado.

2010/09/20

No proteger los datos cuesta 3.000 millones de euros anuales

ITespresso

Un reciente estudio de CA Technologies revela que las organizaciones españolas de más de c50 empleados pueden llegar a perder más de 300.000 euros anuales por interrupciones de servicio TI y el tiempo que tardan en recuperarlo. Para CA Technologies este coste puede evitarse con una mejor estrategia de protección de datos que se centre en la rapidez de recuperación.
El informe, titulado ‘Avoidable Cost of Downtime 2010’, afirma que las pérdidas financieras asociadas a las interrupciones de servicio TI están directamente relacionadas con el tiempo que tardan en resolverse, y que cada organización española registra anualmente una media de 10 horas de interrupción del servicio TI, lo que equivale a más de 90.000 horas en el conjunto de España. Durante el tiempo en el que los sistemas TI críticos para el negocio se ven interrumpidos, las organizaciones españolas estiman que su capacidad para generar ingresos queda reducida a poco más de un tercio (36%).
El informe también revela que después de una interrupción del servicio, cuando los sistemas TI ya están en funcionamiento, se produce un retraso adicional durante el cual se van recuperando los datos, ocho horas al año de media en las compañías españolas analizadas, un periodo de tiempo en el que la generación de ingresos también se ve afectada y desciende hasta el 45 por ciento de media.
Además, el informe señala que los departamentos que más posibilidades tienen de verse afectados son los de Operaciones (62%), Ventas (52%) y Finanzas (52%).

2010/09/10

La Comisión Europea emprende una consulta sobre la reutilización de datos del sector público

El Mundo

La Comisión Europea ha abierto una consulta pública sobre la Directiva de la UE relativa a la reutilización de la información del sector público (ISP).
El concepto de ISP "abarca todo tipo de datos generados por organismos públicos (mapas e información meteorológica, jurídica, financiera, económica y sobre tráfico) que pueden ser utilizados por terceros en productos innovadores como los sistemas de navegación para automóviles, las previsiones meteorológicas y las aplicaciones de información sobre viajes que pueden descargarse en los teléfonos inteligentes", según explica la propia Comisión.
Según un estudio de 2006, los datos públicos reutilizados, ya sea de forma gratuita o tras pagar una tarifa, generan "un volumen de negocios de mercado cifrado en un mínimo de 27.000 millones de euros".
Esta consulta se integra en la revisión de la Directiva ISP, que forma parte de la Agenda Digital y estará abierta hasta el 30 de noviembre de este año.
La directiva fue adoptada en 2003 y regula la actuación de los organismos públicos que participan en el mercado de reutilización de datos públicos. En 2009 se revisó la aplicación de estas reglas y se confirmó "la creciente reutilización de esa información y la adopción de medidas de fomento de la misma por parte de los Estados miembros y los organismos públicos".
Sin embargo, la Comisión también advirtió que para poder reutilizar esta información plenamente, era necesaria "la eliminación de los obstáculos que dificultaban" la misma.
Estos obstáculos son, según la Comisión, "la discriminación entre usuarios potenciales, el cobro de tarifas excesivas por la reutilización de la información del sector público y la aplicación de dificultosas políticas de certificados".
Además, señalaba "problemas prácticos como el desconocimiento de qué información del sector público se halla disponible y la falta de conciencia, dentro de los organismos públicos, del potencial económico de sus datos".
Por ello, tras concluir que, en su forma actual, la Directiva de 2003 "no ha surtido sus plenos efectos", la Comisión decidió proceder a una nueva revisión antes del final de 2012.
Neelie Kroes, comisaria de la Agenda Digital, afirmó que "el uso más eficaz y frecuente de la información del sector público encierra un gran potencial para la creación de actividad económica y puestos de trabajo y para ofrecer a los consumidores una mayor gama de productos con una mejor relación calidad-precio. El mercado de las aplicaciones para móviles, basado parcialmente en datos derivados de la ISP, podría aumentar su valor hasta 15.000 millones de euros de aquí a 2013".
Sin embargo, también explicó que "una gran proporción de la ISP europea está infraexplotada o sin explotar. No podemos desperdiciar esta oportunidad, por lo que hemos de estudiar la forma de modificar las normas de la UE sobre reutilización de la ISP a fin de liberar plenamente su potencial económico".
Por todo ello, desde la Comisión invitan a todos los interesados "a enviar su contribución sobre los aspectos clave de la reutilización de la ISP y, específicamente, sobre las posibles modificaciones de las disposiciones de la Directiva vigente en lo relativo a cuestiones como el ámbito de aplicación, el pago de tasas y la certificación de datos, a medidas prácticas como la necesidad de organizar campañas de información a través de portales web nacionales y a las repercusiones de los cambios que ya se han producido o de los obstáculos que aún persisten".

Transmita datos a 500Mbps a través de la línea eléctrica

Libertad Digital

El AV Powerline 500 tendrá dos kits a la venta, uno para configurar un punto origen y otro de destino para la red. Los adaptadores de línea eléctrica tienen la ventaja de ser capaces de utilizar el cableado eléctrico existente para mover datos de un punto a otro.
A pesar de que el grupo de trabajo que perfilará definitivamente el nuevo estándar IEEE P1901 tenía previsto reunirse esta misma semana para recomendar su borrador de norma para la banda ancha a través de redes de línea eléctrica y convertirlo en estándar de carácter oficial, Netgear se ha adelantado con el lanzamiento de su adaptador.
Aunque la norma IEEE P1901 promete velocidades de hasta 1 Gbps, sin necesidad de adaptadores de línea eléctrica como el lanzado por Netgear, sus creadores considera el AV Powerline 500 un complemento a los hogares que teniendo ya internet de 1 Gbps a través del cableado eléctrico necesiten proporcionar conexión a dispositivos alejados de la fuente.
"Casi todos los dispositivos de entretenimiento domésticos de hoy en día se pueden conectar a internet. Esto supone una gran demanda para la red doméstica. Los adaptadores ofrecen un complemento útil para las redes wifi", dijo el director de producto de Netgear, Chris Geisersaid, en un comunicado.
El adaptador Powerline AV 500 saldrá a la venta en Estados Unidos a un precio de 159 dólares y se empezará a comercializar este otoño según Netgear. El grupo de trabajo P1901 espera que su estándar se presente en el IEEE para su adopción como estándar oficial a finales de este mes, según Ars Technica.

2010/08/20

Hay vida después de dar formato por error

La Nacion

Hubo una época en que el número de personas usando tecnología digital no era siquiera una porción significativa de la especie humana. Si llegabas a menos de 90 centímetros de una computadora eras un elegido, incluso si una cerca electrificada te impedía el paso. Si te permitían tocarla eras un hacker. Si tenías una en tu casa, un semidiós.
Las cosas han cambiado bastante desde entonces. Hoy, un tercio de la población terrestre utiliza alguna clase de dispositivo digital. Ya no se necesita -por fortuna, debo añadir- graduarse en Ingeniería o Ciencias Exactas para aprovechar los incontables bienes de la informática.
Sólo una cosa no ha cambiado: seguimos formateando discos por error.
La reacción frente a este tropiezo intangible combina una angustiada desesperación con la inconfundible e inefable sensación de ser un perfecto estúpido. Hay varias herramientas comerciales para salir indemne de esta pequeña tragedia digital. Con todo, sí, admitido, estos programas a veces hacen algunas preguntas que pueden a uno llevarlo a pensar si no sería más sencillo comprarse una máquina del tiempo y volver a 1950, a la máquina de escribir, a los rollos de fotos.
No hace falta. Estuve probando el PhotoRec , un excelente software libre para restaurar los archivos eliminados por el formato de un disco, llave de memoria o tarjeta flash. Es obra de un programador francés llamado Christophe Grenier. Christophe tiene 33 años, vive en París y respondió rápida y cordialmente las varias consultas que le hice por correo electrónico para esta nota. Chapeau .
Cualquiera que tenga una cámara de fotos o use un pendrive como medio para transportar archivos entre la casa y la oficina debería descargar ya mismo los programas de Grenier y aprender a usar PhotoRec . Lo primero es relativamente sencillo. De lo segundo me encargaré en los siguientes párrafos.
Antes del pánico PhotoRec se obtiene en conjunto con otra aplicación, TestDisk . Ambas son gratis, se distribuyen bajo Licencia Pública General y se descargan del sitio de CGS Security ( www.cgsecurity.org/wiki/TestDisk_Download ).
Lo que se obtiene es un archivo ZIP llamado testdisk-6.11.3.win . No se preocupe porque el nombre PhotoRec no aparece en la etiqueta del archivo, lo encontrará dentro de todas formas. Los números de la versión (6.11.3) irán variando a medida que Christophe actualice sus aplicaciones. En su sitio hay también paquetes de binarios para diversos Linux..., ¡y hasta para OS2!
Si se le da doble clic al archivo ZIP en Windows XP, Vista o Seven se abrirá una ventana con una carpeta dentro llamada de la misma forma que el archivo, sólo que sin la extensión .zip . (En Windows 98 puede usar el 7-Zip : www.7-zip.org . De hecho Z-Zip es una mejor opción que el descompresor integrado a las nuevas versiones de Windows)
PhotoRec y TestDisk no requieren instalación. Basta arrastrar esa carpeta que está dentro del ZIP al Escritorio de Windows. Dentro encontrará todo lo que hace falta para empezar a recuperar los archivos eliminados por el formato.
Dentro de esa carpeta que tenemos ahora en el Escritorio se ven una serie de archivos que no aparecen asociados a nada en Windows (el ícono está en blanco o tiene el símbolo de no reconocido por el sistema ). Eso es normal. En Unix/Linux los archivos no necesitan extensión, mientras que Windows los requiere. Es bastante usual ver algunos archivos sin extensión en los proyectos creados bajo Linux y portados a otras plataformas.
Como fuere, lo interesante está dentro de una de las tres carpetas que se observan en ese directorio: dos , ico y win . En dos sólo hay un texto sobre la compatibilidad del programa con el viejo sistema operativo para PC. En ico están los dos íconos que usa el software. En win , por fin, lo que buscábamos: un par de programas ejecutables.
Cuidado con Vista y 7 Por regla general, desde Windows XP para acá, al dar formato a un disco, un pendrive o una tarjeta flash, el sistema se fija si la unidad ya tiene formato. Si es así, ofrece dar formato rápido. Si no, hace el formato regular. En XP no hay ninguna diferencia para recuperar entre ambos tipos de formato. En Vista y Seven, elegir la clase de formato equivocada hará que destruya toda su información y no pueda recuperar nada. No, al menos, de forma tan sencilla. ¿Por qué?
El formato rápido sólo crea un sistema de archivos vacío. Es decir, pone en cero la tabla de ubicaciones de los ficheros. Los datos no se tocan, sólo se elimina el índice donde estaba anotada su ubicación en el disco.
El formato estándar (o full format ) crea un sistema de archivos vacío y busca y marca los sectores defectuosos. Esto, en XP. En Windows Vista y Seven, el formato normal además llena con ceros todos los sectores ( http://support.microsoft.com/kb/941961/en-us ; en inglés, la versión en español es casi ilegible: http://support.microsoft.com/kb/941961/es-es ).
Por lo tanto, si Windows Vista o Seven le ofrecen dar formato rápido a una partición, acepte siempre esa opción. Quiere decir que el formato regular sería redundante. No ganará nada ni hará que el disco sea más estable o seguro por sobrescribir cada sector con ceros. Más bien perderá la opción de recuperar los datos, si resulta que no quería formatearla. Y además tardará muchísimo.
Si lo que busca es eliminar de manera segura los datos en un disco duro, tampoco éste es el método adecuado. Más bien, debería usar una aplicación como Eraser ( http://eraser.heidi.ie ).
Si tiene alguna duda sobre la confiabilidad de esa unidad, el formato normal sí contribuirá marcando los sectores defectuosos para que no se graben datos en ellos.
Me dice Christophe que el formato que aplican las cámaras de fotos y video siempre es del tipo rápido, por lo que su software puede usarse también con tarjetas de memoria que hayan sido formateadas de esta suerte.
El retorno, paso por paso Supondremos que dimos formato rápido a un pendrive que contenía 300 valiosas fotos. A los fines prácticos, las hemos perdido. La buena noticia es que la información sigue ahí, intacta.
Para recuperarla, lo primero es no volver a usar esa unidad de almacenamiento. Luego, le damos doble clic al archivo etiquetado photorec_win.exe . Lo que sigue haría, en circunstancias normales, que usted cerrara el programa con un bufido y una queja (comprensible): Esto no se entiende nada . Para peor está en inglés.
Pero espere. Lleva menos de cinco minutos entender cómo usar esta herramienta, y cualquier día de estos podría salvarlo de un bonito lío.
La lacónica ventana negra significa que la aplicación no posee una interfaz gráfica. Se la controla por medio de atajos de teclado o moviendo un rudimentario cursor por las opciones.
Lo primero que muestra la pantalla es una lista de las unidades de disco detectadas. No son particiones. Son unidades físicas. Por eso, si usted tiene un disco duro dividido en C: y D:, sólo verá una línea, casi seguramente identificada como /dev/sda , típica nomenclatura de Linux. Una llave de memoria se vería como /dev/sdb . No se preocupe, no tiene que aprender las herméticas siglas de Unix. A la derecha de cada línea observará un nombre más amigable: marca, modelo y capacidad de la unidad, expresada en MebiBytes y GibiBytes. Así, la llave de memoria tendrá, digamos, 1905 MiB (es decir, unos 2 gigabytes), mientras que el disco duro de la PC estará en 100, 250, 320 o más GiB. (Un Kibibyte es un 2 elevado a la décima potencia, es decir, 1024 bytes. Un MiB es 2 elevado a la vigésima potencia, 1.048.576 bytes. Y así.)
Con las teclas de cursor seleccionamos la línea correspondiente a la llave de memoria y apretamos Enter , lo que equivale a hacer clic en Proceed (abajo). Es decir, proceder.
La siguiente página permite elegir el tipo de tabla de particiones, desde la tipo Intel/PC hasta Xbox y Mac . Si usa Windows, elija Intel/PC .
El tercer paso es para elegir si se buscará en una partición constituida o en toda la superficie del disco o la llave de memoria. Conviene aquí elegir la partición constituida. Luego se podrá optar por revisar toda la superficie del disco.
El cuarto paso permite elegir entre dos clases de sistemas de archivo, los ext ( ext2 , ext3 y ext4 ) de Linux, y FAT , NTFS , HFS+ y ReiserFS . Si usa Windows, Mac o tiene su Linux formateado con Reiser , elija esta segunda opción.
El quinto paso es para elegir entre buscar en el espacio libre o toda la unidad ( Whole ). Elija esta última alternativa, si formateó por error.
El sexto y último paso es para elegir dónde guardaremos los archivos recuperados. Es obvio que no debemos usar la misma llave de memoria, porque en el proceso de salvamento podríamos sobrescribir archivos todavía no recuperados, arruinándolos. Por default se ofrece guardar los ficheros rescatados en una carpeta dentro del directorio del programa. Podemos apretar la tecla Y (por Yes ) para escoger esta opción y seguir adelante. La lista con nombres de archivo precedidos de extravagantes combinaciones de letras y guiones (por ejemplo, drwx------ ) suena arcano, pero no es nada del otro mundo. En Linux se consignan los permisos y atributos de los archivos de esta forma.
Configurado el PhotoRec , se iniciará el proceso de recuperación. Con un pendrive de 2 GB y una PC promedio tardará unos 30 minutos en extraer los datos. Impecable.

2010/08/11

Los operadores móviles luchan contra la sobrecarga de datos

eWeek

Los smartphones están aumentando en popularidad, pero los operadores móviles están luchando contra el aumento de la demanda de tráfico en sus redes.
El uso de ancho de banda móvil continuará creciendo de forma exponencial tanto en Norteamérica como en Europa occidental debido a que los smartphones se están adoptando de forma masiva por parte de los usuarios.
Según un informe de ABI Research, el uso de datos móviles en Europa occidental podría crecer un 42% anual entre 2009 y 2015, mientras que en Norteamérica ese crecimiento podría llegar al 55%.
“El uso de servicios de voz ya se ha visto superado por el tráfico de datos en móviles en algunas redes, y esta tendencia solo va a acelerarse en el futuro”, indicaban los responsables del estudio.

2010/06/25

Proponen crear una "goma de borrar digital" para Internet Guardar

Fuente: iProfesional.

La idea sería generar una fecha de caducación que los usuarios podrían utilizar para su información personal y privada en la red.

El ministro alemán de Interior,
Thomas de Maizière, abogó por la creación de una especie de "goma de
borrar digital" con la cual puedan ser eliminados datos de Internet.
Cada declaración en Internet es potencialmente pública en
todo el mundo
, argumentó el político democristiano. Esto impide
que pueda rehabilitarse alguien que se ve perjudicado por unas
declaraciones en su contra en la Red.
"Por ello sería importante enseñarle a Internet a olvidar o a 'no
poder encontrar' en el futuro en ciertos ámbitos", alegó, informó la
agencia DPA.
La idea sería crear una "goma de borrar digital" o instaurar una
fecha de caducación que los usuarios podrían utilizar para sus datos en
la Red, explicó.





"Quizás podríamos considerar la posibilidad de crear un
'derecho a permitir olvidar' como el que propone la Comisión Europea",
dijo el ministro, al presentar a grandes rasgos la estrategia de manejo
de Internet del gobierno alemán en Berlín.

2010/06/16

Un científico propone un sistema de datos que "se desvanecen" en Internet

Fuente: 20minutos.

La privacidad en la Red podría aumentar si los datos contenidos en determinados sitios fueran "desvaneciéndose" con el paso del tiempo. Así lo indica una investigación de la Universidad neerlandesa de Twente que estudia la manera de "degradar" la información que almacenan los sitios sobre sus visitantes.
La investigación, desarrollada por el centro de Telemática y Tecnología de la Información de la universidad, se centra en evitar, mediante la destrucción progresiva de los datos sobre los internautas, que éstos sean divulgados en algún momento de manera accidental, según recoge Portaltic.
Así, por ejemplo, en el caso de la búsqueda de información sobre la localización exacta de un usuario mediante coordenadas de GPS, el proyecto propone que en un primer momento se muestre una información precisa que con el tiempo evolucionaría para mostrar la calle, después el barrio y, finalmente, sólo el nombre de la ciudad.
"Hay puntos débiles en la seguridad de tantos sitios web que nunca se puede estar seguro de que sus datos no corran peligro", explica el director del estudio, Harold Van Heerde, al tiempo que añade que "en la mayoría de los casos" no hay una "buena razón" para el almacenamiento de datos durante tanto tiempo.
Además, Van Heerde ha estudiado cómo cambiar la manera de gestionar las bases de datos sobre usuarios y clientes de los sitios web, ya que considera que la capacidad de las bases de datos para recopilar información "tienta" a las empresas a considerar estos datos como un "tesoro" que puede resultar "valioso".
En este sentido, el experto considera que no se puede estar seguro de que la información no ha sido revelada y denuncia que las políticas de privacidad son "demasiado débiles". Por este motivo, considera que sería mejor poder entregar los datos personales a una web sabiendo que ésta tiene una política de degradación en el tiempo.

2010/06/07

Y los ganadores del Desafío AbreDatos son...

Fuente: 20minutos.

El Desafío Abredatos 2010, un concurso de creación de servicios tecnológicos basados en datos públicos y dirigidos al ciudadano, ha concluido este mes con la proclamación de dos ganadores, dos proyectos relacionados con el tráfico.
La competición comenzó el  17 y 18 de abril, cuando varios equipos de un máximo de cuatro personas comenzaron el desarrollo exprés (en 48 horas) de servicios tecnológicos para el ciudadano basados en el uso de datos públicos. Tras el desarrollo comenzó una segunda fase de cuatro semanas en las que los participantes debían difundir sus ideas.
Tras esa etapa, un jurado de expertos ha decidido quiénes debían ser los ganadores. Los proyectos presentados han sido de lo más variado y han abarcado todo tipo de ámbitos públicos, desde el transporte hasta las ofertas de trabajo o la información pública sobre los políticos. Finalmente, las dos ideas ganadoras van dirigidas al mismo sector: el tráfico.
El primer premio, dotado con 3.00 euros, ha sido para Infocarretera, una web que ofrece información sobre el tráfico en las carreteras del País Vasco. Puede consultarse incluso desde dispositivos móviles. Los 2.000 euros del segundo premio han ido a parar para los creadores de Misparadas.com, "una aplicación que utiliza datos de la EMT de Madrid para permitir a los usuarios guardarse sus paradas habituales de autobús y le notifique su posición, paradas cercanas y cuánto tiempo falta para que pase el siguiente autobús".
La iniciativa ha sido puesta en marcha por la plataforma Pro Bono Publico con objetivo de promover entre las instituciones públicas estándares, datos y sistemas abiertos, siguiendo los pasos de data.gov en EE UU y data.gov.uk en Reino Unido.

2010/05/19

El estiércol de vaca: la nueva alimentación de los centros de datos

Fuente: Silicon News.

En Galicia existen un millón de vacas.Al menos ése el censo que señala uno de los libros más populares de Manuel Rivas y el número en el que parece estancado el crecimiento de la cabaña bovina. Toca como a tres personas por vaca... y toca también a potencial de cara al futuro económico de la comunidad del noroeste de España.
Porque si el turismo, la exportación de ropa o las energías verdes les aburren, los gallegos pueden pasarse a la construcción masiva de centros de datos. Según un estudio de HP, los residuos de las vacas serán la clave del funcionamiento de los centros de datos del futuro. Y de vacas en Galicia están servidos.
Usando sin embarazo el término popular, la caca de vaca será la clave del sostenimiento de los centros de datos masivos de empresas de tremendo calado como Microsoft o Google, que tienen que hacer frente a masivos centros con elevados costes energéticos.
De las desposiciones de estos animales se extrae biogás, que mantendrá en funcionamiento los centros, tal y como recoge The New York Times. De este modo, se aprovecha algo natural y se tira por el atajo de lo verde.
Además, se impulsa el campo, atajando el desgaste económico de las industrias que lo sostienen, y se saca tajada del día a día de las instalaciones ganaderas.
"Las TI y el estiércol tienen una relación simbiótica", apunta a The New York Times el director del laboratorio de HP responsable de tecnología sostenible y responsable del estudio, Chandrakant Patel. "Y al tener estos centros de datos a nivel local, los agricultores contarán una nueva oportunidad."
Si del cerdo se dice que se aprovecha todo... lo mismo tendría que decirse de su amiga la vaca.

2010/05/14

De los datos al conocimiento

Fuente: Cinco Dias.

Hace 10 años el estudiante que quería eliminar totalmente el riesgo de no encontrar trabajo al acabar la carrera estudiaba ingeniería informática. Hoy sigue siendo una carrera con suficiente demanda, pero estoy convencido de que hay otra que será mucho más demandada en el futuro: la de ciencias actuariales y estadística.
El desafío hace 10 años era el de construir potentes infraestructuras técnicas y eficientes líneas de código para desarrollar la creciente necesidad digital del manejo y gestión de la información. Con más de 1.800 millones de personas conectadas a internet, el desafío hoy es de la interpretación y aplicación práctica de esa información.
La cantidad de información digital creada en el mundo creció un 62% el año pasado llegando a los 800.000 petabytes (un petabit son 1.000.000.000.000.000 unidades de información) y llegará a los 2 zetabytes a finales del 2011. Hacia finales del 2006 por primera vez en la historia la cantidad de información creada fue mayor que los soportes disponibles para almacenarla. Hoy casi la mitad de la información creada no puede almacenarse: correos que se borran, cálculos que no se guardan y fotos que no se almacenan. Facebook, que no existía en 2004, tiene hoy más de 60.000 millones de fotos en sus servidores; Google StreetView es uno de los mayores generadores de fotos del mundo; un coche de fórmula 1 envía 20 gigas de información por carrera desde sus 100 sensores distribuidos por toda la carrocería, y la cadena de grandes almacenes de Wal-Mart tiene una base de datos de operaciones equivalente a 167 veces el tamaño de la biblioteca del congreso de EE UU.
El abaratamiento de los soportes digitales de almacenamiento y el crecimiento de la capacidad de proceso de los ordenadores han hecho que la cantidad de información almacenada y procesadas crezca exponencialmente. El problema ahora es qué hacer con esa información. Hace 20 años el problema era obtener los datos que te permitiesen analizar la información. Bastaba con unas pocas muestras para conseguir esclarecedoras conclusiones. Hoy el problema es muy diferente, la información nos desborda, el problema es cómo analizar esa información para que sea relevante y pueda tener una utilidad directa en nuestras actividades y negocios.
El desafío ahora es contar con el talento necesario para que los datos se conviertan en información y ésta en conocimiento. Hace 20 años una empresa mediana contaba con pocos recursos para conocer la marcha del negocio. Hoy puede controlar las existencias, saber cuánto cuesta cada venta y cuándo y de dónde vienen los clientes. Poder analizar y entender la información que generemos será una ventaja competitiva que marcará el éxito de las empresas.
Y esto no ha hecho más que empezar. Tanto en el ámbito de la empresa como en el personal la generación de información seguirá aumentando exponencialmente. En el fondo somos animales de costumbres y, por tanto, bastante predictivos en nuestros comportamientos. El almacenamiento y análisis de la información que produce nuestra vida diaria generará servicios muy útiles y productivos. No dentro de mucho los coches con GPS serán los que hagan los mapas en tiempo real, los móviles determinarán qué sitios están de moda y los supermercados ofrecerán descuentos personalizados a los clientes. Y ese futuro no está muy lejos.

2010/05/06

Estados Unidos regulará la recogida de datos personales en webs

Fuente: Silicon News.

Los miembros de la Cámara de Representantes de Estados Unidos Rick Boucher y Cliff Stearns han presentado una propuesta de ley que obligaría a las webs a ofrecer a sus visitantes información clara y detallada sobre qué uso dará a los datos personales que recojan.

La propuesta, que distingue entre información sensible (orientación sexual, origen étnico, datos médicos…) e información protegida (datos personales, números de cuenta de tarjetas, huellas dactilares…), tiene como objetivo hacer de la red un lugar más seguro y que así sea percibido por el usuario para facilitar e impulsar el comercio electrónico.

El texto presta una atención específica al uso de datos personales con fines publicitarios. Si bien las webs necesitarán el consentimiento explícito del usuario para compartir sus datos con terceros, se hace una excepción cuando ese tercero es una agencia publicitaria: el usuario consentirá por defecto este uso de sus datos, y deberá informar a la web si no quiere que esto sea así.

La aprobación de esta propuesta llevaría a una mayor seguridad y, sobre todo, mayor transparencia a la hora de saber qué hace un sitio web con los datos que el usuario proporciona. Este tipo de regulación también se está barajando para la Unión Europea, especialmente en lo que se refiere a la recolección de información para usos publicitarios.

2010/04/20

Todos los datos públicos, para el pueblo

Fuente: Publico.

Si la información es poder, su liberación por parte de las administraciones puede provocar la próxima revolución. Para demostrarlo, un centenar de programadores ha pasado el fin de semana recopilando datos generados por ayuntamientos, comunidades autónomas o ministerios, y programará con ellos aplicaciones dándoles nuevos usos . La iniciativa es parte de una corriente que, impulsada por Barack Obama, recorre el mundo buscando dar a la sociedad la libertad de uso de los datos en manos de los poderes públicos, y que ha permitido aplicaciones tan populares como Google Maps. En España, varias iniciativas autonómicas y locales han adelantado al Gobierno central.
Medio centenar de equipos de programadores y diseñadores web han tenido 48 horas para crear una aplicación o servicio aprovechando datos públicos. Unos se decidieron por un sitio para evaluar las obras financiadas con el Plan E. Otros han creado el proyecto sigueeldinero, que busca en las licitaciones públicas de Contratacion del Estado para ver dónde acaba el dinero. Incluso uno de ellos usaría los datos de la policía para hacer un mapa de zonas inseguras y hasta "posibles personas sospechosas con descripción para poder estar informado", se lee en su presentación.
"El objetivo es demostrar la importancia de reutilizar los datos de las administraciones, unos datos que, aunque son generados con dinero público, sólo usan ellas", explica Aitor García, de la asociación Pro Bono Publico , convocante del Desafío Abre Datos 2010. Esta organización, que reúne a programadores, diseñadores web, emprendedores y activistas políticos, busca la promoción de estándares, datos y plataformas tecnológicas abiertas en las administraciones.

Negocio y democracia juntos

"Si conseguimos liberar la información que ya tenemos, la innovación será brutal", opina García. Tras el movimiento Open Data (Datos Abiertos, en inglés) hay razones tanto políticas como económicas.
Con el libre acceso, recuerda García, se incentiva la transparencia de las administraciones y el control de los ciudadanos sobre ellas. "De hecho, la cerrazón a liberar los datos viene del miedo de los políticos a ser controlados", comenta García. El equipo con el que él participa en el concurso tiene el objetivo de diseñar una página desde la que se pueda ver, en el sentido de visualizar, todos los presupuestos de los municipios de España. Otro interés claro es el negocio. "De la misma forma que, en el siglo XX, el petróleo fue la fuente de riqueza, la información será la de este siglo. ¿La vamos a dejar en el cajón de algún ministerio?", se pregunta García.
En el País Vasco sí han decido airear sus datos. Durante la pasada feria Tecnimap, el Gobierno vasco presentó su portal de datos públicos abiertos . "Tenemos unos 2.000 conjuntos de datos", calcula el director de Atención Ciudadana del Gobierno vasco, Alberto Ortiz de Zárate. Cuando se le pide que explique qué es la reutilización de los datos públicos, Ortiz de Zárate pone el ejemplo de la página elpreciodelagasolina.
"La página la creó Jaime Gómez, de Cantabria, con información que ya tenía el Ministerio; eran unos datos a los que la Administración no supo sacarles jugo. Pero tampoco tenemos que ser expertos en esto", explica. Los que sí tienen que sacarle ese jugo a esos datos son los emprendedores, empresas o programadores. "Consultamos a los interesados, y lo que nos dijeron es que debíamos sacar muchos datos y muy rápido", comenta.
La liberación de los datos implica su libertad de uso. "Esa es una de las claves", dice Ortiz de Zárate. De la misma forma que la empresa de navegadores Tom Tom o Google con su Google Maps ganan dinero usando datos geográficos liberados por el Gobierno de EEUU hace 10 años, "muchas empresas podrían hacerlo con nuestros datos", explica.
Hace ya 12 años que la Comisión Europea publicó su Libro Verde sobre la Información del Sector Público en la Sociedad de la Información, que apuntaba a la liberación de los datos públicos. "Eso fue en 1998, en el siglo pasado", explica Ortiz de Zárate. "Después vino la directiva en 2003 que España, la penúltima en transponerla, convirtió en la ley sobre reutilización de información del sector público en 2007", añade. Sin embargo, la norma española es muy tibia. Ni obliga a las administraciones a liberar su información, ni impone que sea en formato electrónico.

El proyecto Aporta

La digitalización, en especial en avanzados formatos de web semántica, permitiría a las máquinas rastrear los datos y establecer relaciones entre ellos. "Pero nos decían que para qué, si ya está todo en los boletines oficiales", se lamenta Martín Álvarez, de la Fundación CTIC , que, desde Asturias, impulsa la apertura de datos públicos. En Tecnimap, además de la iniciativa vasca, pudo verse el portal que están creando para el Principado. También las experiencias del Ayuntamiento de Zaragoz a, la Generalitat catalana o el Gobierno de Andalucía.
¿Y el Gobierno español? "Echamos en falta un datos.es", lamenta Álvarez. En realidad, esta Administración fue pionera poniendo en marcha el proyecto Aporta  hace ya dos años. Pero "apenas tiene tecnología, es sólo una guía de uso", añade. Aunque en marzo pasado lanzó en versión de pruebas su catálogo de datos, a día de hoy sólo es una lista de enlaces a webs del Estado.
Fuera de España van más rápido. La primera iniciativa de liberación fue en el distrito de Columbia (EEUU). "En 2009, gana las elecciones un tal Obama y se lleva con él al responsable del plan del ayuntamiento de Washington", recuerda Ortiz de Zárate. Poco después lanzarían su portal data.gov. A los dos meses Reino Unido, con Tim Berners-Lee al frente, lanzó el suyo y el Open Data se puso de moda.

La información personal y sobre seguridad, excluidas

Ley 37/2007
La legislación española sobre reutilización de datos públicos se apoya en esta ley. La norma da libertad a las distintas administraciones para liberar sus datos.
El tiempo y el tráfico
Dos de las informaciones que más frutos están dando son la meteorológica y la del tráfico. Páginas como quetiempo.es recogen estos datos y los colocan sobre los mapas de Google.
Materia reservada
Entre los datos que la ley impide liberar están los que afecten a intereses públicos, como la defensa nacional o la seguridad del Estado. Otro gran grupo excluido son todos los archivos que contienen datos personales. Pero existe la opción de anonimizarlos.
Licencias de uso
Aunque los miembros del Open Data piden una reutilización libre sin condiciones, las administraciones están liberando sus datos bajo diferentes licencias. Con carácter general está prohibida la cesión exclusiva y debe ser gratuita.

2010/04/08

El Gobierno vasco estrena su portal de datos públicos abiertos

Fuente: El Pais.

El Gobierno vasco estrena hoy un portal en Internet (http://opendata.euskadi.net) que permitirá el acceso a los datos públicos de la Administración autonómica que no estén no sujetos a restricciones de privacidad, seguridad o propiedad. De esta forma, el Ejecutivo autónomo se convierte en la primera Administración española que ofrece ese tipo de datos a través de un portal específico en la Red, según ha destacado el Departamento de Justicia y Administración Pública.
El servicio ya puesto en marcha ha sido presentado en las undécimas Jornadas sobre Tecnologías de la Información para la Modernización de las Administraciones Públicas (Tecnimap), que se están celebrando en Zaragoza.
El catálogo de datos publicados en la web se ha estructurado en siete categorías: estadísticos, geográficos, meteorológicos, turísticos, ayudas y subvenciones, contrataciones administrativas y otros procedimientos de la Administración. Por el momento, incluye contenidos tan diversos como fotos de la comunidad autónoma, información recogida en las estaciones meteorológicas, datos del valor añadido industrial o listados de bodegas y locales hosteleros de Euskadi.

2010/03/05

AbreDatos 2010, un concurso para hacer más fácil el acceso a los datos públicos

Fuente: 20minutos.

Con mucha frecuencia los ciudadanos encuentran grandes dificultades para acceder a datos que son públicos pero cuya obtención resulta muy complicada. Con objetivo de promover entre las instituciones públicas estándares, datos y sistemas abiertos, siguiendo los pasos de data.gov en EE UU y data.gov.uk en UK, la plataforma Pro Bono Publico ha puesto en marcha el concurso AbreDatos 2010.

El Desafío AbreDatos, que se celebrará el fin de semana del 17 y 18 de abril, Consiste en "el desarrollo exprés en 48 horas de servicios tecnológicos al ciudadano basados en el uso de datos públicos".

Se exige que los proyectos sean desarrollados desde cero por equipos de un máximo de cuatro personas.

Esta iniciativa busca concienciar a la sociedad y a la Administración de la importancia de la liberación de datos públicos, de que los organismos públicos proporcionen sus datos (contratación pública, geografica, presupuestaria, etc.) de forma accesible para permitir su uso y reutilización por parte de los ciudadanos.

En España, el Gobierno Vasco ha lanzado recientemente la iniciativa Irekia para fomentar el gobierno abierto.

2009/12/14

Las pérdidas de datos más increíbles del año

Fuente: Silicon News.

La especialista en recuperación de datos Kroll Ontrack ha presentado los casos más increíbles e impactantes a los que ha tenido que hacer frente durante el año saliente.

Gracias a una encuesta efectuada en el conjunto de sus laboratorios implantados en todo el mundo, esta lista de accidentes representa los casos más curiosos a los que ha tenido que enfrentarse en recuperación de datos y dan un pulso de los casos más sorprendentes a los que se enfrentan las compañías o las fuerzas del orden en pérdida de información.

En primera posición se encuentra el caso de un registro en un apartamento. El sospechoso había lanzado desde un 12º piso su portátil, que contenía las pruebas de su culpabilidad. No muy divertido. Tras recuperar las piezas para rehacer el PC, las fuerzas del orden contaron con el disco duro de nuevo.

Cuando no es las altas esferas, es en la profundidad del mar donde acaban los discos duros. La situación más impactante es, sin duda, un ordenador portátil que cayó en alta mar desde un barco y fue recuperado seis meses más tarde, tras estar a 60 metros bajo el agua. "El 99% de los datos fueron recuperados".

La lista también incluye discusiones entre colegas en la sala informática, con uno de los protagonistas dañando (¿accidentalmente?) el servidor. Otro caso: el de un fotógrafo profesional que, al pasar por un badén, deja caer la tarjeta de memoria de su cámara en un charco.

La situación más divertida, sin embargo, es la protagonizada por un hombre de negocios que, buscando las llaves de su coche, dejó su portátil en el capó. Una vez las llaves recuperadas, se fue dejando, como era de esperar, su ordenador donde lo había dejado. El equipo puso fin a su vida empotrándose contra un muro después de planear un rato.

El caso más enternecedor es el de un gato que tomó por objetivo el cable de conexión de un disco duro externo. A fuerza de jugar con él, consiguió que el disco se cayese perdiendo los datos grabados. El gato se salvó, por cierto, del impacto de la caída.

Para evitar estas perdidas el consejo es claro: evitar la moto, los gatos, el contacto con el agua y el planear. Y, claro está, un back up regular.

El ser humano absorbe tres veces más datos que hace 30 años

Fuente: La Nacion.

El estadounidense promedio consume alrededor de 34 gigabytes de datos e información a diario. Esta cifra representa un aumento de alrededor del 350 por ciento en casi tres décadas, según un informe publicado el miércoles por investigadores de la Universidad de California, en San Diego .

De acuerdo a los cálculos presentados en el informe , esta dieta diaria de información incluye alrededor de 100.000 palabras, tanto las que se leen en forma impresa y en Internet, así como las que se escuchan en la televisión y en la radio. A modo de comparación, La Guerra y la paz, la novela de Tolstoi, contiene aproximadamente 460.000 palabras.

Los investigadores, quienes construyeron su trabajo basándose en estudios anteriores sobre consumo de información, descubrieron que los estadounidenses obtienen estos 34 GB de datos por diversos canales: la televisión, la radio, la Web, los mensajes de texto y los videojuegos. Dentro de esta clasificación, la mayor parte de este tiempo se pasa frente a una pantalla viendo contenido relacionado con la televisión, con un promedio de casi cinco horas de consumo diario.

En segundo lugar se encuentra la radio, que el estadounidense promedio escucha durante alrededor de 2,2 horas al día. La computadora ocupa el tercer lugar, con poco menos de dos horas al día. Los videojuegos ocupan alrededor de una hora y la lectura, 36 minutos.

La mayoría de estas experiencias tienen lugar simultáneamente, como por ejemplo el hecho de hablar por teléfono mientras se revisa el correo electrónico o el uso de la mensajería instantánea mientras se mira televisión.

En general, el consumo de información está aumentando aproximadamente un 6 por ciento al año, estima el informe.

"Los juegos tuvieron el mayor salto en la cantidad de bytes que consumimos", la cual representa alrededor del 55 por ciento del total, dijo Roger Bohn, profesor de gestión de tecnología y co-autor del estudio, que es el primero en considerar a los video juegos como parte del total de los datos de consumo.

El consumo de medios impresos ha disminuido de modo consistente, dijo el profesor Bohn. "Pero si se suma la cantidad de tiempo que las personas navegan en la Web, en realidad están leyendo más que nunca", añadió. En conjunto, los hogares estadounidenses consumieron 3,6 zettabytes de información de todo tipo en 2008, estimaron los investigadores.

Un zettabyte equivale a mil trillones de bytes: un 1 con 21 ceros al final. Un solo zettabyte es equivalente a 100 mil millones de copias de todos los libros de la biblioteca del Congreso estadounidense o, como dice el informe, siete capas de libros de texto que cubren el territorio continental de Estados Unidos y de Alaska.

La financiación para el proyecto de investigación fue proporcionada por AT&T, Cisco Systems, IBM, Intel, LSI, Oracle y Seagate Technology, con el apoyo inicial de la Fundación Alfred P. Sloan.

2009/11/09

Cómo se recopilan datos personales a través de Internet

Fuente: La Nacion.

La comercialización de bases de datos es una rama del marketing que se enfoca en el trabajo con información de clientes potenciales o actuales. Con el desarrollo de las nuevas tecnologías y en especial Internet, se ha facilitado el acceso y la utilización de la información personal en forma masiva.

En la actualidad, cualquier usuario tiene la posibilidad de adquirir alguna aplicación que permita copiar automáticamente las direcciones de mail que figuran en las páginas web a medida que se navega, y esta facilidad ha permitido el crecimiento de un "mercado negro" de bases de datos.

Daniel Blasón, presidente del capítulo Database de AMDIA (Asociación de Marketing Directo e Interactivo de Argentina) explica a lanacion.com el fenómeno: "A eso le llamamos mercado informal de base de datos . Una simple cadena de mails es una recopilación y validación de direcciones de correo electrónico. Si reenviás una cadena de mails a tus amigos, estás validando tu mail y contribuyendo a una base de datos".

Una fuente de información importante con la que cuentan las empresas para la recolección de datos personales a través de Internet son los registros de compras. Las páginas web de compra y venta tienen abundante información, que luego se utiliza con fines estadísticos o para acciones de marketing. Las redes sociales, en especial las más populares, como Facebook , constituyen otra fuente a tener en cuenta, debido a que allí los usuarios dejan abundantes indicios acerca de sus intereses y hábitos, a medida que crean y participan de grupos temáticos y páginas de fans.

Al respecto, Blasón comenta: "Una empresa puede construir una base de datos a través de sus clientes, o se puede generar en forma espontánea, alrededor de cualquier eje temático de una red social, como el fanatismo por determinada banda de música, determinado lugar o determinada marca. Se genera un grupo, que luego es aprovechado por alguien: por un líder de grupo, una empresa o alguien que quiere comunicar algo".

La mirada de un experto en seguridad informática

La forma en que son administradas estas bases de datos y su seguridad cobran especial importancia si se toman en cuenta casos como el robo de identidad digital , los derechos de propiedad de la información personal o el robo de contraseñas por parte de piratas informáticos. César Cerrudo es investigador y experto en seguridad de aplicaciones y ha descubierto fallas en los principales programas de bases de datos, como así también en sistemas operativos.

Al ser consultado por lanacion.com , Cerrudo no duda en afirmar que las bases de datos que generan las empresas puertas adentro, no son seguras: "Todas las aplicaciones poseen fallas de seguridad. Además, muchas veces el software de base de datos no está bien configurado. No se monitorea el acceso a la información ni tampoco se generan registros de su uso: no se sabe quién accede, a qué accede, cómo, cuándo, ni de dónde accede. Esto permite que los atacantes tengan terreno libre para hacer lo que se les plazca sin apuro y sin ser detectados. Las organizaciones deben definir políticas sobre qué está permitido y qué no respecto con el manejo de la información, y cómo se debe proteger. Debido a esto por lo general es muy sencillo el robo de datos, ya sea por atacantes externos o por los mismos empleados".

Pero muchas veces el problema se inicia en el uso hogareño. Con respecto a qué recomendaciones daría con el manejo de la información personal en Internet, Cerrudo responde: "Mi principal recomendación es no poner los datos personales en Internet salvo que sea absolutamente necesario. Hay quien confía demasiado y no duda en compartir su información, fotos, documentos y demás con todo el mundo, pero si algún desconocido va a la casa de cualquiera de estas personas, toca el timbre y le pide su información personal y sus fotos, la persona va a desconfiar y probablemente no le dará nada. Hay que actuar de la misma manera con respecto a Internet, es necesario educarse en su uso para evitar el robo de datos y fraudes. No importa que tengamos antivirus, firewalls y otras protecciones, ya que a veces es tan simple como hacer click en un sitio equivocado para recibir algún ataque del cual es difícil protegerse".

Uno de los métodos de ataque más peligrosos de los piratas informáticos es el envío masivo de correos electrónicos que simulan ser enviados por una entidad bancaria o sistema de pagos electrónico y solicitan información como contraseñas, números de tarjeta de crédito o de cuentas bancarias. Con la existencia de una cantidad cada vez mayor de usuarios de Internet, y una relación más familiar con las nuevas tecnologías, caer en una de esas trampas puede ser fácil. Un uso atento y responsable parece ser la actitud más indicada, de hecho los bancos no piden un cambio de contraseña por mail ni nada que se le parezca.

2009/10/30

Las empresas admiten el poco uso de tecnologías para la gestión de datos

Fuente: Cinco Dias.

Las empresas reconocen que no aprovechan adecuadamente la información de la que disponen, según el Informe Global sobre Directores de Tecnología 2009 de IBM. El estudio, basado en una encuesta realizada a 2.500 directores de tecnologías de la información (CIO), entre ellos 97 españoles, señala que el empleo de herramientas para la gestión de los datos "no está todavía generalizado".

Jaime Arrazola, director de Servicios de Tecnología de IBM España, Portugal, Grecia e Israel, señala que el 83% de los encuestados sitúa la implantación de aplicaciones de business intelligence como una de las prioridades para elevar la competitividad. "Al preguntar a los CIO sobre esta cuestión te dicen que gastan la mayor parte del tiempo en el manejo de información", dice el directivo, y añade que ocho de cada diez directivos toma decisiones a partir de información incompleta, y uno de cada dos ejecutivos no tiene acceso a los datos que necesita para trabajar.

Arrazola señala que una de las preocupaciones de los CIO reflejadas en el informe es el cambio en los modelos de negocio, más en un momento de crisis como el actual. Este escenario ha hecho, según IBM, que estos directivos hayan cambiado sus agendas de trabajo para dedicar el 40% de su tiempo a actividades relacionadas con la innovación y crecimiento del propio negocio. De hecho, el 54% de estos profesionales en España cita al cambio de modelo de negocio como el primer factor externo que tendrá un impacto en sus respectivas organizaciones en los próximos tres años.

Ante las cuestiones sobre los próximos desafíos, el 90% de los CIO prevé "cambios sustanciales" en el área de tecnologías de la información de sus empresas. En esta línea, el informe indica que el 71% de los encuestados tiene previsto realizar inversiones adicionales "en gestión del riesgo y cumplimiento de normativas". Dentro de estos movimientos, las cuestiones relacionadas con la eficiencia energética forman parte del conjunto de prioridades. Así, el 76% de los CIO prevé poner en marcha proyectos de "virtualización con este proyecto".

La centralización de infraestructuras, clave

La centralización de infraestructuras es otra de las prioridades de los responsables tecnológicos. El informe de IBM señala que el 76% de los encuestados está planeando desarrollar proyectos en esta dirección durante los próximos cinco años. Un porcentaje que en el caso de España sube hasta el 88%. Jaime Arrazola, de IBM, comenta que la mitad de los directivos cuestionados sobre esta materia va más lejos al asegurar que pretende extender esta estandarización a los procesos de negocio.

El estudio señala que el 83% de los CIO encuestados señala que las tecnologías están integradas "siempre o en ocasiones" en el negocio, porcentaje que en España baja al 70%. Arrazola cree que es necesario que los directores de tecnología españoles avancen en ese camino.

2009/10/21

Emplean cristales para almacenar datos

Fuente: Libertad Digital.

Los cristales podrían ser usados como dispositivos de almacenamiento, con una capacidad unas 100 veces superior que los actuales sistemas y en el mismo tamaño. Científicos de la Universidad de Edimburgo han usado lásers de baja energía para crear pequeños cristales dentro de un gel.

Se trata de un complejo proceso mediante el cual los científicos logran crear microcristales desde un medio líquido, lo cual requiere reunir de una vez masa crítica de moléculas "difíciles de manipular y regular", según una información de la BBC.

Gracias a esta investigación, los científicos podrían crear cubos similares a un terrón de azúcar en los que guardar un terabyte. Además, esta tecnología aplicada a formatos de almacenamiento ya existentes como discos ópticos podría multiplicar su capacidad exponencialmente.

Los discos ópticos tridimensionales, que usan más capas que los CDs convencionales, podrían albergar en su interior microcristales que actuarían como unidades de almacenamiento.

"Aún queda mucho trabajo por hacer antes de que estos cristales puedan ser usados en aplicaciones prácticas como almacenamiento óptico pero creemos que hay un potencial enorme", consideró el doctor Andy Alexander, del departamento de química de la universidad de Edimburgo.