Buscar

2007/09/08

Los contenidos, la estrella de la Red

Fuente: Catalejo.

'The Internet is for Porn'... pero cada vez menos. Como gran medio de comunicación que es, cada vez son más importantes los contenidos. Y esto incluye tanto generarlos como consumirlos. De hecho, según datos de la 'Online Publishers Association', ya es la actividad a la que dedicamos más tiempo en la Red. Superior al que utilizamos para comunicarnos, hacer búsquedas o para el comercio electrónico.

Para entendernos: pasamos más tiempo leyendo noticias, blogs, viendo vídeos o escuchando música que conectados al 'messenger' o al correo electrónico. Según este estudio, que ofrece un análisis de los últimos cuatro años, el tiempo dedicado a la primera actividad ha crecido un 37%, hasta ocupar un 47% del total. Por detrás, las comunicaciones has descendido un 28%, hasta el 33% del tiempo.

Hace cuatro años, era al contrario. En 2003 utilizábamos mucho más la Red para enviarnos mensajes o charlar (un 46% del tiempo) que para crear o consumir contenidos (un 34%). Son las dos actividades principales. Por detrás quedan el comercio electrónico y las búsquedas -actividad clave que sólo ocupa un 5% del tiempo-.

Los propios responsables del estudio ofrecen algunas de las claves de este cambio: el traslado a Internet de actividades que antes sólo se hacían fuera, como buscar noticias, entretenimiento o, simplemente, mirar la información del tiempo; la posibilidad de obtener información intensiva en tiempo real; la creación de comunidades y plataformas fáciles para 'colgar' contenidos propios; el incremento de la banda ancha; la popularización del vídeo en la Red...

Se podrían dar muchos más motivos para una tendencia que no hace sino crecer día a día. Y que tiene sus peligros. Por ejemplo, los contenidos repetidos. Los blogs son un gran avance para la Red como medio de comunicación... pero muchos no hacen otra cosa que copiarse o copiar a los medios. Otro es que se produzca una sobredosis de información. O que la 'basura' inunde la Red.

Lo que deja claro este estudio es que, quien quiera destacar en la Red, lo primero que tiene que cuidar son sus contenidos. Que lo que cuente interese a su público, que lo presente de forma atractiva, que sea original y no una copia, que enganche a los buscadores... es decir, que tenga la calidad suficiente para atraer todas las miradas.

Algo que nunca ha sido fácil, pero es lo que siempre ha hecho falta para 'vender' contenidos. El gran cambio es que ahora no sólo pueden hacerlo unos pocos privilegiados, sino casi cualquiera. Es difícil, pero, créanme, merece la pena intentarlo.

¿Cómo diseñarías una comunidad 'on line'?

Fuente: Catalejo.

MySpace, Bebo, Facebook, Orkut... la Red está llena de comunidades virtuales. Incluso servicios como Twitter, YouTube o Flickr son, en una parte fundamental, una comunidad para que se relacionen sus usuarios. ¿Cuáles son los ingredientes de estos sitios web? Cada uno tiene los suyos, aunque en todos hay interactividad, comentarios, la posibilidad de establecer contactos...

Son algunas fórmulas habituales para páginas en las que se encuentra gente con un interés común. Aparte de estas pocas reglas generales, cada sitio tiene sus particularidades, sus propias características. No hay una receta ideal para elaborar una comunidad 'on line'. Aunque podemos intentar establecer una aproximada: ¿qué crees que sería necesario? ¿Cómo diseñarías una comunidad 'on line'?

Por ejemplo, ¿debe tener vídeo, audio o fotos? ¿Usar herramientas propias o admitir externas? ¿Con una página de inicio que muestre las últimas actualizaciones o que no lo haga? ¿Abierta a cualquiera o sólo para registrados? ¿Con herramientas para actualizar desde diferentes lugares o sólo desde la página de la comunidad?

Hay cientos de posibilidades. También, para mi gusto, algunas claves:

  • Que esté centrada en un objeto social definido (vídeo, audio, relaciones profesionales, libros, música, cine...).
  • Que sea gratuita y sin publicidad intrusiva.
  • Que las direcciones URL de los 'objetos' sean sencillas, cortas y fijas para que se puedan compartir.

  • Que sea fácil 'etiquetar' los contenidos para tenerlos localizados y organizados.
  • Premiar a los usuarios más participativos destacando su aportación.
  • Facilitar que los propios usuarios contribuyan al desarrollo técnico de la comunidad.

Ni siquiera estas premisas son normas fijas. Pero parecen un buen punto de partida para elaborar, entre todos, una receta clara sobre cómo debería ser y qué debería tener una comunidad 'on line' ideal. Espero vuestras aportaciones. Esta misma semana haré un resumen con todas ellas, seguro que resulta interesante.

“Barcelona será el procesador x86 más sofisticado del mercado”

Fuente: siliconnews.es.

Por Raúl Puerta

Entrevista a Alejandro Ruiz Bueno, director de Desarrollo de Negocio de AMD para Administración Pública y Grandes Cuentas en España y Portugal.

Después de muchas especulaciones sobre un posible retraso en la llegada de los primeros chips ‘quad-core’ de AMD, parece que se presentarán en un par de semanas. Alejandro Ruiz Bueno, responsable de AMD en España, adelanta a Silicon News algunas de las novedades de la plataforma conocida como Barcelona, el último envite frente a Intel.

¿Podría dar algunos detalles sobre la velocidad y rendimiento de los primeros modelos de Barcelona que estarán disponibles?

La plataforma Barcelona o nuestro diseño de cuatro núcleos de chip Opteron para servidores llegará tanto en versiones estándar como de bajo consumo. Los primeros modelos correrán como tope en la franja de los 2 GHz.

No obstante, los actuales procesadores Opteron de núcleo dual alcanzan ya los 2,8 GHz. ¿No llegarán a este tope los ‘quad-core’?

Sí, posteriormente. AMD espera que los chips nativos ‘quad-core’ superen esos 2 GHz con distintas frecuencias de reloj en el último trimestre del año, afectando tanto a las versiones estándares como a la Special Edition. Quizá lo más relevante es destacar que los nuevos modelos están diseñados para operar con el mismo consumo de vatios que la actual generación de Opteron.

Además de un mejor rendimiento por vatio y eficiencia energética, ¿qué otras bondades destacaría de la nueva plataforma?

Los grandes ahorros en consumo energético representan sin duda una de las claves principales, gracias a una frecuencia por núcleo independiente, a la tecnología CoolCore de AMD o a la gestión de energía dinámica dual (Dual Dynamic Power Management).

Por su parte, el acelerador de operaciones de coma flotante o la tecnología de optimización de memoria contribuyen a incrementar el rendimiento, junto a mejoras en los procesos de virtualización y la memoria caché balanceada.

¿Cuál será el rendimiento de Barcelona frente a los actuales Opteron de núcleo dual en aplicaciones como bases de datos u operaciones de coma flotante?

Estimamos que los nuevos procesadores aportarán un rendimiento un 70 por ciento superior a los Opteron duales en ciertas aplicaciones de bases de datos y hasta del 40 por ciento en las operaciones de coma flotante; y cuando aumenten su frecuencia de reloj, estas estimaciones también se verán incrementadas.

La principal diferencia frente a los Xeon ‘quad-core’ de Intel es que Barcelona incluirá cuatro chips en la misma pieza de silicio. ¿Cuál será la ventaja de rendimiento frente a estos Xeon?

Barcelona será el procesador x86 más sofisticado del mercado. A diferencia de Intel, nuestro diseño incluye las innovaciones más demandadas por los modernos CPDs. Debido precisamente al diseño puro o nativo (cuatro CPUs en el mismo silicio y no la suma de dos y dos chips) Barcelona mantendrá el liderazgo de AMD en cuanto a rendimiento por vatio en el segmento x86, además de proteger la inversión de los clientes y potenciar las posibilidades asociadas a la virtualización.

¿Cuándo cree que estarán disponibles los primeros servidores comerciales equipados con Barcelona?

Los primeros servidores comerciales estarán probablemente disponibles este mes de septiembre, justo después del lanzamiento de la plataforma.

¿Y qué esperan en términos de migraciones desde la anterior plataforma Opteron de núcleo dual?

Algo importante a destacar es que los fabricantes de servidores simplemente deberán actualizar la BIOs de la máquina equipada con los últimos Opteron duales, los Rev F, en caso de que quieran pasar de la plataforma dual a los ‘quad-core’. No obstante, la política de migraciones deberá definirse entre los OEMs y los clientes finales.

AMD ya ha migrado al proceso de fabricación de 65 nanómetros. ¿Para cuándo se dará el salto a los 45 nanómetros? Intel ya ha adoptado este proceso y lo incluirá próximamente en sus Harpertown o Xeon ‘quad-core’ de nueva generación...

Estamos en el camino para ello. La fábrica de Dresden en Alemania ya trabaja con los primeros prototipos, y el salto a los 45 nanómetros lo daremos a mediados de 2008. Y a diferencia de Intel, AMD e IBM trabajan con tecnologías de inmersión litográfica y obleas SOI (Silicon-On-Insulator).

Mercury Research estima que Intel cuenta con el 80,5 por ciento del mercado global de chips x86, mientras AMD ostenta el 18,7 por ciento. ¿Es correcto?

No exactamente. Según los números que maneja la misma consultora, en el segundo trimestre de este año AMD ostentaba el 22,9 por ciento de cuota global medida en término de unidades.

Ahora que Dell ha decidido finalmente incluir la tecnología AMD en su gama de servidores, en qué medida cree que aumentará su cuota frente a Intel?

No podemos comentar proyecciones o estimaciones futuras sobre la cuota de mercado, pero el pasado trimestre crecimos en porcentaje de unidades vendidas. A medida que avanzamos hacia el primer procesador ‘quad-core’ del mercado x86 -Barcelona- seguiremos aumentando nuestra presencia en el mercado.

¿Qué nos puede contar de Sandtiger, el futuro diseño de Opteron compuesto por ocho núcleos de proceso?

La familia Sandtiger está pensada para optimizar los servidores y usuarios de gama alta. Aumentará el listón del rendimiento por vatio hasta nuevos niveles, tanto para aplicaciones que requieran una sola tarea como las que demandan la ejecución de múltiples tareas. Se trata de una infraestructura que garantiza la continuidad y la adopción transparente para el usuario, e irá provista de entre 8 y 16 núcleos, en una única pieza de silicio construida ya sobre los 45 nanómetros y con un controlador de memoria DDR3.

Nueva plataforma basada en el procesador Intel Xeon Serie 7300

Fuente: RPP.

“Caneland” fue el nombre en código que se dio a la nueva plataforma de servidor Intel Xeon MP 7300 (multiprocesador o cuatro zócalos). La plataforma se compone de “Tigerton”, nombre en código que se ha dado al nuevo procesador Quad-Core Intel Xeon serie 7300 y “Clarksboro”, nombre en código del chipset Intel® 7300 con Data Traffic Optimizations.

·Caneland completa el portafolio de la microarquitectura Intel® Core™ en toda la familia de procesadores Intel® Xeon®, ya disponibles en servidores UP (Uni Procesador) y DP (Doble Procesador) desde el 2006, y ahora disponibles en servidores MP (Multi Procesador). La plataforma anterior con en el procesador Intel Xeon MP estaba basada en el procesador Intel® Xeon® 7100, conocida originalmente con el nombre en código Tulsa.

·La microarquitectura Intel Core que se presentó hace un año demuestra el liderazgo de Intel el liderazgo en desempeño, además del uso eficiente de la energía en servidores de producción en volumen (motherboards para servidores UP y DP). Intel reafirma ese liderazgo introduciendo la tecnología Quad-Core a la línea de producción en volumen en noviembre del 2006, logrando que la compañía obtuviera una enorme ventaja en una serie de pruebas de referencia para servidores.

·Intel fue el primero en llevar al mercado una plataforma Quad-Core MP en octubre del 2006, ejecutando dos aplicaciones reales a 2.66 GHz.

·Intel fue el primero en llevar al mercado plataformas Quad-Core MP reales para OEMs, primero con Sun Microsystems* en el IDF Beijing en marzo de este año y luego con SuperMicro en Computex y HP en su TechForum en junio de este año.

·Intel fue el primero en vender volúmenes de producción de plataformas Quad-Core MP con el procesador Intel Xeon serie 7300 y el chipset Intel 7300 a clientes OEMs en junio de este año. Al mismo tiempo, Intel inició también la venta de sistemas seminales a usuarios finales para iniciar sus precalificaciones.

·Caneland pasó del diseño a la producción en un tiempo récord, convirtiéndolo en el programa de producción de procesadores MP más veloz en la historia de Intel.

·Las plataformas basadas en Caneland serán compatibles con procesadores basados en Intel Core de 45 nm de siguiente generación en el 2008.

·El procesador Intel Xeon 7300 (Tigerton) presentado hoy es el procesador de 65 nm de Intel para servidores MP basados en Intel Xeon que se utilizarán con la nueva plataforma Caneland. El procesador Xeon 7300 es un procesador quad-core basado en la microarquitectura Intel® Core™.

20 años de telefonía móvil global

Fuente: Canal PDA.

La primera llamada desde un teléfono portátil se efectuó en 1973, hace 34 años, pero el despegue de la telefonía móvil no se inició hasta que fue posible llamar a números de otras compañías y de otros países. El embrión de esa posibilidad fue el GSM (Global System for Mobile Communication), cuyo documento fundacional fue suscrito por doce estados europeos en Copenhague el 7 de septiembre de 1987, hoy hace exactamente 20 años. Un decimotercer estado (adivinen cuál) se sumó al acuerdo tres días después. Actualmente hay en el mundo más de 2.500 millones de líneas móviles GSM, y cada día se añaden 1,2 millones más.

Hoy nos parece de lo más normal poder elegir entre varias compañías de telefonía móvil, cambiarnos de una a otra y llamar a teléfonos móviles ubicados en otros países, pero hace 20 años el panorama era muy distinto. La telefonía móvil era una tecnología incipiente y ofrecía posibilidades limitadas en cuanto a funcionalidad y cobertura.

Ya en 1982, la Conferencia Europea de Administraciones de Correos y Telecomunicaciones (CEPT, siglas de su nombre en francés), que agrupa a los organismos estatales europeos competentes en telecomunicaciones, había creado un grupo encargado de desarrollar un sistema común de telecomunicaciones móviles que permitiera la itinerancia. En 1985, Francia, Alemania e Italia se propusieron formalmente que dicho sistema estuviera operativo en 1991, y al cabo de un año se les unió el Reino Unido. La cumbre de jefes de estado y gobierno de la Comunidad Europea de diciembre de 1986 manifestó también su interés en dicho sistema común, que consideraban beneficioso para la cohesión del continente y su competitividad en el campo tecnológico internacional.

Todo ello desembocó en una reunión celebrada en Copenhague el 7 de septiembre de 1987. En el curso de la misma, representantes de 13 países europeos (Alemania, Bélgica, Dinamarca, España, Finlandia, Francia, Irlanda, Italia, Noruega, Holanda, Portugal, el Reino Unido y Suecia) se comprometían a establecer redes celulares de comunicaciones móviles de 900 MHz en cada uno de los países y a abrir un servicio público paneuropeo basado en las mismas.

El documento en cuestión, al que ha tenido acceso CanalPDA, se titula Memorandum of Understanding on the Implementation of a Pan European 900 MHz Digital Cellular Mobile Communications Service by 1991. A lo largo de 14 páginas mecanografiadas se detallan los antecedentes, las funcionalidades y los objetivos del sistema que actualmente conocemos como GSM y que ha superado su ámbito europeo original, cubriendo más del 80% de la población mundial en 218 estados, con 2.500 millones de líneas móviles.

La difusión de la telefonía móvil se ha acelerado: se tardaron 12 años en alcanzar los primeros 1.000 millones de líneas GSM, pero sólo 30 meses en duplicar esa cifra.

Objetivos modestos

Entre las estipulaciones del acuerdo llama la atención el artículo 10, que establece que para el año 1993 el sistema propuesto debía cubrir las capitales de todos los estados miembros de la CEPT, 'incluyendo sus aeropuertos respectivos', y para el año 1995, las rutas de transporte principales entre dichas capitales. El artículo 18 indica que los firmantes podían retirarse del acuerdo antes del 31 de diciembre de 1991, notificándolo por escrito a los otros.

Por cada uno de los estados citados, suscribieron el acuerdo representantes de los ministerios competentes en materia de telecomunicaciones. No obstante, en tres de los casos, también lo hicieron representantes de las compañías de telefonía: España (Telefónica), Italia (SIET) y el Reino Unido (Telecom Securicor y Racel Vodafone). Se da la circunstancia de que la adhesión de Telefónica al acuerdo, suscrita por Antonio Hernández, subdirector del departamento de operaciones de red, se agregó el 10 de septiembre, tres días después que el resto.

La GSM Association (GSMA), que agrupa a las más de 700 operadoras móviles GSM del mundo, conmemora el vigésimo aniversario de su nacimiento con unas cifras apabullantes. Según la GSMA, el mercado de los servicios móviles supone hoy un 1,6% del PIB mundial. Cada año se venden más de 1.000 millones de terminales móviles, cuyos usuarios consumen más de 7 billones de minutos de voz y mandan unos 2,5 billones de mensajes de texto. China Mobile, el mayor operador móvil del mundo, cuenta con 332 millones de usuarios, lo cual da una idea del alcance de estas empresas en la sociedad.

La GSM Association, con el patrocinio de Ericsson, ha encargado el rodaje de un largometraje documental titulado The Mobile World que recogerá la diversidad de usos de la telefonía móvil en el mundo. El film se estrenará en febrero de 2008, durante el 3GSM World Congress de Barcelona, pero en la web conmemorativa www.gsmtwenty.com ya se puede ver un tráiler.

Primeras impresiones de Opera 9.5 alpha

Fuente: HispaMp3.

La versión alpha de Opera 9.5 ya está disponible, y aun en esta etapa tan prematura de su disponibilidad, Opera demuestra ser un navegador que supera a Firefox e Internet Explorer 7 en velocidad de renderizado de páginas. Si ya era bueno, ahora lo es más. Las pruebas Javascript realizadas demuestran que al mostrar páginas Opera 9.5 mejoró sensiblemente frente a la versión 9.23 (281 ms frente a los 546 anteriores) pero en cualquier caso esos tiempos son increíbles si los comparamos con Firefox e Internet Explorer 7, que se mueven en rangos que van de los 900 a los 1500 milisegundos. Más información en español.

¿ Comprará finalmente Microsoft a Yahoo! ?

Fuente: HispaMp3.

Cada vez son más insistentes los rumores de compra de Yahoo! por parte de Microsoft.

Esta vez el rumor procede de Robert Peck, analista de la consultora Bear Stearns, que sostiene que Microsoft estaría planteándose la posibilidad de adquirir a la empresa rival a un precio de 40 dólares por acción, casi el doble de lo que cotiza ahora.

Una adquisición sin duda costosa, que podría rondar los 53.000 millones de dólares, pero que convertiría a Microsoft en un auténtico gigante, tanto de software como de servicios online y offline.

Un gigante quizás demasiado grande y lento para plantar cara al agil y versátil Google...

2007/09/07

Photoshop podrá usarse desde Internet

Fuente: Noticiasdot.

El popular programa de edición de fotografías Photoshop incorparará a su gama de productos una versión básica y más liviana que podrá usarse a través de internet.

Así lo dio a conocer John Loiacono, vice presidente de Adobe Systems, la empresa desarrolladora, que presentó el Photoshop Express en el marco de “Photoshop World”, un evento que se lleva a cabo actualmente en Las Vegas y en el cual se exhiben aplicaciones para esta famosa suite de diseño.

Según Loiacono, este versión apuntará a un público de consumidores antes que a un nicho especializado, ya que contará con herramientas básicas de edición, las cuales podrán complementarse con otras aplicaciones del último suite.

Loiacono mostró cómo es posible ajustar una imagen con tan solo darle vueltas a las diferentes versiones que se muestran en la parte superior de la pantalla, hacer una vista preliminar de los resultados y luego hacer click para seleccionar las modificaciones deseadas”, señaló John Nack de Adobe en el blog oficial de la empresa.

En una comunicado de prensa, Adobe señaló que el producto aún se encuentra en etapa de desarrollo, sin hacer referencia fechas estimadas de salida al mercado o de puesta on line, aunque se presume que pueda ser a través de terceros como los portales de fotografías compartidas por usuarios Photobucket o Flickr.

Warner Broos llevará Robotech al cine

Robotech será llevada al cine y como protagonista esta confirmado Tobey Maguire. La popular serie de animacion que en realidad es una mezcla de tres producciones japonesas en la actualidad cuenta con gran cantidad de fanaticos que ahora tienen la oportunidad de verla con actores reales.

La noticia original en Maguire, WB attack the big screen with 'Robotech'.

Andrzej Bartkowiak prepara una nueva película de 'Street Fighter'

Fuente: Vida Extra.

Probablemente el nombre no os suene de nada, pero si os digo que estamos hablando del director de películas como ‘Romeo debe morir’ o de la reciente entrega cinematográfica de ‘DooM’, probablemente empecéis a atar cabos.

Bartkowiak parece que le ha cogido el gustillo a lo de realizar películas basadas en videojuegos, tras la nefasta adaptación de ‘DooM’, película que, sin embargo, cuenta al menos con el mérito de ser fiel al videojuego original en una de sus secuencias: la que se desarrolla enteramente en primera persona, que es quizá la mejor escena de la película.

Pues bien, el director polaco quiere llevar de nuevo al cine el videojuego ‘Street Fighter’ en una nueva película de imagen real (parece que con la de Van Damme no era suficiente). Esta nueva entrega estaría centrada en el personaje de Chun Li, embarcada en un nuevo viaje “en busca de justicia”.

La primera entrega de ‘Street Fighter’, estrenada en 1994 recaudó, a pesar de todo, la friolera 33 millones de dólares. Por esta razón, Capcom ha decidido arriesgarse a repetir la jugada 13 años después. Eso sí, esta vez está casi descartada la presencia de la mayoría de los actores de la cinta original. Raul Julia, que interpretaba a Bison, murió poco después del estreno, y el bueno de Van Damme tiene ya 48 años, aunque cosas peores se han visto (Rocky VI, Indiana Jones IV…)

La producción de la cinta comenzará a principios del año que viene, y Fox ya ha expresado su interés en distribuirla. A los fans del videojuego original sólo nos queda el consuelo de que, por lo menos, peor que la primera no puede ser ¿o sí?

Efectos de texto con Photoshop CS

Buscando por internet algún tutorial donde explicasen cómo hacer un rótulo para el logotipo de una empresa que quedara bastante llamativo y curioso, encontré varias webs donde explican muy bien (eso sí, en inglés) paso a paso cómo darle a un simple texto unos efectos impresionantes.
El problema es que soy muy patoso con el photoshop pero no dudaré en ponerme a prueba para intentar conseguir darle un toque original a los encabezados de mis próximos proyectos.

Los efectos explicados en dicha web son muy variados. Aquí os pongo unas muestras:
Texto con efecto dorado
Texto cubierto de nieve
Texto en espiral

Mira el resto de la informacion en MIKROBLOG.NET.

Indispensable recopilación para convertir archivos

  1. Zamzar: Zamzar realiza todo tipo de conversiones, desde documentos hasta video, pasando por música e imágenes. Además de su versatilidad, este programa te permite hacer todas las conversiones sin descargar software..
  2. SUPER: Esta herramienta, que hace honor a su nombre, ofrece un método simple y eficiente de convertir cualquier archivo multimedia al formato que necesitemos.
  3. CZ Document Converter: Es una potente herramienta de conversión que permite trabajar con formatos populares como PDF, HTML, DOC, XLS y WPS.
  4. Media Convert: Esta es otra grán herramienta general. Puede coger archivos de tu ordenador o de un servidor web y convertirlos en prácticamente cualquier formato.
Las 97 restantes las podrás ver en Blog-off.

¿Qué plataforma usan los sitios más populares?

Fuente: Barrapunto.

Ayer hablábamos sobre Hadoop, una solución libre de clústers escalables para webs. Siguiendo con este asunto, en High Scalability están reuniendo la información disponible sobre las plataformas de algunos de los webs más populares. Por ejemplo, la plataforma de YouTube está basada en Linux, Apache, MySQL y Python. La arquitectura de Google, en 2006, estaba compuesta de 450 mil ordenadores con Linux, Python, C++ y Java. El sitio de fotografías de Yahoo, Flickr utiliza Linux, Apache, MySQL, PHP, Perl, Java, ImageMagick, entre otros. La arquitectura de Digg, por su parte, utiliza Linux, MySQL, PHP y Lucene. La plataforma de la Wikipedia también está basada en Linux, Apache, MySQL, PHP y Lucene (con 350 servidores según el artículo). En los artículos correspondientes se puede encontrar información más detallada (incluyendo tráfico, número de servidores, administradores, etc). En la página de arquitecturas de la vida real hay más ejemplos.