Buscar

Mostrando entradas con la etiqueta gpu. Mostrar todas las entradas
Mostrando entradas con la etiqueta gpu. Mostrar todas las entradas

2021/09/08

Vuelve la NVidia GTC del 8 al 11 de noviembre de 2021.

La NVidia GPU Technology Conference vuelve.

El evento que convoca a miles de desarrolladores, innovadores, investigadores, pensadores y líderes empresariales en los campos de la Inteligencia Artificial, Computación Gráfica, Ciencia de Datos y otros campos del conocimiento se efectuará de manera online entre los días 8 y 11 de noviembre del presente año.

El registro para asistir a las presentaciones del GTC es completamente gratuito.

Para registrarte en el evento necesitas tener una cuenta de NVidia la cual puedes abrir de forma gratuita.

Puedes acceder a las presentaciones anteriores del GTC con tu cuenta de NVidia o siguiendo las instrucciones que te indiquen, las que validarán el correo electrónico y el acceso al portal.





 

2011/10/21

Europa quiere entrar en la carrera tecnológica de las GPU

Un consorcio europeo ha recibido una subvención de la Unión Europa de 2,8 millones de euros para la creación de una gama de unidades gráficas (GPU) de alto rendimiento y bajo consumo. El proyecto tendrá una duración de 3 años.

El consorcio está formado por las empresas Codeplay, Geomerics, AiGameDev y Think Silicon junto a las universidades de Uppsala (Noruega) y el Instituto Tecnológico de Berlín (Alemania).

"Este proyecto tendrá beneficios prácticos tangibles y nuestra ambición es que permita a Europa tomar el liderato en el desarrollo de la próxima generación de tecnología gráfica de alto rendicimiento y bajo consumo para móviles y videojuegos", ha dicho Andrew Richards, de Codeplay.

"Las compañías europeas lideran el diseño de procesadores CPU y GPU de móviles, y son líderes mundiales en tecnología de videojuegos. Estas comapñías necesitan hacer una gran inversión en investigación y desarrrollo de gráficos", señalan.

"Hasta ahora, ha habido poca investigación académica en este segmento. La I+D ha estado dominada por programación de alto rendimiento en sectores como el aeroespacial, médico o energético. Este proyecto ayudará a equilibrar la situación ofreciendo avances en aplicaciones gráficas, herramientas y hardware para dispositivos de consumo."

2011/06/15

La GPU de Wii U, una Radeon común

Las entrañas de Wii U siguen siendo un misterio. Nintendo no es muy dada a publicar datos técnicos de sus sistemas, pero esto no evita algunas filtraciones no deseadas. Y es que Engadget publica que la próxima consola de Nintendo contará con una tarjeta gráfica (GPU) Radeon que da resultados similares a los vistos con el chup R770 de AMD.
La gráfica se situaría pareja a Playstation 3 y Xbox 360, aunque ofrecería algo de más potencia que estos sistemas competidores. No obstante, la diferencia técnica no sería sustancial. Habrá que esperar a la confirmación oficial por parte de Nintendo para conocer más detalles sobre las entrañas tecnológicas de la máquina.

2010/10/09

HP desarrolla un servidor optimizado a GPUs

eWeek

Hewlett-Packard ha apoyado el uso de tarjetas y procesadores gráficos (GPUs) para el procesamiento más rápido y barato de tareas científicas, y ha lanzado un sistema de proceso modular que llega a 1 TFLOP por unidad de rack.
Las GPUs están diseñadas para incrementar el rendimiento gráfico al manejs las operaciones de coma flotante asociadas con imágenes, pero se han convertido en una alternativa cada vez más popular en procesos científicos.
La mayoría de las GPUs se han orientado a máquinas de videojuegos, pero el interés en estas GPUs está creciendo con otra orientación distinta, la de los equipamientos empresariales.
El HP ProLiant SL6500 es un servidor blade que incluye los SL390s, blades que pueden tener hasta tres GPUs instaladas en ellos, lo que lleva a una potencia de proceso de 1 TeraFLOP por cada blade.

2010/09/20

La creciente importancia de la GPU

eWeek

Los recientes avances en torno a los sistemas informáticos de alto rendimiento y cloud computing muestran cómo las empresas comienzan a racionalizar el coste y eficiencia de sus entornos de TI ante la creciente demanda de una mayor capacidad de procesamiento.
Como respuesta, la industria de TI se ha centrado en el incremento de las capacidades y funcionalidades de la unidad central de procesamiento (CPU). Al hacerlo, quizá han pasado por alto algunos detalles y se ha infravalorado los beneficios específicos de ciertos avances en la unidad de procesamiento gráfico (GPU).
Las empresas necesitan un mayor poder de cómputo puro para procesar la creciente cantidad de datos que generan las aplicaciones empresariales, cada vez más potentes. Pero la representación visual de estos datos y el uso generalizado de contenido gráfico en muchos tipos de aplicaciones también han aumentado de forma exponencial en los últimos años, ya sea en forma de presentaciones y diseños gráficos, contenido en alta definición (HD) o 3D para visualizar en alta resolución o mediante pantallas múltiples.
Conforme más y más empresas adoptan modelos de comunicación corporativa orientados a la imagen, las compañías deben tener una idea clara del papel que juegan sus inversiones en tecnologías de CPU y GPU. Con la elección del chipset adecuado, las empresas pueden lograr una alta productividad y mejoras en el desarrollo de sus productos.
Por ejemplo, los últimos avances en las GPU han sido diseñados para incrementar la fiabilidad y facilitar la integración, así los usuarios pueden acceder y guardar datos, información y recursos de forma sencilla. Esto es muy importante para las empresas dedicadas principalmente a la creatividad y la imagen, como es el caso de las especializadas en diseño asistido por ordenador (CAD), que pocas veces guardan sus trabajos en local y ahora disponen de sistemas equipados con las tarjetas gráficas más avanzadas para estaciones de trabajo, con un control de driver optimizado, esto es, diseñado para evitar fallos graves que pueden suponer la pérdida de todo el trabajo realizado durante la última hora o incluso de todo un día entero.
Los avances en la GPU también pueden ayudar a aquellos usuarios con requisitos de creatividad muy exigentes, permitiendo que las aplicaciones CAD y de creación de contenidos digitales (DCC) trabajen sin problema en sistemas de computación de gama alta. Por ejemplo, la tecnología GPU más actual y avanzada puede almacenar algoritmos de geometría dentro de las mismas tarjetas gráficas sin necesidad de entregar los datos a la CPU para que calcule los cambios. Esto mejora el rendimiento en el procesamiento de rotaciones comparado con la tecnología actual, sobre modelos a mayor escala. Además, los desarrollos que incorporan elementos de tecnología del tipo “detección automática” permiten a los usuarios abrir aplicaciones 3D, o moverse entre ellas de forma natural, al configurar automáticamente los ajustes del driver de gráficos 3D, optimizándolos para conseguir el mayor rendimiento en situaciones de múltiples flujos de trabajo.

En organizaciones que utilizan mucho el diseño gráfico, por ejemplo, el diseño de arquitectura por ordenador o el sector del videojuego, la necesidad de reproducir la salida de vídeo en múltiples pantallas se ha convertido en algo habitual ya que los diseñadores buscan el mejor ángulo de visión en sus diseños, y los jugadores quieren conseguir la experiencia de juego más avanzada y envolvente. Con la potencia de la GPU y el empleo de tres o más monitores, los diseñadores, los jugadores o incluso los médicos pueden ver las imágenes y los datos de los pacientes de forma simultánea, disponen de una vista más clara, en formato panorámico y mayor capacidad multitarea.
Sucede que, aunque las configuraciones multipantalla son muy habituales en los estudios de diseño asistido por ordenador, en las productoras de videojuegos e incluso en las competiciones de carreras de automóviles de altas prestaciones como la Fórmula 1, en el resto de las empresas también se acude cada vez más a la representación gráfica de su información de negocio más relevante. La tecnología GPU puede jugar, por tanto, un papel fundamental en el conjunto de las tecnologías de TI de las empresas.
Por ejemplo, ya que esperamos que cada vez sea más general el uso de paneles de vídeo de Alta Definición para las comunicaciones basadas en imagen, las presentaciones, conferencias Web y otras técnicas de comunicación, las experiencias visuales avanzadas se pueden lograr con proyectores sencillos o pantallas únicas. El auge de los paneles de vídeo puede generalizarse a medida que los fabricantes orienten sus estrategias hacia la producción de monitores muy delgados, “sin bordes”. En este caso, la información y el contenido deberán optimizarse para su presentación, por ejemplo, en las recepciones de las empresas o en las oficinas, así como en otros dominios como son los eventos deportivos, o la señalización en comercios minoristas y publicidad en exteriores.
El deseo de trabajar con HD, 3D, múltiples monitores y vistas del flujo de trabajo de las aplicaciones sólo puede ir a más. La necesidad de pantallas múltiples, más pequeñas y configurables que ofrezcan una resolución mejor que una pantalla gigante única –algo que se puede lograr con las nuevas tecnologías de chipset de GPU- pueden distraer menos la atención y contribuir a mejorar la productividad de los usuarios. Incluso en escenarios menos específicos, la posibilidad de conectar el portátil o un dispositivo móvil con funcionalidades avanzadas de GPU a una pantalla central puede facilitar la profundidad y nivel detalle necesarios para compartir información con un gran impacto visual con compañeros de trabajo, socios o clientes.
Pero, no sólo las compañías más orientadas a la producción gráfica y visual pueden ver mejoras en el rendimiento. Otros usuarios, como puede ser el personal de un hospital, que también trabaja con imágenes de alta calidad o flujos de trabajo de múltiples aplicaciones, dependen igualmente del rendimiento, aceleración y fiabilidad de la GPU a la hora de garantizar que sus sistemas tengan capacidad de respuesta y estén siempre disponibles cuando tengan que aplicar terapias y tratamientos médicos. La mayor facilidad en la integración de la GPU puede servir incluso para reducir la necesidad de que el departamento de TI de un hospital tenga que reescribir software para que funcione en modalidad de alta resolución o con varias pantallas y así evitar los escenarios de “retirada y sustitución” que resultan injustificables desde el punto de vista económico.
Otro detalle que se pasa por alto en los avances de la GPU es que permite ver y hacer mucho más con los datos de negocio. Incluso si los requisitos informáticos no vienen marcados por las necesidades de representación gráfica, los desarrollos en tecnologías de CPU pueden servir para mejorar sustancialmente otras alternativas de presentación y visualización. Los requisitos de los sistemas operativos más recientes, por ejemplo, ponen de manifiesto las deficiencias de los sistemas de hardware anteriores. Pero en el caso de que las empresas se vean obligadas a sustituir sus equipos de desktop, simplemente el actualizar y centralizar la potencia de GPU en un chipset único puede suponer una alternativa de compra y gestión de TI más económica y productiva.
Al ofrecer a las empresas un mayor poder de computación, visión panorámica y mayor productividad gracias al uso de múltiples pantallas, mayor calidad de la imagen y comunicaciones visuales, tanto si se trata de uso corporativo general o para trabajos más especializados, la necesidad de disponer de capacidades sofisticadas de gestión de gráficos pronto será una realidad en todas las organizaciones.

2010/09/15

Nvidia presenta nuevas herramientas para la creación de aplicaciones aceleradas por GPU

ITespresso

Nvidia ha presentado actualizaciones de Parallel Nsight, un conjunto de herramientas para la creación de aplicaciones aceleradas por GPU desde Microsoft Visual Studio IDE, y de Cuda Toolkit, que potencia las capacidades de procesamiento masivo en paralelo de las GPU, o unidades de procesamiento gráfico.
Nvidia Parallel Nsight 1.5 incluye soporte para la plataforma de desarrollo de software Microsoft Visual Studio 2010 lanzada en abril.
Con Parallel Nsight la compañía afirma ofrecer depuración de múltiples núcleos en Visual Studio 2010. Un solo sistema de depuración permite a los desarrolladores depurar en una GPU mientras utiliza otra para mostrar el escritorio, lo que evita que los desarrolladores necesiten utilizar múltiples máquinas.
También característico de la versión 1.5 es la funcionalidad de análisis de sistema, gracias al cual los usuarios de Visual Studio pueden visualizar los fenómenos ocurridos en la CPU y GPU en una línea de tiempo correlativa.
Esta opción permite a los desarrolladores ver exactamente qué se está procesando en sus aplicaciones en diferentes unidades de procesamiento.
Parallel Nsight 1.5 soporta otro producto que Nvidia también ha presentado, Cuda Toolkit 3.2, una actualización que ofrece nuevas librerías, mejoras del rendimiento y gestión de cluster avanzado.

2010/04/27

El mercado de GPU crecerá un 17% en 2010

Fuente: eWeek.

Los tres fabricantes principales, Intel, Nvidia y AMD, superaron las previsiones de crecimiento durante 2009, tendencia que se mantendrá a lo largo de este año.
Intel continúa liderando el mercado de subsistemas gráficos con una cuota de mercado del 43,5%, cifra que ha aumentado con respecto al anterior trimestre.
Así se pone de manifiesto en un estudio de la analista Jon Peddie Research que hace referencia al primer cuarto de 2010.
Por su parte, la segunda posición sigue estando en poder de Nvidia, con un 30,5% de presencia, que también ha mejorado con respecto al último cuarto de 2009. Mientras tanto, AMD y su división ATI consiguió un 25%, también creciendo algo más de un punto.
En general, las previsiones para 2009 han sido superadas, ya que durante el año pasado este mercado creció un 11% con respecto al año anterior. Para 2010, esta analista augura un crecimiento del 17,3%, lo que significa que la crisis comienza a dejarse atrás.
El resto de fabricantes mantiene una cuota de mercado presencial. Es el caso de VIA/SE (0,71%), Sis (0,22%) y Matrox (0,06), compañía que llegó a disfrutar de un gran peso en la industria en los años 90.

2009/06/17

Nvidia lanza nuevas GPU optimizadas para Windows 7

Fuente: VNUnet.

Nvidia ha lanzado cinco nuevas unidades de procesamientos gráfico (GPU) fabricadas con la nueva tecnología de 40 nanómetros y que incorporan memorias de 512 y 1GB en el chip. Además, los chips optimizados para Windows 7 ofrecen “el doble de rendimiento” y una mayor vida de la batería “con la mitad de la energía”.

Según Nvidia, las nuevas GPU funcionan “20 veces más rápido que la CPU” con ciertas aplicaciones. La compañía también asegura a los jugadores que las nuevas G210M, GT 230M, GT 240M, GTS 250M y la GTS 260M están equipadas “con las últimas tecnologías”, incluida PhysX para mundios virtuales y entornos extremadamente realistas.

La serie GeForce 200M también está optimizada para que los usuarios de Windows 7 puedan editar y transferir rápidamente vídeos HD.

2009/02/06

Intel diseñará el procesador gráfico, GPU, de la nueva PlayStation 4

Fuente: adslnet.es.

Parece que Intel ha ganado la última mano en cuanto a el diseño de la gráfica de la futura consola de Sony, en detrimento de ATI y NVIDIA. Según rumores ATI diseñará la GPU de la futura Xbox y NVIDIA parece haber perdido comba en el terreno de las consolas.

Sony está pasando una mala temporada, firmando pérdidas debido principalmente a la recesión económica y a que la última consola no ha tenido tanta aceptación como se esperaba. Para su siguiente consola, Sony necesita un socio confiable con suficiente capital y que tenga planes de futuro hasta 2012, cuando está planeada la nueva consola. Ha encontrado por tanto en Intel la pareja perfecta.

Según informó un ingeniero de Sony en el CES, Intel ha ganado el pulso dado que tienen una buena arquitectura, no hay amenazas de bancarrota y tiene buena relación con Sony. De momento aún queda mucho tiempo, y no se conoce si Intel diseñará el sistema gráfico o será también la CPU.

Si nos centramos en lo que sería la tercera generación de Xbox, también con fecha prevista 2012, corren rumores bastante fiables sobre que será ATI quien se encargue de su chip gráfico algo que tiene bastante fundamento si tenemos en cuenta que no hay muy buenas relaciones entre Microsoft y NVIDIA después del chip gráfico de su primera Xbox.

Para finalizar vamos a comentar el futuro de la consola de Nintendo. Basándonos en la experiencia anterior de Nintendo, cada consola de la época 3D ha hecho uso de GPU ATI, por lo que aunque no hay información clara sobre el tema, casi se podría afirmar que Nintendo seguirá su tradicional colaboración con ATI en el diseño de su futura consola.

Como se puede observar parece que NVIDIA no va a entrar en la pugna por la siguiente generación de consolas.

2008/10/13

Las GPUs revientan la seguridad WPA/WPA2

Fuente: Barrapunto.

No hace mucho se hablaba en Barrapunto de la supercomputación a base de tarjetas gráficas. Pues bien, la herramienta de Elcomsoft que hace uso de la potencia bruta de las GPUs de NVIDIA está cambiando las reglas de juego. De hecho, la seguridad en redes Wi-Fi, que ya era muy poco destacable, queda ahora totalmente al descubierto gracias a esa utilidad, que permite reventar contraseñas WPA y WPA2 mediante algoritmos de fuerza bruta en tiempos que son hasta 10.000 veces inferiores a los de las CPUs convencionales. La recomendación de los expertos: combinar la "seguridad" WiFi con redes VPN.