Por si ustedes se han metido debajo de las piedras, hoy AMD ha mostrado al público por primera vez AMD Fusion, una mezcla de CPU + GPU, que AMD ha dado en nombrar APU (si, APU). Y esto tiene su cosa, porque el equivalente de Intel, Larrabee está más muerto que vivo, y esto puede cambiar las tornas en la eterna lucha por la dominancia entre ambas compañías.
Efectivamente, quizás no lo sepan (no se ha hablado mucho del tema), pero Larrabee, ese nombre tantas veces repetido (en este blog se le dedicaron un par de apasionados posts), ha sido -por decirlo de un modo amable- reseteado. Tal como predijeron los de Nvidia, hacer una GPU es muy diferente de hacer una CPU, e Intel no tenía experiencia y se iba a pegar. Y se la ha pegado. Como solución de emergencia, andan juntado una CPU tradicional con un chip integrados de los suyos, que sería útil si no fuera porque tienen un rendimiento mediocre. Si las operaciones en GPUs empiezan a extenderse en el software nadie va a conformarse con un chip diseñado para mostrar un escritorio Windows, Office, DVDs y juegos 3D muy simples.
AMD Fusion es diferente, es una CPU verdaderamente integrada con una GPU, hasta el punto de que comparten componentes. Las alternativas tradicionales requieren que la comunicación entre CPU y GPU se haga a través de los buses típicos (PCIE, interconexión de procesadores hypertransport), con la consiguiente latencia y consumo de energía. La GPU de un Fusion en cambio comparte el controlador de memoria con la CPU. AMD dice que la GPU usará unas partes de la memoria central, la CPU otras, y que las transferencias entre ambas son muy rápidas, sin molestias de los variados buses. No hay razones para creer que no sea así, y es de imaginar que AMD Fusion rendirá magníficos números.
AMD parece creer -o al menos lo cree el departamento de marketing que ha escrito los documentos que estoy leyendo- que la Ley de Moore se continuará cumpliendo en el futuro....con ayuda de sus APUs, es decir, no sólo añadiendo cores, o añadiendo transistores a las CPUs tradicionales, sino con GPUs. Creen que los programadores van a utilizar, vía OpenCL, masivamente los "cálculos vectoriales" SIMD, y que las APUs van a formar parte cotidiana de nuestro futuro. Los gráficos se verán beneficiados sin duda, de hecho a día de hoy no se puede tener una interfaz moderna sin ayuda de una GPU. ¿Se imaginan una pantalla táctil sin los efectos gráficos al moverse en una lista, en una web, cambiar de pantalla, etc? Hay un apartado especial para los dispositivos móviles, ya que la óptima integración permite alargar la vida de las baterías sin renunciar al rendimiento.
Todo esto es muy bonito leído así, claro. ¿Pero qué tiene esta historia de la venganza del título y de la horrible frase inicial? Pues mis elucubraciones sobre un posible retorno de AMD al liderazgo en el campo de los procesadores, perdido desde que Intel pateó al Opteron.
La compra de ATI fue considerada un gran fracaso, AMD perdió una barbaridad de millones en la operación y puso a la compañía en una posición parecida a la de Sun antes de ser engullida por Oracle. Pero si la compra fracasó desde el punto de vista financiero, la ventaja que están sacando de aquello es el liderazgo en la fusión entre GPU + CPU. Intel acaba de volver a la posición de salida, y es imposible que alcance al equipo de ATI en varios años. Nvidia hace fantásticas GPUs, y para ser competitivos han diseñado su propio SoC ARM, pero ellos no diseñan los procesadores ARMs ni tienen la gente necesaria para integrar ambos como puede hacerlo AMD....esto quiere decir que AMD no tiene ningún rival cercano en este campo, si no media una compra de Nvidia por parte de Intel. ¿Estamos ante el regreso de AMD? El tiempo lo dirá, pero al menos las cartas parecen tenerlas.
(Nota: Tambien hoy SGI anuncia que está disponible sus equipos Altix UltraViolet, de los que ya se habló en este blog hace tiempo y que están relacionados con este tema)
muy buena noticia. No sabia eso de la integración entre CPU y GPU. Y al verdad que tienes razón. Ahora es la oportunidad de AMD de levantarse y luchar con mucha fuerza, porque han perdido en estos años. mejor para los usuarios que haya competencia, porque mejoran los productos ademas de bajar los costos
ResponderEliminarResulta interesante esta propuesta, aunque a mi me genera varias dudas:
ResponderEliminar- Si estamos decididos a perder la modularidad del equipo hardware no entiendo por qué no aplicar esta misma técnica integrando en la CPU la tarjeta de red o la tarjeta de sonido. Si nos molestan los buses quitémoslos todos y creemos un monstruo que lo haga todo, arriesgándonos en temas de temperatura y de escalabilidad
- ¿Qué ocurrirá cuando mis necesidades me pidan más potencia gráfica? ¿Nueva CPU? Supongo que este engendro será más caro que una CPU "convencional", así que la idea no me hace mucha gracia
De todas formas si la cosa queda bien rematada puede ser un paso lógico y natural, tal y como el que vivimos en su momento con los coprocesadores matemáticos.
Un saludo.
@Joaquín: en portátiles y tablets no es habitual actualizar la gráfica (ni la cpu ni nada, como mucho la memoria y el disco duro). Te comes lo que tienes de principio a fin.
ResponderEliminarY en fijos a veces también.
Cabe una posibilidad: que se pueda añadir una tarjeta gráfica que funcione como hija de la GPU. Si ya esta se supone que estará conformada por varios núcleos (me extrañaría lo contrario) ¿qué problema hay en que se pueda "externalizar" parte del trabajo a la tarjeta?
ResponderEliminarPues llegas tarde, ya hay en las tiendas portatiles con la plataforma Fusion.
ResponderEliminarAnónimo: Ni de coña, Fusion no está a la venta, de hecho se ha presentado al público estos días y no se empezará a vender hasta el 2011...
ResponderEliminarSolo por el nombre ya me han ganado ... Apu XDD Quien quiere al badulakeeeeee
ResponderEliminarEsto es lo mismo que está haciendo Intel y que veremos a final de año con la arquitectura Sandy Bridge.
ResponderEliminarLo de CPU+GPU esta bastante extendido ya en los telefonos, lo hacia TI con sus procesadores Omap desde los tiempos del 2420 , con un ARM 11 y un PowerVR en el mismo core, una pasada de trasto muy mal aprovechado.
ResponderEliminarlo de AMD, parece lo mismo pero encaminado al escritorio, tiene buena pinta para los portatiles por ejemplo
¿Desde que Intel pateo al Opteron? xD
ResponderEliminarLos Procesadores de Servidor de AMD hoy en día superan a los de INTEL, y en el mercado empresarial no necesitan recuperar nada pues le llevan bastante delantera a INTEL.
Si consiguen "fusion" será un gran avance y un bocado a Intel.
¿AMD? ha estado alguna vez delante de Intel? ni en sueños. Temperatura/rendimiento/durabilidad.
ResponderEliminarCuando Intel esta desarrollando tecnologías para dentro de 10 años, que va soltando gota a gota como novedades, AMD lucha por salir al paso con CPUs ineficientes, y menos que aplicables en un mundo empresarial real.
Eso sí, si te quieres hacer un home cinema baratito con ubuntu, AMD Fusion it's OK!.
Los K6-II y los K6-III machacaron a intel durante varios años, no fue hasta la aparición de los core-duo que intel recuperó su dominio, el problema lo tiene ahora que AMD es una marca consolidada y no como antes que rea marginal.
ResponderEliminarAMD lo que tiene es que si haces uso de procesador y gráfica de la compañía tiene un software que emula fusion permitiendo en momentos de carga de proceso para cpu o gpu tirar mano del procesador que menos carga de trabajo tenga en ese momento.
@Cuanto rigor el Athlon 64 mononucleo más barato y potente que los Intel Dual Core, hizo que Intel se tuviera que comer una generación de procesadores caros que no funcionaban bien. Gracias a esos 'ineficientes' chips, a día de hoy cualquier CPU que se precie (incluidas las de Intel) usa la arquitectura de 64 bits, y la propia Intel tuvo que reaccionar sacando los Intel Core 2 Duo con arquitectura x86_64, pero tienes razón, AMD siempre va a remolque, me fio de tu opinión más que de cualquier otra cosa...
ResponderEliminarEsto va a estar muy bien en las consolas portátiles y los móviles del futuro, e incluso algún equipo portatil pero yo no creo que haya nada más.
ResponderEliminarHace un tiempo estuve con expertos en supercomputación (Harina de otro costal, comparado con procesadores de escritorio) y la mayoría coincidía en que amd hacía mejores procesadores que intel estructuralmente hablando. Es cierto que la relación prestaciones/consumo/calor no es lo mismo e intel va ganando.
ResponderEliminarAdemás Intel ha puesto dinero muchas veces a AMD para que no acabe, ya que si no, tendrían que ejecutar políticas antimonopolio en Intel y no quieren.
De todas maneras la competencia siempre es positiva en este tipo de compañías.
alfredo ese dinero no a sido por caridad de intel a sido para que AMD retire la las acusaciones por conductas monopolisticas de intel aqui tienes la ultima paga
ResponderEliminarhttp://www.itespresso.es/intel-paga-y-amd-retira-los-cargos-por-violacion-de-patentes-42871.html
y si te parese mucho dinero creme la multa de la UE ubiese arruinado a intel....... y decidieron actuar por lo sano ...sin mas un saludo
El que a día de hoy hable de AMD mencionando que los K6 se calientan mucho... JAJAJAJAJA, es que es un enterado que no tiene ni puñetera idea de lo que habla. Eso sí, hay que hablar.
ResponderEliminarDesde el PIV 2800 los CPU de Intel generan más calor que las de AMD.
Llevo 10 años montando equipos de sobremesa con CPA de AMD sin problemas de rendimiento y a calidad/precio insuperable.
A APU le veo muchísimo futuro sobre todo en equipos de empresa que se utilizan como terminales de trabajo que necesita pocas prestaciones. Bancos, Ministerios, Aseguradoras, etc. Ahí es donde está el pastón, en la venta de equipos de 1.000 en 1.000.
También tiene mucho futuro en las ofertas de las grandes superficies, para usuarios con perfil bajo.
En cuanto los portátiles de momento y a día de hoy AMD tiene poco que hacer.
Y en cuanto a servidores sólo decir que el servidor web de mi empresa es un Opteron de 4 núcleos y ¡Vaya cañón!
¿alguien recuerda la descodificacion de WIFI usando los procesadores paralelos de las targetas gráficas de nVIDIA?
ResponderEliminarhttp://www.tomshardware.com/news/nvidia-gpu-wifi-hack,6483.html
Yo creo que la jugada será que dentro de pocos años, el calculo del chip se repartirá entre la/s CPU/s y la GPU/s, de forma que se podrá conseguir muchísimo más paralelismo en la ejecución de código de lo que actualmente tenemos.
Si no recuerdo mal, la GPU GeForce 9600GT de nVIDIA tiene 64 cores a 600Mhz (¿como si fuera 600x64=38Ghz? vale no, pero "casi")
http://www.paguito.com/cgi-local/SoftCart.exe/online-store/scstore/p-PDIV2141.html?E+scstore
Y esta otra tiene 192 cores.
http://www.nvidia.com/object/product_geforce_gtx_260_us.html
Dicho de otra manera ¿cuantos procesadores Intel o AMD tienen 200 cores?
Bueno, pues creo que faltará poco para verlo.
Y más aun, ya existen librerias para estandarizar el uso de procesamiento paralelo en las actuales GPU: OpenCL
http://es.wikipedia.org/wiki/OpenCL
Ahora solo es cuestión de tiempo el poder emularlas intrucciones x86-64 en esas GPUs integradas.
Saluditos
pulidlc