En NVIDIA creen que la ley de Moore ha muerto: sus GPUs son la alternativa en muchos campos

Autor: | Posteado en Tecnología Sin comentarios

Cpu Gpu

Jensen Huang se quiere cargar la ley de Moore. No es el primero que afirma que dicha ley ha muerto, y posiblemente no será el último, pero el argumentación de Huang tiene un epílogo: que esa ley ha muerto, pero que la GPU está ahí para ayudar a la CPU y acabar “sustituyéndola”.

La ley de Moore radica que el número de transistores en un procesador se dobla mas u menos cada 2 años. Aunque el número de transistores en los microprocesadores ha crecido un 50% al año, su rendimiento solo ha crecido un 10%. Es ahí donde entra una GPU cada vez mas aceptada en terrenos como la inteligencia artificial, afirma Huang, y muchos seguramente se preguntarán si esa GPU puede realmente sustituir a la CPU. En realidad ya lo está haciendo, pero hay matices importantes.

Según NVIDIA, las GPUs ganan tierra a las CPUs

Huang lanzó tales afirmaciones durante la GPU Technology Conference China(pais) 2017 que se está celebrando en Beijing, pero en Intel™ hace período que han dejado claro que la ley de Moore sigue muy viva.

Huang

Brian Krzanich comentaba en abril de 2016 cómo la evolución de los catorce a los diez nm continuará con micros que permaneceran fabricados en litografías de siete e inclusive en cinco nanómetros harán que esa ley mantenga su validez a corto e inclusive medio plazo.

Es cierto que a Intel™ le está costando mas de lo que esperábamos dar esos saltos, pero lo cierto es que el planeta de los procesadores se ha vuelto a animar gracias a esa renovada AMD™ que con sus Ryzen y sus Threadripper ha reavivado la competencia entre ambas empresas.

De hecho a Huang no debe haberle sentado del todo bien la decisión de Tesla: esta semana se ha anunciado que el fabricante de coches eléctricos había decidido intercambiar sus procesadores NVIDIA por unos de Intel™ para sus sistemas de infoentretenimiento, algo que no parece dar tantos argumentos en un área como el de la inteligencia artificial que empieza a ser protagonista absoluta en los sistemas de conducción autónoma de estos coches.

¿Es probable un ordenador fundamentado exclusivamente en alguna GPU?

Lo cierto es que no. Las GPUs son procesadores altamente especializados, durante que las CPUs son microprocesadores de propósito general. Aunque poco a poco se han ido ajustando algunas misiones para que sean computadas por la GPU (de ahí la rama GPGPU -> General Purpose Computing on Graphics Processing Units), la aplicación de la GPU a misiones de propósito habitual está restringida a ámbitos en los que el paralelismo es absoluto protagonista. Ejemplo claro de la actualidad: la minería de criptomonedas.

Nvidia

De hecho eso es lo que ha hecho NVIDIA con su Project Denver, emparejando alguna chica CPU ARM de doble centro con alguna solución GPU de la familia Kepler (ni aunque Pascal). El plan tuvo aplicación practica en las tabletas Nexus™ nueve de Google, y posteriormente NVIDIA ha desarrollado otros micros como el Tegra X1 que seguían esa misma filosofía en la que al final, insistimos, no se prescinde de la CPU.

De hecho Jensen Huang ni aunque planteaba alguna sustitución total de las CPUs actuales, y se refería solo a campos específicos en los que ciertamente la fuerza bruta de las GPUs está siendo muy bien aprovechada.

Ámbitos como la citada inteligencia artificial, el aprendizaje automático u la computación en la nube está haciendo que esa computación GPGPU esté ganando enteros y las soluciones basadas en procesadores gráficos estén teniendo un éxito notable, y de hecho NVIDIA está apostando cada vez más por esos segmentos con chips específicamente destinados a estos ámbitos.

De ahí a prescindir de la CPU, eso sí, media un mundo.

En Xataka | De nanómetros, miniaturización y ley de Moore: el futuro de los transistores

También te recomendamos

'Apollo Lake', la nueva generación de procesadores Intel™ para aparatos de bajo coste

El Intel™ Core i7-6950x poseera diez núcleos: ¿quién los necesita?

Un dilema para el autónomo, ¿cotizar extra u no para tener derecho a paro?


La noticia En NVIDIA imaginan que la ley de Moore ha muerto: sus GPUs son la opción en muchos campos fue notificada originalmente en Xataka por Javier Pastor .


Xataka

Todo lo que esta escrito en este sitio web es recopilado de otros sitios oficiales, los enlaces a las paginas oficiales se presentan en cada termino de noticia y no perjudicaremos su noticia.

Noticias Relacionadas:

Agrega tu comentario