NVIDIA Gana la BATALLA de la Inteligencia Artificial
Duration
21:48
Captions
1
Language
ES
Published
Feb 14, 2024
Description
NVIDIA es hoy lider en la guerra por la IA, por encima de Google, OpenAI o Microsoft. ¿Por qué? Pues porque cuenta con la ventaja tanto por el lado del consumidor como del proveedor de IAaaS de poder ofrecer la infraestructura para ejecutar todos los avances de Inteligencia Artificial que aparecen. Hoy en el vídeo vamos a analizar esto en detalle. ► Descubre los mejores productos con tarjetas gráficas GeForce RTX para IA: https://bit.ly/DotCSVRTXIA 📹 EDICIÓN: Carlos Santana y Diego Gonzalez (Diocho) --- ¡MÁS DOTCSV! ---- 📣 NotCSV - ¡Canal Secundario! https://www.youtube.com/c/notcsv 💸 Patreon : https://www.patreon.com/dotcsv 👓 Facebook : https://www.facebook.com/AI.dotCSV/ 👾 Twitch!!! : https://www.twitch.tv/dotcsv 🐥 Twitter : https://twitter.com/dotCSV 📸 Instagram : https://www.instagram.com/dotcsv/ -- ¡MÁS CIENCIA! --- 🔬 Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí: http://scenio.es/colaboradores
Captions (1)
que no te confunda el silencio de las
últimas semanas porque en el mundo de la
Inteligencia artificial se está viviendo
una batalla Industrial sin precedentes
una batalla donde la i ha puesto a
grandes empresas como Microsoft o Google
a bailar luchando por sus mercados
habituales Sí pero también por los
nuevos mercados que emergen un juego
donde los grandes laboratorios de
Inteligencia artificial han tomado parte
y donde ponen todos sus recursos a
trabajar para entrenar mejores y más
potentes cerebros artificiales y una
batalla donde nuevos jugadores compiten
ferozmente por hacerse un hueco en el
tablero para así poder ser también
partícipes de una nueva Revolución
Industrial que ya ha comenzado todo esto
lo podemos ver ahora como una gran
partida de ajedres donde ahora todos
compiten pero donde el que gana es el
dueño del tablero hablemos de envidia
originalmente esto no era así en la
década de los 2000 nvidia estaba
únicamente enfocada en producir Hardware
para el procesamiento de gráficos por
ordenador en tiempo real principalmente
orientada al mercado Gaming ya sabéis el
usar la tarjeta gráfica como un
procesador especializado que ayudara a
aliviar la carga de trabajo de la cpu
Pero a medida que las gpu se volvían
cada vez más avanzadas los ingenieros
empezaron a notar que ahí había más
encial que se podía aprovechar el
potencial del procesamiento en paralelo
y fue esto la realización de que esta
aceleración por Hardware podría ser útil
Más allá de mover polígonos de colores
por la pantalla lo que hizo reorientar
la estrategia de envidia hacia el
concepto de GP gpu la utilización de las
gpus para uso de propósito general es
decir permitir aprovechar el potencial
del procesamiento en paralelo de las
gpus más allá de los gráficos por
ordenador para que ahora cualquiera
pudiera desarrollar aplicaciones que se
beneficiara de esto aplicaciones como
criptografía análisis de datos
simuladores científicos o Deep learning
suena bien no Bueno pues la cosa no era
tan sencilla la dificultad es que si tú
querías programar a la gpu para hacer
por ejemplo una aplicación científica
Pues un simulador molecular claro
originalmente tú tenías que darle
instrucciones a un cacharro que estaba
pensado para gráficos por computador y
por tanto tenías que adaptar tu código a
las instrucciones gráficas de la tarjeta
y esto es como intentar dar órdenes para
ha ser una tarea compleja un simulador
molecular hablando directamente con un
pintor complicado y ahí fue cuando
nvidia en 2007 introdujo los cambios
necesarios para que ahora sí pues
pudieras instruir a la tarjeta gráfica
de forma más entendible como si hablara
directamente con un programador este
nuevo personaje esta nueva forma de
hablar con la gpu era
cuda kuda a muchos de vosotros os sonará
ya sea porque habéis programado
directamente para la gpu o por todas las
veces que os habéis peleado instalando
las librerías de kuda cuando queríais
probar algún proyecto de Deep learning Y
es que sí la historia del Deep learning
y de kuda está mucho más entrelazada de
lo que podríamos imaginar pero este fue
un noviazgo que tardó unos cuantos años
en ocurrir la cosa es la siguiente
Cuando tenemos una red neuronal la
información Se va procesando capa tras
Capa en diferentes neuronas
multiplicando y sumando la información
al final como las neuronas de una misma
capa no dependen de las otras neuronas
en dicha capa pues cada una puede hacer
su cálculo independientemente en
paralelo y también como los datos de
entrada en cada lote se van a procesar
de forma independiente pues esta es una
ejecución que también podemos procesar
en paralelo paralelizar paralelizar y
paralelizar y así si nos damos cuenta es
como nos vamos encontrando formas de ir
paralelizado la ejecución de las redes
neuronales para que el trabajo en vez de
hacerlo secuencialmente tenía tenendo
que esperar por la ejecución previa
ahora se pueda hacer simultáneamente
algo que de forma drástica acelera la
ejecución además también da la
casualidad de que en muchos casos
procesar gráficos por ordenador equivale
a multiplicar las matrices y vectores
que representan a cada polígono matrices
y vectores que también encontramos en
las redes neuronales Cuando tenemos que
procesar los datos a través de las
diferentes capas de matrices de
parámetros ejecutar redes neuronales Y
representar gráficos por ordenador no
están diferente simplemente multiplicar
vectores y matrices con lo cual sin
quererlo ni beberlo ya en 2010
contábamos con estas gpus que eran aptas
para realizar tareas de propósito
general y que eran muy adecuadas para el
entrenamiento de un tipo de algoritmo
que Oye parecía que podía tener
potencial dentro del campo de la
Inteligencia artificial las redes
neuronales artificiales y fue en 2012
cuando un equipo de investigadores en el
que encontramos a joffrey Hinton a ilas
zkber y Alex krichevsky que usaron
varias gpus para el entrenamiento de una
red neuronal bautizada como alexnet la
presentaron a una competición de
análisis de imágenes donde laboratorios
de todo el mundo pues proponían sus
soluciones y donde esta fue una de las
primeras basadas en técnicas de Deep
learning el resultado pulverizar por
completo al resto de equipos y esta fue
una de las primeras ocasiones donde
quedó indudablemente claro el potencial
de las redes neuronales artificiales el
punto en el tiempo en el que muchos
sitúan el comienzo de la revolución del
Deep learning del Deep learning y las
tarjetas gráficas porque uno de los
puntos claves de este trabajo fue el uso
de las gpus para acelerar el
entrenamiento de lo que por aquella
época eran grandes redes neuronales el
equipo tras alexnet utilizó el poder de
la ejecución en paralelo para agilizar
drásticamente los tiempos de
entrenamiento y permitirse así el poder
entrenar una arquitectura de mayor
tamaño y con más datos Y a partir de ese
momento pues como se suele decir el
resto ha sido
historia toda esta época del Deep
learning que ahora vemos con mucha
nostalgia no hubiera sido posible sin el
desarrollo en paralelo del mercado de
las tarjetas gráficas y junto al
crecimiento del sector del Deep learning
y el crecimiento en tamaño y capacidad
de los modelos envidia también
creció de hecho ya hablamos de todo esto
en este vídeo de aquí de hace 3 años
donde os presenté la premonitoria ley de
Juan una ley empírica que en este caso
toma el apellido del seo de envidia
jensen Juan para compararse a la famosa
ley de mur la ley que supo predecir como
el número de transistores de los
microprocesadores que usamos en todos
nuestros dispositivos se iba a ir
duplicando cada 2s años haciendo que
cada dos años estos chips fueran más
capaces y eficientes pues en este caso
la ley de Juan se centra con como no en
los procesadores gráficos en la gpus y
lo que nos dice es que a pesar de que a
la ley de mur cada vez le cuesta más
cumplir con su cita por los límites que
la propia física impone a pesar de eso
el progreso de las gpus iban a seguir un
camino diferente un camino donde su
rendimiento se duplicaría cada año y
esto es curioso si lo pensáis porque al
final la ley de Juan depende fuertemente
de la ley de mur es decir el desarrollo
de las gpus pues está estrechamente
ligado con que podamos seguir
miniaturizado los transistores en los
chips No pues no solo depende de eso
también podemos encontrar un montón de
técnicas de optimizaciones de mejoras en
las arquitecturas de los chips que
exploten el potencial de la computación
en paralelo y en concreto su aplicación
para Inteligencia artificial Ahí es
donde encontramos muchas muchas
ganancias y t cual lo planteó y en San
Juan en 2019 la cosa estaba así
and in fact if you take a Look at Our
progress This is really quite Amazing
Our progress Over The Last 5 years 5
years ago k80 servers If trained on
Resident 50 would have taken 600 hours
training this model 600 hours we Now Do
it in two Now when you compound All of
that it's basically some 30x over 5
years and so This is doubling Every
single year
Pero esto era 2019 a partir de ese
momento se ha seguido cumpliendo esta
predicción pues Mirad si visualizamos la
siguiente gráfica la tendencia de la
última década es Clara cuando pasamos de
las p1 a las v100 y luego a las a100 y
recientemente a la arquitectura hopper
con las famosas H100 la tendencia con la
que nos encontramos es esta en cosa de
una década el rendimiento de estos chips
se ha multiplicado por 1000 una mejora
de rendimiento que como ya he indicado
antes viene a dar respuesta a una
necesidad del mercado de cada vez más
computación Pues para el entrenamiento y
la inferencia de Inteligencia artificial
algo que en los últimos dos años se ha
acentuado con la llegada de la ía
generativa y en concreto con los enormes
modelos del lenguaje para que os hagáis
una idea en el blog de semanalisis
estimaron que el pre trenamiento de gpt
4 se realizó sobre unos 25,000 chips de
nvidia a 100 de la generación anterior
per y este entrenamiento pues pudo
llevar entre unos 90 y 100 días por
comparar si esto se hubiera realizado
sobre las actuales H100 el pre
entrenamiento hubiera requerido solo
unas
8192 H100 funcionando más o menos la
mitad de tiempo esta reducción de tiempo
costo y de cantidad de tarjetas es
importantísima y de ahí que en 2023 tras
estallar la locura del boom de la guía
generativa empezara también la locura de
muchísimas empresas queriendo acceder a
los chips de nv
en silicon Valley la nueva moneda de
cambio se convirtió en el acceso a las
gpus a100 y H100 y el meme nos llevó
incluso la situación de hablar de los
Rich gpus los ricos en gpus las grandes
compañías tecnológicas que estaban
usando incluso su capacidad en
computación para traer a investigadores
a su empresa y los Poor gpus los pobres
en gpus que eran esas startups que solo
tenían acceso a cientos de gpus pobres
en gpus pero realmente me fastidia
reconocer ser que sí a la vista de las
últimas noticias que nos van llegando
pues empezamos a evidenciar que esta
diferencia entre Rich gpus y po gpus
existe ya que vemos como compañías como
meta recientemente han anunciado que
para finales de 2024 van a contar con
350,000 H100 compradas a envidia y que
sumadas a su infraestructura haría un
total de potencia equivalente a unas
600,000 H100 una auténtica barbaridad y
un movimiento que veremos replicado por
parte del resto de empresas y lo que
tenemos que entender es que el
entrenamiento de modelos tan
impresionantes como gpt cu ocurrió en
este periodo de transición donde los
centros de computación estaban basados
en chips v100 y a100 y es ahora cuando
todas estas grandes empresas se están
rearmando para que sus centros de
computación basados en H100 empiecen a
cocinar los futuros modelos de Última
Generación como dije el tablero de juego
la infraestructura ya está puesta y la
batalla por la Inteligencia artificial
ha
comenzado pero volvamos a los orígenes
porque cuando envidia comenzó a vender
gpu su primer consumidor erais vosotros
el público general que quizás nunca se
va a comprar una H100 pero sí una rtx
3060 para bueno jugar a videojuegos o
hacer trabajo gráfico intensivo aquí la
pregunta que me hago es bueno si estamos
entrando en la Nueva Era de la
Inteligencia artificial Cómo va a
evolucionar Cómo se va a adaptar todo
este Hardware de consumo a esta Nueva
Ola Pues realmente Esto es algo que ya
venimos viendo desde hace años la
evolución de las tarjetas gráficas de
consumo general principalmente en dos
aspectos el aumento de los tensor cores
y el aumento de memoria sobre los tensor
cores ya hablamos en un vídeo bastante
antiguo en el canal donde íbamos desde
los transistores y circuitería de un
procesador hasta conceptos como estos
tensor cores Pero bueno de forma
resumida estos núcleos tensoriales como
su nombre indica son núcleos
especializados para el procesamiento de
cálculo tensorial y multiplicación de
matrices de forma muy muy rápida algo
diseñado a nivel de Hardware
específicamente para acelerar el
entrenamiento e inferencia de los
modelos de Deep learning para así
decirlo estos tensor cores serían el
músculo que ponen a funcionar a las
redes neuronales y luego tenemos la
memoria un aspecto importantísimo que no
ha parado de crecer en los últimos años
la famosa vram y es que veamos Durante
los últimos años la tendencia de muchos
de los modelos de Deep learning ha sido
el ir creciendo más y más en tamaño y
aquí está la cosa ese tamaño es
importante porque si queremos
ejecutarlos en nuestras potentes gpus
usando nuestros potentes tensor cores lo
que necesitamos es que estos modelos
quepan en ellos que quepan los
parámetros y los datos que queramos
procesar y ahí la cantidad de u Ram es
el factor determinante y realmente a día
de hoy muchos de los modelos los Open
source que vosotros podéis Descargar y
empezar a utilizar en vuestros equipos
requieren de cada vez más y más memoria
Cuántos de vosotros os habréis
descargado un modelo en vuestro
ordenador y al ejecutarlo ha salido esto
de kuda out of Memory error y al final
si lo pensamos Este es el futuro al que
nos movemos un futuro donde cada vez
contaremos con más modelos Open source
modelos más capaces y donde vosotros
querréis poder ejecutarlos en vuestros
equipos y donde contar con una tarjeta
gráfica que sea lo suficientemente
potente pues va a ser necesario y esta
brecha de poder ejecutar los modelos de
inteligencia en local pues ya empieza a
estar patente un ejemplo que os sonará
la tecnología
dlss Deep learning super sampling la
vuelta a los orígenes de nvidia una
tecnología que aprovecha las técnicas de
superresolución con Deep learning pero
en este caso ha aplicado los fotogramas
de un videojuego el objetivo es quitarle
carga de trabajo a los procesos gráficos
de la gpu creando inicialmente un
renderizado a menor resolución que luego
aplicando Inteligencia artificial
podemos reescalar tanto espacialmente
como temporal para así darle al usuario
una experiencia en alta calidad con más
fps y donde actualmente las versiones
más modernas incluso incluyen tecnología
para la reconstrucción fiel de rayos de
Ray tracing una tecnología que quita
carga de trabajo a los procesos gráficos
de la gpu para dárselo a los tensor Core
y una experiencia de usuario diferente
dependiendo de si usa ca o no y claro
esto lo podemos extrapolar y llevárnoslo
al extremo a futuro donde el concepto de
tarjeta de vídeo se convierta en tarjeta
de vídeo generativa y donde sea legítimo
preguntarnos Cuántos píxeles de los que
aparecen en mi pantalla pues son reales
porque ya hemos visto casos de retoque
en tiempo real que van desde Bueno lo
que nos permiten hacer herramientas como
nvidia broadcast que nos permite
redirigir la dirección de las pupilas
para A lo mejor leer un teleprompter y
al mismo tiempo parecer que miras a
cámara hasta luego versiones más
extremas de esto donde los retoques en
tiempo real son mucho más agresivos o
situaciones donde directamente la
renderización de gráficos en tiempo real
por ordenador puede estar completamente
basada en ia generativa ya en el canal
hemos hablado en el pasado de
investigaciones por parte de envidia
como inst Nerf o neural Angelo que no
paran de dar pasos en el campo de la
renderización neural y que tiene como
objetivo el sustituir los pipelines de
procesamiento de gráficos tradicionales
por el uso de ia generativa algo que
todavía está lejos de ser mainstream
pero no tan lejos porque la ía
generativa para la creación de imágenes
vídeos 3D o música ya es una realidad
una realidad que desde hace un año
podemos ejecutar en nuestros ordenadores
y donde la tendencia claramente seguirá
siendo al alza en los próximos años
muchos de los trabajos creativos
requerirán del uso de estas herramientas
en local Y de nuevo Esto es algo que
envidia sabe que va a pasar y que ya
está empezando a potenciar hace unas
semanas presentaron a través de su
librería tensor RT la aceleración de
herramientas como stable diffusion XL
lcm Lora o stable video diffusion que
ahora pasarían a ser ejecutadas sobre
las gpus de nvidia siete veces más
rápidos que en un procesador m2 de Apple
Y de nuevo contar aquí con una gpu
compatible Es decir de nvidia Es
indispensable y lo mismo pasa cuando
hablamos de enormes modelos del lenguaje
cada vez más el panorama Open source nos
va regalando modelos que se se van
acercando en rendimiento a lo que
modelos privados como gpt 4 nos puede
ofrecer Y eso significa Imagínate que en
un futuro cercano tú no vas a tener que
pagar a Open Ai si quieres programar con
una de estas sillas en tu trabajo para
generar código no directamente tú lo
ejecutará en local gratis sin ningún
límite ni compromiso y esto es lo que
hace para mí entender Pues cómo va a
evolucionar las necesidades de vosotros
de los consumidores y por tanto las
necesidades del mercado
cada vez más profesionales demandarán
estas características estas
funcionalidades basadas en Inteligencia
artificial y ahí nvidia está muy bien
posicionada para poder ofrecer el
Hardware necesario para poder
ejecutarlas yo Esto me lo imagino un
poco como lo de rtx on rtx of pero en
este caso Ai on Ai off donde tu
ordenador te dará una mejor experiencia
o peor experiencia en función de si
puede ejecutar todos estos modelos en
local y nvidia esto lo sabe muy pero que
muy bien que va a generar esta necesidad
por parte de los consumidores No por
nada se llaman envidia y por eso
trabajan tanto investigando y
desarrollando en el campo del Deep
learning para traer más y mejores
experiencias nuevas por ejemplo
justamente ayer sacaron una herramienta
gratuita llamada chat with rtx una
herramienta que te va a permitir
utilizar cualquier modelo del lenguaje
Open source en tu ordenador y con
capacidad de conectarlo a tus datos a
tus documentos a un vídeo de YouTube
para poder interactuar con esta fuente
de información suena muy interesante
quieres probarlo Pues solo te hace falta
una cosa pasar por caja y podemos seguir
encontrando ejemplos ejemplos donde
nvidia ilustra Cómo podría ser el futuro
de la industria de los videojuegos
cuando empieza a introducir conceptos
como los
nnpc neural Non playable characters
nombre que me acabo de inventar pero que
está muy bien para este concepto que
sabemos todos que va a acabar llegando
el momento en el que en un videojuego te
encuentres a un personaje cuyo diálogo
cuya voz movimientos se vayan generando
en tiempo real a través de lo que el
Avatar percibe con sus modelos de ía
permitiéndole interactuar de forma
natural
contigo esto es un concepto que envidia
presenta para marcarle el camino a la
industria de videojuegos para decirle Ey
Mira esto se puede hacer podría ser
Interesante pero lo interesante
realmente aquí es ver cuáles son las dos
opciones que tenemos para implementar
algo así una opción como hemos visto
sería que cuando tú te instales el
videojuego este descargue en tu
ordenador Pues todos los modelos de
visión de voz de lenguaje necesarios
para poder hacer todo este proceso y que
tú cuentes con una tarjeta gráfica que
los pueda ejecutar si cuentas con el
Hardware vivirás esta experiencia
cognitiva aumentada o a lo mejor no a lo
mejor empresa de videojuegos quiere
ofrecerle este servicio a todos sus
jugadores y en ese caso se ejecutarían
todos estos modelos en la nube una nube
que requerirá de una computación que
nvidia puede ofrecer a través de sus
chips Y es que la revolución del Deep
learning como hemos visto en este vídeo
no se puede entender sin el mercado de
semiconductores un mercado que A falta
de competidores que puedan ganar esta
ventaja competitiva que sabemos que
nvidia tiene pues hace que como he
comentado al principio en esta batalla
de ajedrez por ahora envidia
gane Y qué podemos esperar a futuro de
envidia Pues no lo sé no lo sabemos pero
no vamos a tardar mucho en saberlo y es
que el mes de marzo se va a volver a
celebrar el gtc el gran evento que
celebra envidia para presentar todas las
novedades y en esta ocasión y este vídeo
me viene perfecto para anunciarlo mecía
mucha ilusión decirlo voy a asistir
físicamente a San Francisco a San José
para poder estar allí vivirlo y traeros
todas las novedades con suerte incluso
hasta me sac un selfie con jensen Juan
sobre todo esto ya os contaré más
información a futuro pero sí os digo que
estéis atentos a mis redes sociales
donde en estos días pues publicaré más
información sobre el gtc y pondremos el
sorteo habitual de tarjeta gráficas que
hacemos para celebrar esta fecha tan
importante quería aprovechar la temática
de este vídeo para contar todo esto
porque creo que está muy bien
relacionado me hace mucha ilusión poder
asistir al gtc y poder traeros todo el
avance que se produzca por parte de
envidia por parte del mercado de los
semiconductores y todas las novedades de
Deep learning como siempre hacemos aquí
chicos chicas nos vemos con más
Inteligencia artificial en el próximo
vídeo chao