NVIDIA Gana la BATALLA de la Inteligencia Artificial

Duration

21:48

Captions

1

Language

ES

Published

Feb 14, 2024

Description

NVIDIA es hoy lider en la guerra por la IA, por encima de Google, OpenAI o Microsoft. ¿Por qué? Pues porque cuenta con la ventaja tanto por el lado del consumidor como del proveedor de IAaaS de poder ofrecer la infraestructura para ejecutar todos los avances de Inteligencia Artificial que aparecen. Hoy en el vídeo vamos a analizar esto en detalle. ► Descubre los mejores productos con tarjetas gráficas GeForce RTX para IA: https://bit.ly/DotCSVRTXIA 📹 EDICIÓN: Carlos Santana y Diego Gonzalez (Diocho) --- ¡MÁS DOTCSV! ---- 📣 NotCSV - ¡Canal Secundario! https://www.youtube.com/c/notcsv 💸 Patreon : https://www.patreon.com/dotcsv 👓 Facebook : https://www.facebook.com/AI.dotCSV/ 👾 Twitch!!! : https://www.twitch.tv/dotcsv 🐥 Twitter : https://twitter.com/dotCSV 📸 Instagram : https://www.instagram.com/dotcsv/ -- ¡MÁS CIENCIA! --- 🔬 Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí: http://scenio.es/colaboradores

Captions (1)

00:02

que no te confunda el silencio de las

00:04

últimas semanas porque en el mundo de la

00:06

Inteligencia artificial se está viviendo

00:08

una batalla Industrial sin precedentes

00:11

una batalla donde la i ha puesto a

00:13

grandes empresas como Microsoft o Google

00:16

a bailar luchando por sus mercados

00:18

habituales Sí pero también por los

00:20

nuevos mercados que emergen un juego

00:22

donde los grandes laboratorios de

00:24

Inteligencia artificial han tomado parte

00:25

y donde ponen todos sus recursos a

00:27

trabajar para entrenar mejores y más

00:30

potentes cerebros artificiales y una

00:33

batalla donde nuevos jugadores compiten

00:35

ferozmente por hacerse un hueco en el

00:37

tablero para así poder ser también

00:39

partícipes de una nueva Revolución

00:40

Industrial que ya ha comenzado todo esto

00:43

lo podemos ver ahora como una gran

00:45

partida de ajedres donde ahora todos

00:47

compiten pero donde el que gana es el

00:50

dueño del tablero hablemos de envidia

01:02

originalmente esto no era así en la

01:05

década de los 2000 nvidia estaba

01:07

únicamente enfocada en producir Hardware

01:10

para el procesamiento de gráficos por

01:11

ordenador en tiempo real principalmente

01:14

orientada al mercado Gaming ya sabéis el

01:16

usar la tarjeta gráfica como un

01:18

procesador especializado que ayudara a

01:20

aliviar la carga de trabajo de la cpu

01:23

Pero a medida que las gpu se volvían

01:24

cada vez más avanzadas los ingenieros

01:27

empezaron a notar que ahí había más

01:30

encial que se podía aprovechar el

01:32

potencial del procesamiento en paralelo

01:35

y fue esto la realización de que esta

01:37

aceleración por Hardware podría ser útil

01:39

Más allá de mover polígonos de colores

01:41

por la pantalla lo que hizo reorientar

01:43

la estrategia de envidia hacia el

01:45

concepto de GP gpu la utilización de las

01:49

gpus para uso de propósito general es

01:51

decir permitir aprovechar el potencial

01:53

del procesamiento en paralelo de las

01:55

gpus más allá de los gráficos por

01:57

ordenador para que ahora cualquiera

01:58

pudiera desarrollar aplicaciones que se

02:00

beneficiara de esto aplicaciones como

02:03

criptografía análisis de datos

02:05

simuladores científicos o Deep learning

02:07

suena bien no Bueno pues la cosa no era

02:10

tan sencilla la dificultad es que si tú

02:12

querías programar a la gpu para hacer

02:14

por ejemplo una aplicación científica

02:16

Pues un simulador molecular claro

02:19

originalmente tú tenías que darle

02:21

instrucciones a un cacharro que estaba

02:23

pensado para gráficos por computador y

02:26

por tanto tenías que adaptar tu código a

02:28

las instrucciones gráficas de la tarjeta

02:31

y esto es como intentar dar órdenes para

02:33

ha ser una tarea compleja un simulador

02:35

molecular hablando directamente con un

02:38

pintor complicado y ahí fue cuando

02:41

nvidia en 2007 introdujo los cambios

02:44

necesarios para que ahora sí pues

02:46

pudieras instruir a la tarjeta gráfica

02:48

de forma más entendible como si hablara

02:50

directamente con un programador este

02:52

nuevo personaje esta nueva forma de

02:54

hablar con la gpu era

02:57

cuda kuda a muchos de vosotros os sonará

03:01

ya sea porque habéis programado

03:02

directamente para la gpu o por todas las

03:05

veces que os habéis peleado instalando

03:07

las librerías de kuda cuando queríais

03:08

probar algún proyecto de Deep learning Y

03:10

es que sí la historia del Deep learning

03:12

y de kuda está mucho más entrelazada de

03:15

lo que podríamos imaginar pero este fue

03:17

un noviazgo que tardó unos cuantos años

03:19

en ocurrir la cosa es la siguiente

03:22

Cuando tenemos una red neuronal la

03:23

información Se va procesando capa tras

03:25

Capa en diferentes neuronas

03:27

multiplicando y sumando la información

03:29

al final como las neuronas de una misma

03:31

capa no dependen de las otras neuronas

03:33

en dicha capa pues cada una puede hacer

03:35

su cálculo independientemente en

03:37

paralelo y también como los datos de

03:40

entrada en cada lote se van a procesar

03:42

de forma independiente pues esta es una

03:44

ejecución que también podemos procesar

03:46

en paralelo paralelizar paralelizar y

03:49

paralelizar y así si nos damos cuenta es

03:51

como nos vamos encontrando formas de ir

03:53

paralelizado la ejecución de las redes

03:55

neuronales para que el trabajo en vez de

03:57

hacerlo secuencialmente tenía tenendo

04:00

que esperar por la ejecución previa

04:01

ahora se pueda hacer simultáneamente

04:04

algo que de forma drástica acelera la

04:06

ejecución además también da la

04:08

casualidad de que en muchos casos

04:10

procesar gráficos por ordenador equivale

04:12

a multiplicar las matrices y vectores

04:14

que representan a cada polígono matrices

04:17

y vectores que también encontramos en

04:19

las redes neuronales Cuando tenemos que

04:21

procesar los datos a través de las

04:23

diferentes capas de matrices de

04:24

parámetros ejecutar redes neuronales Y

04:27

representar gráficos por ordenador no

04:29

están diferente simplemente multiplicar

04:31

vectores y matrices con lo cual sin

04:34

quererlo ni beberlo ya en 2010

04:36

contábamos con estas gpus que eran aptas

04:38

para realizar tareas de propósito

04:40

general y que eran muy adecuadas para el

04:42

entrenamiento de un tipo de algoritmo

04:44

que Oye parecía que podía tener

04:46

potencial dentro del campo de la

04:48

Inteligencia artificial las redes

04:50

neuronales artificiales y fue en 2012

04:54

cuando un equipo de investigadores en el

04:56

que encontramos a joffrey Hinton a ilas

04:58

zkber y Alex krichevsky que usaron

05:01

varias gpus para el entrenamiento de una

05:04

red neuronal bautizada como alexnet la

05:07

presentaron a una competición de

05:09

análisis de imágenes donde laboratorios

05:11

de todo el mundo pues proponían sus

05:13

soluciones y donde esta fue una de las

05:15

primeras basadas en técnicas de Deep

05:17

learning el resultado pulverizar por

05:20

completo al resto de equipos y esta fue

05:23

una de las primeras ocasiones donde

05:24

quedó indudablemente claro el potencial

05:27

de las redes neuronales artificiales el

05:29

punto en el tiempo en el que muchos

05:30

sitúan el comienzo de la revolución del

05:33

Deep learning del Deep learning y las

05:35

tarjetas gráficas porque uno de los

05:37

puntos claves de este trabajo fue el uso

05:39

de las gpus para acelerar el

05:41

entrenamiento de lo que por aquella

05:42

época eran grandes redes neuronales el

05:44

equipo tras alexnet utilizó el poder de

05:47

la ejecución en paralelo para agilizar

05:49

drásticamente los tiempos de

05:51

entrenamiento y permitirse así el poder

05:53

entrenar una arquitectura de mayor

05:54

tamaño y con más datos Y a partir de ese

05:57

momento pues como se suele decir el

05:59

resto ha sido

06:06

historia toda esta época del Deep

06:09

learning que ahora vemos con mucha

06:10

nostalgia no hubiera sido posible sin el

06:12

desarrollo en paralelo del mercado de

06:16

las tarjetas gráficas y junto al

06:18

crecimiento del sector del Deep learning

06:20

y el crecimiento en tamaño y capacidad

06:22

de los modelos envidia también

06:26

creció de hecho ya hablamos de todo esto

06:28

en este vídeo de aquí de hace 3 años

06:31

donde os presenté la premonitoria ley de

06:34

Juan una ley empírica que en este caso

06:37

toma el apellido del seo de envidia

06:39

jensen Juan para compararse a la famosa

06:41

ley de mur la ley que supo predecir como

06:45

el número de transistores de los

06:46

microprocesadores que usamos en todos

06:48

nuestros dispositivos se iba a ir

06:50

duplicando cada 2s años haciendo que

06:53

cada dos años estos chips fueran más

06:55

capaces y eficientes pues en este caso

06:57

la ley de Juan se centra con como no en

07:00

los procesadores gráficos en la gpus y

07:02

lo que nos dice es que a pesar de que a

07:04

la ley de mur cada vez le cuesta más

07:06

cumplir con su cita por los límites que

07:08

la propia física impone a pesar de eso

07:10

el progreso de las gpus iban a seguir un

07:13

camino diferente un camino donde su

07:16

rendimiento se duplicaría cada año y

07:18

esto es curioso si lo pensáis porque al

07:20

final la ley de Juan depende fuertemente

07:23

de la ley de mur es decir el desarrollo

07:25

de las gpus pues está estrechamente

07:27

ligado con que podamos seguir

07:29

miniaturizado los transistores en los

07:31

chips No pues no solo depende de eso

07:34

también podemos encontrar un montón de

07:36

técnicas de optimizaciones de mejoras en

07:38

las arquitecturas de los chips que

07:39

exploten el potencial de la computación

07:41

en paralelo y en concreto su aplicación

07:43

para Inteligencia artificial Ahí es

07:46

donde encontramos muchas muchas

07:48

ganancias y t cual lo planteó y en San

07:50

Juan en 2019 la cosa estaba así

08:00

and in fact if you take a Look at Our

08:03

progress This is really quite Amazing

08:05

Our progress Over The Last 5 years 5

08:09

years ago k80 servers If trained on

08:12

Resident 50 would have taken 600 hours

08:15

training this model 600 hours we Now Do

08:17

it in two Now when you compound All of

08:20

that it's basically some 30x over 5

08:25

years and so This is doubling Every

08:28

single year

08:32

Pero esto era 2019 a partir de ese

08:34

momento se ha seguido cumpliendo esta

08:36

predicción pues Mirad si visualizamos la

08:39

siguiente gráfica la tendencia de la

08:41

última década es Clara cuando pasamos de

08:44

las p1 a las v100 y luego a las a100 y

08:47

recientemente a la arquitectura hopper

08:49

con las famosas H100 la tendencia con la

08:52

que nos encontramos es esta en cosa de

08:55

una década el rendimiento de estos chips

08:57

se ha multiplicado por 1000 una mejora

09:00

de rendimiento que como ya he indicado

09:02

antes viene a dar respuesta a una

09:03

necesidad del mercado de cada vez más

09:06

computación Pues para el entrenamiento y

09:08

la inferencia de Inteligencia artificial

09:10

algo que en los últimos dos años se ha

09:12

acentuado con la llegada de la ía

09:14

generativa y en concreto con los enormes

09:16

modelos del lenguaje para que os hagáis

09:18

una idea en el blog de semanalisis

09:20

estimaron que el pre trenamiento de gpt

09:23

4 se realizó sobre unos 25,000 chips de

09:26

nvidia a 100 de la generación anterior

09:29

per y este entrenamiento pues pudo

09:31

llevar entre unos 90 y 100 días por

09:33

comparar si esto se hubiera realizado

09:35

sobre las actuales H100 el pre

09:37

entrenamiento hubiera requerido solo

09:39

unas

09:40

8192 H100 funcionando más o menos la

09:44

mitad de tiempo esta reducción de tiempo

09:46

costo y de cantidad de tarjetas es

09:48

importantísima y de ahí que en 2023 tras

09:51

estallar la locura del boom de la guía

09:53

generativa empezara también la locura de

09:55

muchísimas empresas queriendo acceder a

09:58

los chips de nv

09:59

en silicon Valley la nueva moneda de

10:01

cambio se convirtió en el acceso a las

10:03

gpus a100 y H100 y el meme nos llevó

10:06

incluso la situación de hablar de los

10:08

Rich gpus los ricos en gpus las grandes

10:11

compañías tecnológicas que estaban

10:13

usando incluso su capacidad en

10:15

computación para traer a investigadores

10:17

a su empresa y los Poor gpus los pobres

10:20

en gpus que eran esas startups que solo

10:23

tenían acceso a cientos de gpus pobres

10:26

en gpus pero realmente me fastidia

10:28

reconocer ser que sí a la vista de las

10:30

últimas noticias que nos van llegando

10:32

pues empezamos a evidenciar que esta

10:34

diferencia entre Rich gpus y po gpus

10:37

existe ya que vemos como compañías como

10:40

meta recientemente han anunciado que

10:42

para finales de 2024 van a contar con

10:46

350,000 H100 compradas a envidia y que

10:50

sumadas a su infraestructura haría un

10:52

total de potencia equivalente a unas

10:54

600,000 H100 una auténtica barbaridad y

10:58

un movimiento que veremos replicado por

11:00

parte del resto de empresas y lo que

11:03

tenemos que entender es que el

11:04

entrenamiento de modelos tan

11:05

impresionantes como gpt cu ocurrió en

11:08

este periodo de transición donde los

11:10

centros de computación estaban basados

11:12

en chips v100 y a100 y es ahora cuando

11:16

todas estas grandes empresas se están

11:18

rearmando para que sus centros de

11:20

computación basados en H100 empiecen a

11:23

cocinar los futuros modelos de Última

11:25

Generación como dije el tablero de juego

11:28

la infraestructura ya está puesta y la

11:31

batalla por la Inteligencia artificial

11:33

ha

11:34

comenzado pero volvamos a los orígenes

11:36

porque cuando envidia comenzó a vender

11:38

gpu su primer consumidor erais vosotros

11:41

el público general que quizás nunca se

11:43

va a comprar una H100 pero sí una rtx

11:46

3060 para bueno jugar a videojuegos o

11:49

hacer trabajo gráfico intensivo aquí la

11:51

pregunta que me hago es bueno si estamos

11:53

entrando en la Nueva Era de la

11:55

Inteligencia artificial Cómo va a

11:57

evolucionar Cómo se va a adaptar todo

11:58

este Hardware de consumo a esta Nueva

12:01

Ola Pues realmente Esto es algo que ya

12:03

venimos viendo desde hace años la

12:06

evolución de las tarjetas gráficas de

12:07

consumo general principalmente en dos

12:09

aspectos el aumento de los tensor cores

12:12

y el aumento de memoria sobre los tensor

12:14

cores ya hablamos en un vídeo bastante

12:17

antiguo en el canal donde íbamos desde

12:19

los transistores y circuitería de un

12:21

procesador hasta conceptos como estos

12:23

tensor cores Pero bueno de forma

12:25

resumida estos núcleos tensoriales como

12:28

su nombre indica son núcleos

12:30

especializados para el procesamiento de

12:32

cálculo tensorial y multiplicación de

12:34

matrices de forma muy muy rápida algo

12:37

diseñado a nivel de Hardware

12:39

específicamente para acelerar el

12:41

entrenamiento e inferencia de los

12:43

modelos de Deep learning para así

12:45

decirlo estos tensor cores serían el

12:47

músculo que ponen a funcionar a las

12:49

redes neuronales y luego tenemos la

12:51

memoria un aspecto importantísimo que no

12:54

ha parado de crecer en los últimos años

12:56

la famosa vram y es que veamos Durante

13:00

los últimos años la tendencia de muchos

13:02

de los modelos de Deep learning ha sido

13:04

el ir creciendo más y más en tamaño y

13:07

aquí está la cosa ese tamaño es

13:09

importante porque si queremos

13:11

ejecutarlos en nuestras potentes gpus

13:13

usando nuestros potentes tensor cores lo

13:16

que necesitamos es que estos modelos

13:18

quepan en ellos que quepan los

13:20

parámetros y los datos que queramos

13:22

procesar y ahí la cantidad de u Ram es

13:25

el factor determinante y realmente a día

13:27

de hoy muchos de los modelos los Open

13:29

source que vosotros podéis Descargar y

13:31

empezar a utilizar en vuestros equipos

13:33

requieren de cada vez más y más memoria

13:35

Cuántos de vosotros os habréis

13:37

descargado un modelo en vuestro

13:38

ordenador y al ejecutarlo ha salido esto

13:40

de kuda out of Memory error y al final

13:44

si lo pensamos Este es el futuro al que

13:46

nos movemos un futuro donde cada vez

13:48

contaremos con más modelos Open source

13:50

modelos más capaces y donde vosotros

13:53

querréis poder ejecutarlos en vuestros

13:55

equipos y donde contar con una tarjeta

13:57

gráfica que sea lo suficientemente

13:59

potente pues va a ser necesario y esta

14:01

brecha de poder ejecutar los modelos de

14:03

inteligencia en local pues ya empieza a

14:06

estar patente un ejemplo que os sonará

14:08

la tecnología

14:10

dlss Deep learning super sampling la

14:14

vuelta a los orígenes de nvidia una

14:16

tecnología que aprovecha las técnicas de

14:18

superresolución con Deep learning pero

14:20

en este caso ha aplicado los fotogramas

14:22

de un videojuego el objetivo es quitarle

14:24

carga de trabajo a los procesos gráficos

14:26

de la gpu creando inicialmente un

14:29

renderizado a menor resolución que luego

14:31

aplicando Inteligencia artificial

14:33

podemos reescalar tanto espacialmente

14:35

como temporal para así darle al usuario

14:37

una experiencia en alta calidad con más

14:39

fps y donde actualmente las versiones

14:42

más modernas incluso incluyen tecnología

14:44

para la reconstrucción fiel de rayos de

14:46

Ray tracing una tecnología que quita

14:48

carga de trabajo a los procesos gráficos

14:50

de la gpu para dárselo a los tensor Core

14:53

y una experiencia de usuario diferente

14:55

dependiendo de si usa ca o no y claro

14:58

esto lo podemos extrapolar y llevárnoslo

15:00

al extremo a futuro donde el concepto de

15:03

tarjeta de vídeo se convierta en tarjeta

15:05

de vídeo generativa y donde sea legítimo

15:08

preguntarnos Cuántos píxeles de los que

15:10

aparecen en mi pantalla pues son reales

15:12

porque ya hemos visto casos de retoque

15:14

en tiempo real que van desde Bueno lo

15:16

que nos permiten hacer herramientas como

15:18

nvidia broadcast que nos permite

15:20

redirigir la dirección de las pupilas

15:22

para A lo mejor leer un teleprompter y

15:23

al mismo tiempo parecer que miras a

15:25

cámara hasta luego versiones más

15:27

extremas de esto donde los retoques en

15:30

tiempo real son mucho más agresivos o

15:33

situaciones donde directamente la

15:34

renderización de gráficos en tiempo real

15:36

por ordenador puede estar completamente

15:38

basada en ia generativa ya en el canal

15:41

hemos hablado en el pasado de

15:42

investigaciones por parte de envidia

15:44

como inst Nerf o neural Angelo que no

15:47

paran de dar pasos en el campo de la

15:49

renderización neural y que tiene como

15:51

objetivo el sustituir los pipelines de

15:53

procesamiento de gráficos tradicionales

15:55

por el uso de ia generativa algo que

15:58

todavía está lejos de ser mainstream

16:01

pero no tan lejos porque la ía

16:03

generativa para la creación de imágenes

16:05

vídeos 3D o música ya es una realidad

16:09

una realidad que desde hace un año

16:11

podemos ejecutar en nuestros ordenadores

16:13

y donde la tendencia claramente seguirá

16:15

siendo al alza en los próximos años

16:17

muchos de los trabajos creativos

16:19

requerirán del uso de estas herramientas

16:21

en local Y de nuevo Esto es algo que

16:23

envidia sabe que va a pasar y que ya

16:25

está empezando a potenciar hace unas

16:28

semanas presentaron a través de su

16:29

librería tensor RT la aceleración de

16:32

herramientas como stable diffusion XL

16:34

lcm Lora o stable video diffusion que

16:38

ahora pasarían a ser ejecutadas sobre

16:40

las gpus de nvidia siete veces más

16:42

rápidos que en un procesador m2 de Apple

16:45

Y de nuevo contar aquí con una gpu

16:48

compatible Es decir de nvidia Es

16:51

indispensable y lo mismo pasa cuando

16:53

hablamos de enormes modelos del lenguaje

16:55

cada vez más el panorama Open source nos

16:57

va regalando modelos que se se van

16:59

acercando en rendimiento a lo que

17:01

modelos privados como gpt 4 nos puede

17:03

ofrecer Y eso significa Imagínate que en

17:06

un futuro cercano tú no vas a tener que

17:08

pagar a Open Ai si quieres programar con

17:10

una de estas sillas en tu trabajo para

17:12

generar código no directamente tú lo

17:15

ejecutará en local gratis sin ningún

17:18

límite ni compromiso y esto es lo que

17:20

hace para mí entender Pues cómo va a

17:23

evolucionar las necesidades de vosotros

17:25

de los consumidores y por tanto las

17:27

necesidades del mercado

17:29

cada vez más profesionales demandarán

17:31

estas características estas

17:33

funcionalidades basadas en Inteligencia

17:35

artificial y ahí nvidia está muy bien

17:37

posicionada para poder ofrecer el

17:39

Hardware necesario para poder

17:41

ejecutarlas yo Esto me lo imagino un

17:43

poco como lo de rtx on rtx of pero en

17:46

este caso Ai on Ai off donde tu

17:48

ordenador te dará una mejor experiencia

17:50

o peor experiencia en función de si

17:53

puede ejecutar todos estos modelos en

17:55

local y nvidia esto lo sabe muy pero que

17:57

muy bien que va a generar esta necesidad

18:00

por parte de los consumidores No por

18:02

nada se llaman envidia y por eso

18:04

trabajan tanto investigando y

18:05

desarrollando en el campo del Deep

18:07

learning para traer más y mejores

18:09

experiencias nuevas por ejemplo

18:12

justamente ayer sacaron una herramienta

18:14

gratuita llamada chat with rtx una

18:17

herramienta que te va a permitir

18:19

utilizar cualquier modelo del lenguaje

18:21

Open source en tu ordenador y con

18:23

capacidad de conectarlo a tus datos a

18:26

tus documentos a un vídeo de YouTube

18:28

para poder interactuar con esta fuente

18:30

de información suena muy interesante

18:32

quieres probarlo Pues solo te hace falta

18:34

una cosa pasar por caja y podemos seguir

18:37

encontrando ejemplos ejemplos donde

18:39

nvidia ilustra Cómo podría ser el futuro

18:41

de la industria de los videojuegos

18:43

cuando empieza a introducir conceptos

18:44

como los

18:45

nnpc neural Non playable characters

18:49

nombre que me acabo de inventar pero que

18:50

está muy bien para este concepto que

18:52

sabemos todos que va a acabar llegando

18:55

el momento en el que en un videojuego te

18:57

encuentres a un personaje cuyo diálogo

18:59

cuya voz movimientos se vayan generando

19:02

en tiempo real a través de lo que el

19:04

Avatar percibe con sus modelos de ía

19:07

permitiéndole interactuar de forma

19:08

natural

19:23

contigo esto es un concepto que envidia

19:26

presenta para marcarle el camino a la

19:27

industria de videojuegos para decirle Ey

19:30

Mira esto se puede hacer podría ser

19:32

Interesante pero lo interesante

19:33

realmente aquí es ver cuáles son las dos

19:35

opciones que tenemos para implementar

19:37

algo así una opción como hemos visto

19:39

sería que cuando tú te instales el

19:41

videojuego este descargue en tu

19:43

ordenador Pues todos los modelos de

19:44

visión de voz de lenguaje necesarios

19:47

para poder hacer todo este proceso y que

19:49

tú cuentes con una tarjeta gráfica que

19:51

los pueda ejecutar si cuentas con el

19:53

Hardware vivirás esta experiencia

19:55

cognitiva aumentada o a lo mejor no a lo

19:58

mejor empresa de videojuegos quiere

19:59

ofrecerle este servicio a todos sus

20:01

jugadores y en ese caso se ejecutarían

20:03

todos estos modelos en la nube una nube

20:06

que requerirá de una computación que

20:08

nvidia puede ofrecer a través de sus

20:11

chips Y es que la revolución del Deep

20:13

learning como hemos visto en este vídeo

20:15

no se puede entender sin el mercado de

20:18

semiconductores un mercado que A falta

20:20

de competidores que puedan ganar esta

20:22

ventaja competitiva que sabemos que

20:24

nvidia tiene pues hace que como he

20:26

comentado al principio en esta batalla

20:28

de ajedrez por ahora envidia

20:38

gane Y qué podemos esperar a futuro de

20:41

envidia Pues no lo sé no lo sabemos pero

20:45

no vamos a tardar mucho en saberlo y es

20:47

que el mes de marzo se va a volver a

20:49

celebrar el gtc el gran evento que

20:52

celebra envidia para presentar todas las

20:54

novedades y en esta ocasión y este vídeo

20:56

me viene perfecto para anunciarlo mecía

20:58

mucha ilusión decirlo voy a asistir

21:01

físicamente a San Francisco a San José

21:03

para poder estar allí vivirlo y traeros

21:06

todas las novedades con suerte incluso

21:08

hasta me sac un selfie con jensen Juan

21:11

sobre todo esto ya os contaré más

21:12

información a futuro pero sí os digo que

21:14

estéis atentos a mis redes sociales

21:16

donde en estos días pues publicaré más

21:18

información sobre el gtc y pondremos el

21:21

sorteo habitual de tarjeta gráficas que

21:23

hacemos para celebrar esta fecha tan

21:25

importante quería aprovechar la temática

21:27

de este vídeo para contar todo esto

21:28

porque creo que está muy bien

21:29

relacionado me hace mucha ilusión poder

21:32

asistir al gtc y poder traeros todo el

21:34

avance que se produzca por parte de

21:36

envidia por parte del mercado de los

21:38

semiconductores y todas las novedades de

21:40

Deep learning como siempre hacemos aquí

21:42

chicos chicas nos vemos con más

21:44

Inteligencia artificial en el próximo

21:46

vídeo chao

Video Information

YouTube ID: oypdocrbTOE
Added: Oct 9, 2025
Last Updated: 5 months ago