"LA GENTE NO SE IMAGINA LO QUE VIENE" - Reaccionando al fundador de Open IA Ilia Sutskever

Duration

14:48

Captions

1

Language

ES

Published

Aug 9, 2025

Description

La inteligencia artificial (IA) ha revolucionado nuestra forma de vivir, pero también introduce amenazas significativas que demandan atención urgente. Una de las principales preocupaciones es el desplazamiento laboral, ya que la automatización puede eliminar millones de empleos en sectores como manufactura, transporte y servicios, generando desempleo y desigualdad económica al concentrar el poder en corporaciones que dominan esta tecnología. Los sistemas de IA, entrenados con datos sesgados, pueden perpetuar discriminaciones contra grupos vulnerables, mientras que su opacidad, al actuar como "cajas negras", dificulta entender cómo toman decisiones. La privacidad está en riesgo, pues la IA recopila y analiza grandes volúmenes de datos personales, facilitando la vigilancia masiva por parte de gobiernos o empresas, lo que puede restringir libertades individuales. Además, tecnologías como los deepfakes, creados con IA, permiten generar contenido falso hiperrealista, útil para desinformación, extorsión o manipulación psicológica a gran escala, como en campañas electorales o redes sociales, donde los algoritmos amplifican noticias falsas y polarización. La dependencia excesiva de la IA podría erosionar habilidades humanas, como la creatividad o la interacción social, y fomentar adicciones tecnológicas mediante interfaces personalizadas. En términos de seguridad, los errores en sistemas de IA aplicados a salud o transporte pueden tener consecuencias fatales, y su vulnerabilidad a ciberataques pone en riesgo infraestructuras críticas. Las armas autónomas, como drones letales, plantean dilemas éticos y riesgos de escalada en conflictos. La falta de regulación global y de rendición de cuentas complica atribuir responsabilidades cuando la IA causa daños, mientras que los marcos legales actuales no están preparados para abordar delitos relacionados con esta tecnología. A nivel global, el acceso desigual a la IA podría agravar la brecha entre países desarrollados y en desarrollo. El impacto ambiental del entrenamiento de modelos de IA, que consume enormes cantidades de energía, contribuye al cambio climático. En el ámbito ético, la falta de diversidad en los equipos de desarrollo limita las perspectivas, y experimentos sin supervisión podrían tener consecuencias imprevistas. En un escenario extremo, una superinteligencia mal alineada con valores humanos podría actuar de forma impredecible, representando un riesgo existencial. Por ello, es crucial implementar regulaciones, fomentar el desarrollo ético y educar a la sociedad para mitigar estas amenazas y aprovechar el potencial transformador de la IA de manera responsable. Enlace a mi nuevo canal vídeo blog “MANUAL”: https://www.youtube.com/@jfcaleroMANUAL Mis Aparatos y equipos imprescindibles para trabajar y vivir: https://www.amazon.es/shop/juanfranciscocalero-clubonmotor Apóyame para hacer más y mejores vídeos en PATREON. Sé mi mentor: https://www.patreon.com/jfcalero Sígueme en INSTAGRAM, TWITTER o AMBAS, súperfácil: @jfcalero No te vayas a la cama sin saber algo más, o al menos sin saber algo nuevo. Si lo hiciste, misión cumplida, gracias por acompañarme. #calerocascaron #cascarondenuez #calero

Captions (1)

00:00

¿Qué tal, mis queridos amigos?

00:01

Bienvenidos a un nuevo viaje en el

00:02

Cascarón de Nuez. Soy demasiado viejo

00:06

para ser un pionero. Soy demasiado joven

00:09

para poder conquistar y explorar el

00:11

universo y estoy justo en el momento en

00:14

el que voy a asistir a la caída de la

00:16

civilización humana. Esta frase, esta

00:19

expresión no es mía. La he leído de un

00:22

personaje anónimo en un comentario en la

00:25

documentación que estado haciendo para

00:26

grabar este vídeo. Y esta persona se

00:29

refería precisamente a los cambios que

00:31

están aconteciendo y que van a acontecer

00:33

en lo que se refiere directa y

00:34

potencialmente a la estructura y a lo

00:36

que puede ser el futuro de la humanidad

00:39

vinculado al auge, crecimiento y quién

00:41

sabe si toma el control de la

00:43

inteligencia artificial. Sí, estamos

00:44

hablando de la inteligencia artificial y

00:46

en este vídeo precisamente quería hacer

00:48

un repaso a las palabras que han hecho

00:50

dos de las personas más reputadas

00:52

alrededor del desarrollo de la

00:54

inteligencia artificial, que ambas

00:56

comparten una particularidad muy

00:57

importante. Ambas han estado sentadas a

01:00

la mesa de los lugares donde se decide

01:02

cómo, de qué manera se va a desarrollar,

01:05

de qué manera se va a poder hacer esto

01:07

rentable y cuáles son los potenciales

01:09

riesgos y beneficios que tiene el

01:11

desarrollo de una inteligencia

01:13

artificial superior. Me estoy refiriendo

01:15

a dos personas que han estado trabajando

01:17

en Open AI y en Google y estoy hablando

01:19

concretamente de Ilia Suskever y de Eric

01:22

Smith. Eric Smith quizá es bastante más

01:24

conocido porque durante muchos años ha

01:26

sido el CEO de Google. Ilia Sutber

01:28

precisamente es una persona mucho menos

01:30

conocida, pero ha trabajado en alguno de

01:31

los grandes gigantes de la tecnología.

01:33

Es exfundador de Open AI, es decir, la

01:36

empresa que posee Chat GPT y que ahora

01:38

mismo lidera por poquito el desarrollo

01:41

de la inteligencia artificial. Y este

01:42

Ilia es precisamente una de las

01:44

personas, como digo, más reputadas por

01:46

su increíble inteligencia y además por

01:48

su marchamo de independencia, una vez

01:50

que salió, abandonó todos estos mercados

01:52

y todos estos mundos y ahora vive para

01:55

ayudar a la gente, digamos, fuera de

01:56

estas grandes multinacionales. Una

01:58

persona que se considera tremendamente

02:00

inteligente, superdotada, podríamos

02:02

decir, para el desarrollo y la

02:03

computación y que abandonó este mundo en

02:06

Silicon Valley, un poco aburrido y

02:07

cansado del cariz y la dirección que

02:09

estaban tomando las cosas. Como sabes,

02:11

igualmente lo hemos contado en el canal.

02:13

Si eres seguidor del cascarón de nuez,

02:14

has visto como en los últimos 2 años te

02:16

hemos ido contando todos los retos que

02:18

tiene el mundo de la inteligencia

02:19

artificial en lo que se refiere a las

02:22

necesidades ingentes de energía que

02:24

requiere su desarrollo y cómo otros

02:26

están parasitando precisamente ese

02:28

trabajo en bruto para desarrollar

02:31

tecnologías mucho más ágiles, con mucha

02:33

menos energía. Eso por un lado. Y por

02:35

otro lado, la increíble cantidad de

02:37

dinero que gente como Mark Zuckerberg

02:38

está poniendo encima de la mesa de los

02:40

mejores ingenieros del mundo para

02:42

liderar esta carrera, abandonando, por

02:44

cierto, la inversión mil millonaria,

02:46

billonaria en términos de dólar, de meta

02:49

en lo que se refiere a los universos

02:52

artificiales, a ese mundo paralelo, en

02:54

la realidad virtual en la que él estuvo

02:57

apostando y poniendo tanto dinero para

02:59

ahora poner todas las fichas en el mundo

03:01

de la inteligencia artificial. y

03:03

concretamente en la inteligencia

03:04

artificial superior. ¿Y por qué te

03:07

cuento todo esto? Bueno, pues porque

03:08

recientemente estos dos personajes,

03:09

Erich Smith, precisamente y Ilia

03:12

Suskever, han dado conferencias, han

03:13

dado charlas donde han venido a subrayar

03:16

y desarrollar efectivamente los peligros

03:18

que corremos cuando la inteligencia

03:19

artificial alcance en ciertos estadios,

03:21

ciertos niveles que según a quién le

03:23

preguntes, aquí siempre estamos hablando

03:25

de apocalípticos e integrados, o sea,

03:27

hay dos tendencias muy claras. una

03:29

tendencia que dice que todo esto son

03:30

papaschas y que la inteligencia

03:31

artificial nunca va a superar a los

03:33

humanos ni que nos va a someter. Y otra

03:36

que habla de los potenciales peligros

03:38

que tiene la inteligencia artificial,

03:39

que son la mayoría de las personas que

03:41

precisamente están implicadas dentro de

03:43

ello. Algunos lo cuentan de una manera

03:44

más o menos clara como Elon Musk y otros

03:47

nos cuentan que efectivamente el riesgo

03:48

es muy grande, pero igualmente también

03:50

las oportunidades que vamos a tener son

03:51

brutales y sobre todo las oportunidades

03:53

de negocio para ellos también, por

03:55

supuesto, ¿no? Pero la cuestión es que

03:57

estos dos personajes y especialmente

03:58

Ilia, como digo, son personas que tienen

04:01

ahora la posibilidad de hablar libre y

04:02

lo que hablan es muy interesante y por

04:04

eso me voy a centrar en la conferencia

04:06

que ha dado en la Universidad de Toronto

04:08

este señor, porque muy pocas veces habla

04:10

en público, tiene una vida como

04:11

semirretirada y es muy interesante lo

04:13

que cuenta, ¿no? Y lo primero de todo

04:15

que te tengo que contar y que es

04:16

llamativo, que precisamente tú estés

04:18

pensando eso, que esto a mí no me va a

04:20

afectar, que esto me pilla ya muy mayor,

04:21

que yo ya lo tengo todo hecho, esto es

04:23

como la política, es decir, la

04:24

inteligencia artificial, aunque nosotros

04:26

le queramos dar la vuelta, nos va a

04:27

atrapar. nos va a atrapar y se va a

04:29

interesar por nosotros, aunque a

04:30

nosotros no nos interese. Y esto es así

04:32

porque lo va a impregnar absolutamente

04:34

todo a nivel de cognición y a nivel de

04:37

todos los procesos que los seres humanos

04:38

seguimos a la hora de relacionarnos

04:40

entre nosotros y las cada vez más

04:42

abundantes posibilidades que tenemos de

04:44

relacionarnos a través de las máquinas.

04:46

Así que este es un tema en principio que

04:47

debería de ser de interés para

04:49

absolutamente todo el mundo. Y lo más

04:51

importante y en lo que habla Ilia donde

04:53

está la clave es cómo de capaz eh va a

04:56

ser la inteligencia artificial de

04:58

replicar el funcionamiento del cerebro

04:59

humano. Te voy a dar un dato

05:01

apasionante, alucinante. El cerebro

05:04

humano consume, gasta 20 W de energía

05:07

para realizar todos sus procesos,

05:09

mientras que estas empresas gigantescas

05:12

necesitan gigwtios y gigwatios y

05:14

gigwatios de electricidad, absolutas

05:17

barbaridades de electricidad. En Estados

05:19

Unidos de América, los centros de datos

05:20

y centros de entrenamiento de la

05:22

inteligencia artificial ya son

05:23

redondeando un 10% de toda la energía

05:26

que consume el país y esto va a crecer

05:28

exponencialmente. Y todo esto para que

05:31

acabar creando una máquina o red de

05:32

máquinas que son capaces de replicar el

05:35

funcionamiento del cerebro humano. Según

05:37

Ilia, y esto es una de las cosas que a

05:38

mí más me impacta porque yo

05:40

personalmente en mi fuero interno no

05:41

estoy de acuerdo, al final él lo ve al

05:43

revés. Yo siempre lo veo como que una

05:45

máquina quiere imitar el cerebro. Él lo

05:47

ve como que el cerebro humano no es más

05:50

que un ordenador biológico y los

05:52

ordenadores sintéticos pueden imitar el

05:54

funcionamiento del cerebro humano y lo

05:55

van a conseguir. Actualmente tenemos

05:57

inteligencias artificiales estrechas,

05:59

artiligencias artificiales limitadas,

06:01

pero en lo que se está trabajando

06:03

precisamente y en lo que se pone tanto

06:04

dinero, tantísimo dinero, es en crear

06:06

una inteligencia artificial general que

06:08

sea capaz de replicar el funcionamiento

06:10

del cerebro humano. Pero no solo eso,

06:13

eso es una parte importante del asunto.

06:15

La segunda parte más importante del

06:17

asunto precisamente es que esa

06:18

inteligencia artificial general sería

06:20

capaz de dominar todas las disciplinas

06:23

que el ser humano es capaz de dominar en

06:25

los niveles en los estadios superiores.

06:27

Es decir, allá donde están las personas

06:29

y los científicos más brillantes, las

06:30

mentes más preclaras en una determinada

06:33

disciplina de lo que sea, la

06:35

inteligencia general artificial sería

06:37

capaz de igualarlos y dentro de nada de

06:39

superarlos. No se ponen de acuerdo

06:41

cuándo va a suceder eso. Los más

06:42

apocalípticos y los más optimistas

06:44

hablan de dentro de 3 años, los más

06:46

pesimistas hablan de 10 años, pero todo

06:49

el mundo está de acuerdo, todo el mundo

06:51

que está metido en ese negociado o que

06:52

se ha salido del negociado, que

06:54

acabaremos llegando a esa inteligencia

06:55

artificial general, algo que yo

06:57

personalmente me resisto a creer en

07:00

tanto en cuanto creo que el cerebro

07:01

humano es una máquina que es

07:04

absolutamente imposible de replicar en

07:06

su funcionamiento precisamente por su

07:08

base biológica. Lo que no quiere decir

07:10

que una máquina no pueda no solamente

07:13

replicar o emular en este caso el

07:15

funcionamiento del cerebro humano, sino

07:17

superarlo ampliamente. Esto es de lo que

07:19

nos habla precisamente Ilia Suskever en

07:22

su conferencia, en su charla, y de cómo

07:24

tenemos que ser conscientes de las

07:26

consecuencias, de las implicaciones que

07:28

todo esto nos va a traer. Y aquí se

07:30

plantean dos cuestiones. Si dentro de no

07:33

mucho un cerebro artificial va a ser

07:35

capaz de hacer todo lo que los seres

07:37

humanos vamos a poder hacer, ¿qué es lo

07:39

que va a pasar con nuestros trabajos?

07:41

Hay quien dice y se aferra al hecho de

07:43

que la evolución tecnológica a lo largo

07:45

y ancho de la humanidad ha acabado

07:47

creando siempre más empleos que los

07:49

empleos que ha destruido. ¿Va a ser este

07:51

el caso? Bueno, pues tanto Ilia Suskever

07:54

como Eric Smith lo ponen claramente en

07:56

duda. Para ellos, esta especie de ley de

07:59

MUR del empleo, según el cual una nueva

08:02

evolución tecnológica significativa

08:04

acaba creando nuevos átomos de trabajo y

08:06

acaban sustituyendo y ampliando la

08:09

capacidad de contratar a personas que

08:11

tenían la tecnología anterior, se va a

08:13

romper con la inteligencia artificial,

08:15

precisamente porque la capacidad de la

08:16

inteligencia artificial para emular el

08:19

funcionamiento del cerebro humano y por

08:20

ende las actividades intelectuales

08:22

relacionadas con el trabajo que hacen

08:24

los seres humanos va a hacer que podamos

08:26

prescindir de las personas. Esto es lo

08:28

que ellos opinan, lo cual acabaría

08:30

provocando un fenómeno muy potente y

08:33

siempre estamos hablando de interpretar

08:34

las palabras de estos expertos que son

08:36

absolutamente validados y reputados por

08:39

la comunidad científica internacional.

08:41

Por un lado, muchas personas ya no

08:42

tendrían que trabajar, se quedarían con

08:43

trabajo y por otro lado, habría grandes

08:46

corporaciones que acabarían asumiendo

08:48

una gran cantidad de trabajo que ahora

08:50

hacen personas, con lo cual habría que

08:52

ver cuál es el nivel de poder que le

08:54

podemos dar y le queremos dar a esas

08:55

grandes corporaciones y cómo va a

08:57

funcionar, por ejemplo, el sistema

08:58

fiscal si el día de mañana son las

09:00

máquinas, los cerebros virtuales y

09:02

también los robots los que hacen los

09:04

trabajos por nosotros. Al final estas

09:06

máquinas tendrían que acabar cotizando

09:07

en la seguridad social igualmente si es

09:09

que sigue existiendo, para que al final

09:11

sigan existiendo los servicios que las

09:13

personas tenemos en países y

09:15

específicamente en democracias, entre

09:17

comillas, del bienestar como las que

09:19

vivimos actualmente. Este es un debate

09:21

apasionante, muy interesante y la

09:23

respuesta y la solución está a la vuelta

09:25

de la esquina porque estamos hablando de

09:26

horizontes como máximo de 10 años. Y en

09:29

su segundo lugar, por supuesto, si estos

09:31

niveles de inteligencia artificial van a

09:33

llegar a tal nivel de sofisticación que

09:35

van a ser capaces de sustituirnos, la

09:37

siguiente pregunta es, ¿cómo lo van a

09:38

hacer? ¿Y cómo se van a comportar? ¿Cómo

09:40

se van a relacionar con el mundo? ¿Y qué

09:42

va a provocar su acción? La del ser

09:44

humano ya la conocemos más o menos y la

09:46

tenemos clara y controlada, pero esta

09:48

forma de trabajar de estas máquinas en

09:50

paralelo a nuestros cerebros, ¿va a ser

09:51

honesta, va a ser segura? Esa es la gran

09:54

pregunta y la gran implicación ética que

09:56

se plantean la inmensa mayoría de los

09:58

expertos que están dentro de este mundo.

10:01

Este es, según ellos, el mayor desafío

10:02

al que se enfrenta la humanidad

10:04

probablemente en toda su historia y al

10:06

mismo tiempo la mayor oportunidad a la

10:08

que se enfrenta la humanidad en

10:10

positivo. Y la gran pregunta es, ¿qué va

10:12

a salir de todo esto? ¿Qué va a resultar

10:14

de todo esto? Esa es la gran cuestión.

10:16

sobre todo llegados a un punto en el que

10:18

la inteligencia artificial haya

10:20

alcanzado un nivel en el que ya no

10:22

necesite de humanos para seguir

10:24

mejorando, sino que sea ella misma la

10:26

que tenga la capacidad de automejorarse.

10:28

Y ahí es ciertamente cuando perdemos el

10:30

control, cuando perdemos la capacidad de

10:32

saber, de determinar qué es lo que viene

10:34

a continuación. Y qué es lo que viene a

10:36

continuación. Bueno, es lo que viene a

10:38

continuación es máquinas tomando

10:40

decisiones en cuestiones como sanidad,

10:42

en cuestiones como energía, en

10:43

cuestiones como seguridad colectiva, en

10:46

cuestiones como infraestructuras. Al

10:48

final se van a hacer la competencia

10:50

entre ellos, van a luchar y además todo

10:52

esto va a suceder en un terreno de

10:54

juego. En esto según lo explica Erik

10:56

Smith y es uno de los grandes problemas

10:57

de la inteligencia artificial y es el

10:59

hecho de que esto es transnacional, que

11:01

supera barreras porque se mueve a través

11:04

de redes. Así que, ¿quién va a controlar

11:06

las inteligencias artificiales que

11:07

vienen además de lugares ajenos a

11:09

organizarnos la vida y organizarnos el

11:11

trabajo e incluso las relaciones entre

11:13

países? Y de qué manera se va a

11:16

garantizar la seguridad y que las

11:17

inteligencias artificiales no acaben

11:20

provocando daños o acaben tomando

11:22

decisiones que dañen a las personas en

11:24

lugar de a los intereses de quienes las

11:26

controlan si es que todavía las

11:28

controlan. Esas preguntas están encima

11:30

de la mesa. Esto nos lleva, es muy

11:32

interesante porque la ciencia ficción ya

11:34

lo ha contado, nos lleva al mito de la

11:36

película Colossus, que está basado a su

11:37

vez en una novela, una peli del año 70,

11:39

también conocida como Colossus, el

11:41

proyecto Corbin, en el que Estados

11:42

Unidos de América desarrolla un

11:44

supercomputador mucho antes de la peli

11:46

de Juegos de Guerra, en el que ese

11:48

supercomputador se dedica a analizar y a

11:50

investigar al enemigo, el adversario, en

11:53

este caso a la Unión Soviética. Y

11:54

precisamente Colossus acaba descubriendo

11:57

que la Unión Soviética ha desarrollado

11:58

una máquina similar que se llama

12:00

Guardian. ¿Qué es lo que ocurre en esta

12:01

película? Que ambas máquinas con la

12:04

capacidad que tienen para

12:05

autoalimentarse desde un punto de vista

12:08

intelectual y de información acaban

12:10

tomando la decisión de comunicarse entre

12:12

ellas de una forma absolutamente

12:13

ininteligible para un ser humano y

12:16

acabar sometiendo a la humanidad con la

12:18

amenaza de la guerra nuclear. Y al final

12:20

acabamos siendo sometidos, esclavizados

12:22

por dos máquinas que han aprendido a

12:25

comunicarse de una manera que nosotros

12:27

no somos capaces de entender y de tomar

12:29

ventaja sobre nosotros. Este problema,

12:31

este dilema está sobre la mesa

12:32

igualmente en los expertos en

12:34

inteligencia artificial y preocupa

12:36

muchísimo precisamente que podamos

12:37

perder el control, que esto se nos vaya

12:39

de las manos ya no solamente en el mundo

12:41

del trabajo, en el mundo de cómo nos

12:43

ganamos la vida, de cómo nos

12:44

comunicamos, sino también en el mundo de

12:46

la seguridad y también la posibilidad

12:48

efectivamente de que los estados, igual

12:50

que tienen bajo siete llaves sus mayores

12:52

secretos, las mejores fórmulas para

12:55

crear armas biológicas o armas

12:57

nucleares, tengan igualmente

12:58

inteligencias artificiales que les

13:00

sirvan para poder manipular, para poder

13:03

arrasar, para poder hacer cualquier tipo

13:05

de acción sobre el resto. Algo que antes

13:07

y que se viene haciendo toda la vida, se

13:09

hacía de una manera manual mediante los

13:11

servicios secretos y que ahora se va a

13:13

hacer de una manera completamente

13:15

conectada y automatizada. Al final las

13:17

cosas no han cambiado tanto si es que

13:19

acabaremos siendo sometidos por

13:21

determinados cerebros y formas de

13:22

pensar. La guerra cultural y la guerra

13:24

psicológica siempre ha estado ahí, solo

13:26

que ahora la harían o la están haciendo

13:28

ya máquinas de una manera mucho más

13:30

silente e igualmente también eficiente.

13:32

Así que, queridos amigos, después de

13:34

este viaje, la gran pregunta que queda

13:35

por resolver, la gran cuestión, la gran

13:37

incógnita es si al final nosotros

13:39

participaremos de las decisiones que se

13:41

tomen sustentadas sobre la inteligencia

13:43

artificial, si nosotros podremos decidir

13:45

o si algunos decidirán con nosotros. Las

13:48

capacidades que tiene potenciales la

13:49

inteligencia artificial para encontrar

13:51

fórmulas y nuevas vías, para atacar

13:53

enfermedades graves, algunas de ellas

13:54

sin remedio, para encontrar nuevas

13:56

fuentes de energía, para desarrollar

13:58

nuevas tecnologías con nuevos

14:00

materiales. Es impresionante. Estamos a

14:02

las puertas de una revolución

14:03

tecnológica e intelectual que nos puede

14:05

llevar a un siguiente nivel como

14:07

civilización. Pero la gran cuestión,

14:09

como digo, es si nosotros vamos a tener

14:11

posibilidad de participar en ello y si

14:13

vamos a participar del control de estas

14:15

tecnologías o si van a ser otros

14:17

determinadas élites quien lo haga o

14:19

incluso en una tercera situación, en un

14:21

tercer estadio, si a estas élites

14:23

incluso se les va a ir de la mano

14:24

también el control de estas capacidades

14:26

tecnológicas autónomas. Nada más,

14:28

queridos amigos, ahí dejamos la

14:30

pregunta. Me encantaría conocer tu

14:32

opinión y como decía la frase del

14:34

principio, ¿tú crees que vamos a ser

14:36

testigos de un cambio que va a hacer

14:38

caer la civilización humana tal y como

14:39

la conocíamos?

14:41

Pues ahí os dejo la pregunta. Espero

14:43

vuestros comentarios y respuestas. Hasta

14:44

el siguiente vídeo, querida familia.

14:46

Adiós.

Video Information

YouTube ID: -qNV05-PYaU
Added: Aug 11, 2025
Last Updated: 6 months ago