"LA GENTE NO SE IMAGINA LO QUE VIENE" - Reaccionando al fundador de Open IA Ilia Sutskever
Duration
14:48
Captions
1
Language
ES
Published
Aug 9, 2025
Description
La inteligencia artificial (IA) ha revolucionado nuestra forma de vivir, pero también introduce amenazas significativas que demandan atención urgente. Una de las principales preocupaciones es el desplazamiento laboral, ya que la automatización puede eliminar millones de empleos en sectores como manufactura, transporte y servicios, generando desempleo y desigualdad económica al concentrar el poder en corporaciones que dominan esta tecnología. Los sistemas de IA, entrenados con datos sesgados, pueden perpetuar discriminaciones contra grupos vulnerables, mientras que su opacidad, al actuar como "cajas negras", dificulta entender cómo toman decisiones. La privacidad está en riesgo, pues la IA recopila y analiza grandes volúmenes de datos personales, facilitando la vigilancia masiva por parte de gobiernos o empresas, lo que puede restringir libertades individuales. Además, tecnologías como los deepfakes, creados con IA, permiten generar contenido falso hiperrealista, útil para desinformación, extorsión o manipulación psicológica a gran escala, como en campañas electorales o redes sociales, donde los algoritmos amplifican noticias falsas y polarización. La dependencia excesiva de la IA podría erosionar habilidades humanas, como la creatividad o la interacción social, y fomentar adicciones tecnológicas mediante interfaces personalizadas. En términos de seguridad, los errores en sistemas de IA aplicados a salud o transporte pueden tener consecuencias fatales, y su vulnerabilidad a ciberataques pone en riesgo infraestructuras críticas. Las armas autónomas, como drones letales, plantean dilemas éticos y riesgos de escalada en conflictos. La falta de regulación global y de rendición de cuentas complica atribuir responsabilidades cuando la IA causa daños, mientras que los marcos legales actuales no están preparados para abordar delitos relacionados con esta tecnología. A nivel global, el acceso desigual a la IA podría agravar la brecha entre países desarrollados y en desarrollo. El impacto ambiental del entrenamiento de modelos de IA, que consume enormes cantidades de energía, contribuye al cambio climático. En el ámbito ético, la falta de diversidad en los equipos de desarrollo limita las perspectivas, y experimentos sin supervisión podrían tener consecuencias imprevistas. En un escenario extremo, una superinteligencia mal alineada con valores humanos podría actuar de forma impredecible, representando un riesgo existencial. Por ello, es crucial implementar regulaciones, fomentar el desarrollo ético y educar a la sociedad para mitigar estas amenazas y aprovechar el potencial transformador de la IA de manera responsable. Enlace a mi nuevo canal vídeo blog “MANUAL”: https://www.youtube.com/@jfcaleroMANUAL Mis Aparatos y equipos imprescindibles para trabajar y vivir: https://www.amazon.es/shop/juanfranciscocalero-clubonmotor Apóyame para hacer más y mejores vídeos en PATREON. Sé mi mentor: https://www.patreon.com/jfcalero Sígueme en INSTAGRAM, TWITTER o AMBAS, súperfácil: @jfcalero No te vayas a la cama sin saber algo más, o al menos sin saber algo nuevo. Si lo hiciste, misión cumplida, gracias por acompañarme. #calerocascaron #cascarondenuez #calero
Captions (1)
¿Qué tal, mis queridos amigos?
Bienvenidos a un nuevo viaje en el
Cascarón de Nuez. Soy demasiado viejo
para ser un pionero. Soy demasiado joven
para poder conquistar y explorar el
universo y estoy justo en el momento en
el que voy a asistir a la caída de la
civilización humana. Esta frase, esta
expresión no es mía. La he leído de un
personaje anónimo en un comentario en la
documentación que estado haciendo para
grabar este vídeo. Y esta persona se
refería precisamente a los cambios que
están aconteciendo y que van a acontecer
en lo que se refiere directa y
potencialmente a la estructura y a lo
que puede ser el futuro de la humanidad
vinculado al auge, crecimiento y quién
sabe si toma el control de la
inteligencia artificial. Sí, estamos
hablando de la inteligencia artificial y
en este vídeo precisamente quería hacer
un repaso a las palabras que han hecho
dos de las personas más reputadas
alrededor del desarrollo de la
inteligencia artificial, que ambas
comparten una particularidad muy
importante. Ambas han estado sentadas a
la mesa de los lugares donde se decide
cómo, de qué manera se va a desarrollar,
de qué manera se va a poder hacer esto
rentable y cuáles son los potenciales
riesgos y beneficios que tiene el
desarrollo de una inteligencia
artificial superior. Me estoy refiriendo
a dos personas que han estado trabajando
en Open AI y en Google y estoy hablando
concretamente de Ilia Suskever y de Eric
Smith. Eric Smith quizá es bastante más
conocido porque durante muchos años ha
sido el CEO de Google. Ilia Sutber
precisamente es una persona mucho menos
conocida, pero ha trabajado en alguno de
los grandes gigantes de la tecnología.
Es exfundador de Open AI, es decir, la
empresa que posee Chat GPT y que ahora
mismo lidera por poquito el desarrollo
de la inteligencia artificial. Y este
Ilia es precisamente una de las
personas, como digo, más reputadas por
su increíble inteligencia y además por
su marchamo de independencia, una vez
que salió, abandonó todos estos mercados
y todos estos mundos y ahora vive para
ayudar a la gente, digamos, fuera de
estas grandes multinacionales. Una
persona que se considera tremendamente
inteligente, superdotada, podríamos
decir, para el desarrollo y la
computación y que abandonó este mundo en
Silicon Valley, un poco aburrido y
cansado del cariz y la dirección que
estaban tomando las cosas. Como sabes,
igualmente lo hemos contado en el canal.
Si eres seguidor del cascarón de nuez,
has visto como en los últimos 2 años te
hemos ido contando todos los retos que
tiene el mundo de la inteligencia
artificial en lo que se refiere a las
necesidades ingentes de energía que
requiere su desarrollo y cómo otros
están parasitando precisamente ese
trabajo en bruto para desarrollar
tecnologías mucho más ágiles, con mucha
menos energía. Eso por un lado. Y por
otro lado, la increíble cantidad de
dinero que gente como Mark Zuckerberg
está poniendo encima de la mesa de los
mejores ingenieros del mundo para
liderar esta carrera, abandonando, por
cierto, la inversión mil millonaria,
billonaria en términos de dólar, de meta
en lo que se refiere a los universos
artificiales, a ese mundo paralelo, en
la realidad virtual en la que él estuvo
apostando y poniendo tanto dinero para
ahora poner todas las fichas en el mundo
de la inteligencia artificial. y
concretamente en la inteligencia
artificial superior. ¿Y por qué te
cuento todo esto? Bueno, pues porque
recientemente estos dos personajes,
Erich Smith, precisamente y Ilia
Suskever, han dado conferencias, han
dado charlas donde han venido a subrayar
y desarrollar efectivamente los peligros
que corremos cuando la inteligencia
artificial alcance en ciertos estadios,
ciertos niveles que según a quién le
preguntes, aquí siempre estamos hablando
de apocalípticos e integrados, o sea,
hay dos tendencias muy claras. una
tendencia que dice que todo esto son
papaschas y que la inteligencia
artificial nunca va a superar a los
humanos ni que nos va a someter. Y otra
que habla de los potenciales peligros
que tiene la inteligencia artificial,
que son la mayoría de las personas que
precisamente están implicadas dentro de
ello. Algunos lo cuentan de una manera
más o menos clara como Elon Musk y otros
nos cuentan que efectivamente el riesgo
es muy grande, pero igualmente también
las oportunidades que vamos a tener son
brutales y sobre todo las oportunidades
de negocio para ellos también, por
supuesto, ¿no? Pero la cuestión es que
estos dos personajes y especialmente
Ilia, como digo, son personas que tienen
ahora la posibilidad de hablar libre y
lo que hablan es muy interesante y por
eso me voy a centrar en la conferencia
que ha dado en la Universidad de Toronto
este señor, porque muy pocas veces habla
en público, tiene una vida como
semirretirada y es muy interesante lo
que cuenta, ¿no? Y lo primero de todo
que te tengo que contar y que es
llamativo, que precisamente tú estés
pensando eso, que esto a mí no me va a
afectar, que esto me pilla ya muy mayor,
que yo ya lo tengo todo hecho, esto es
como la política, es decir, la
inteligencia artificial, aunque nosotros
le queramos dar la vuelta, nos va a
atrapar. nos va a atrapar y se va a
interesar por nosotros, aunque a
nosotros no nos interese. Y esto es así
porque lo va a impregnar absolutamente
todo a nivel de cognición y a nivel de
todos los procesos que los seres humanos
seguimos a la hora de relacionarnos
entre nosotros y las cada vez más
abundantes posibilidades que tenemos de
relacionarnos a través de las máquinas.
Así que este es un tema en principio que
debería de ser de interés para
absolutamente todo el mundo. Y lo más
importante y en lo que habla Ilia donde
está la clave es cómo de capaz eh va a
ser la inteligencia artificial de
replicar el funcionamiento del cerebro
humano. Te voy a dar un dato
apasionante, alucinante. El cerebro
humano consume, gasta 20 W de energía
para realizar todos sus procesos,
mientras que estas empresas gigantescas
necesitan gigwtios y gigwatios y
gigwatios de electricidad, absolutas
barbaridades de electricidad. En Estados
Unidos de América, los centros de datos
y centros de entrenamiento de la
inteligencia artificial ya son
redondeando un 10% de toda la energía
que consume el país y esto va a crecer
exponencialmente. Y todo esto para que
acabar creando una máquina o red de
máquinas que son capaces de replicar el
funcionamiento del cerebro humano. Según
Ilia, y esto es una de las cosas que a
mí más me impacta porque yo
personalmente en mi fuero interno no
estoy de acuerdo, al final él lo ve al
revés. Yo siempre lo veo como que una
máquina quiere imitar el cerebro. Él lo
ve como que el cerebro humano no es más
que un ordenador biológico y los
ordenadores sintéticos pueden imitar el
funcionamiento del cerebro humano y lo
van a conseguir. Actualmente tenemos
inteligencias artificiales estrechas,
artiligencias artificiales limitadas,
pero en lo que se está trabajando
precisamente y en lo que se pone tanto
dinero, tantísimo dinero, es en crear
una inteligencia artificial general que
sea capaz de replicar el funcionamiento
del cerebro humano. Pero no solo eso,
eso es una parte importante del asunto.
La segunda parte más importante del
asunto precisamente es que esa
inteligencia artificial general sería
capaz de dominar todas las disciplinas
que el ser humano es capaz de dominar en
los niveles en los estadios superiores.
Es decir, allá donde están las personas
y los científicos más brillantes, las
mentes más preclaras en una determinada
disciplina de lo que sea, la
inteligencia general artificial sería
capaz de igualarlos y dentro de nada de
superarlos. No se ponen de acuerdo
cuándo va a suceder eso. Los más
apocalípticos y los más optimistas
hablan de dentro de 3 años, los más
pesimistas hablan de 10 años, pero todo
el mundo está de acuerdo, todo el mundo
que está metido en ese negociado o que
se ha salido del negociado, que
acabaremos llegando a esa inteligencia
artificial general, algo que yo
personalmente me resisto a creer en
tanto en cuanto creo que el cerebro
humano es una máquina que es
absolutamente imposible de replicar en
su funcionamiento precisamente por su
base biológica. Lo que no quiere decir
que una máquina no pueda no solamente
replicar o emular en este caso el
funcionamiento del cerebro humano, sino
superarlo ampliamente. Esto es de lo que
nos habla precisamente Ilia Suskever en
su conferencia, en su charla, y de cómo
tenemos que ser conscientes de las
consecuencias, de las implicaciones que
todo esto nos va a traer. Y aquí se
plantean dos cuestiones. Si dentro de no
mucho un cerebro artificial va a ser
capaz de hacer todo lo que los seres
humanos vamos a poder hacer, ¿qué es lo
que va a pasar con nuestros trabajos?
Hay quien dice y se aferra al hecho de
que la evolución tecnológica a lo largo
y ancho de la humanidad ha acabado
creando siempre más empleos que los
empleos que ha destruido. ¿Va a ser este
el caso? Bueno, pues tanto Ilia Suskever
como Eric Smith lo ponen claramente en
duda. Para ellos, esta especie de ley de
MUR del empleo, según el cual una nueva
evolución tecnológica significativa
acaba creando nuevos átomos de trabajo y
acaban sustituyendo y ampliando la
capacidad de contratar a personas que
tenían la tecnología anterior, se va a
romper con la inteligencia artificial,
precisamente porque la capacidad de la
inteligencia artificial para emular el
funcionamiento del cerebro humano y por
ende las actividades intelectuales
relacionadas con el trabajo que hacen
los seres humanos va a hacer que podamos
prescindir de las personas. Esto es lo
que ellos opinan, lo cual acabaría
provocando un fenómeno muy potente y
siempre estamos hablando de interpretar
las palabras de estos expertos que son
absolutamente validados y reputados por
la comunidad científica internacional.
Por un lado, muchas personas ya no
tendrían que trabajar, se quedarían con
trabajo y por otro lado, habría grandes
corporaciones que acabarían asumiendo
una gran cantidad de trabajo que ahora
hacen personas, con lo cual habría que
ver cuál es el nivel de poder que le
podemos dar y le queremos dar a esas
grandes corporaciones y cómo va a
funcionar, por ejemplo, el sistema
fiscal si el día de mañana son las
máquinas, los cerebros virtuales y
también los robots los que hacen los
trabajos por nosotros. Al final estas
máquinas tendrían que acabar cotizando
en la seguridad social igualmente si es
que sigue existiendo, para que al final
sigan existiendo los servicios que las
personas tenemos en países y
específicamente en democracias, entre
comillas, del bienestar como las que
vivimos actualmente. Este es un debate
apasionante, muy interesante y la
respuesta y la solución está a la vuelta
de la esquina porque estamos hablando de
horizontes como máximo de 10 años. Y en
su segundo lugar, por supuesto, si estos
niveles de inteligencia artificial van a
llegar a tal nivel de sofisticación que
van a ser capaces de sustituirnos, la
siguiente pregunta es, ¿cómo lo van a
hacer? ¿Y cómo se van a comportar? ¿Cómo
se van a relacionar con el mundo? ¿Y qué
va a provocar su acción? La del ser
humano ya la conocemos más o menos y la
tenemos clara y controlada, pero esta
forma de trabajar de estas máquinas en
paralelo a nuestros cerebros, ¿va a ser
honesta, va a ser segura? Esa es la gran
pregunta y la gran implicación ética que
se plantean la inmensa mayoría de los
expertos que están dentro de este mundo.
Este es, según ellos, el mayor desafío
al que se enfrenta la humanidad
probablemente en toda su historia y al
mismo tiempo la mayor oportunidad a la
que se enfrenta la humanidad en
positivo. Y la gran pregunta es, ¿qué va
a salir de todo esto? ¿Qué va a resultar
de todo esto? Esa es la gran cuestión.
sobre todo llegados a un punto en el que
la inteligencia artificial haya
alcanzado un nivel en el que ya no
necesite de humanos para seguir
mejorando, sino que sea ella misma la
que tenga la capacidad de automejorarse.
Y ahí es ciertamente cuando perdemos el
control, cuando perdemos la capacidad de
saber, de determinar qué es lo que viene
a continuación. Y qué es lo que viene a
continuación. Bueno, es lo que viene a
continuación es máquinas tomando
decisiones en cuestiones como sanidad,
en cuestiones como energía, en
cuestiones como seguridad colectiva, en
cuestiones como infraestructuras. Al
final se van a hacer la competencia
entre ellos, van a luchar y además todo
esto va a suceder en un terreno de
juego. En esto según lo explica Erik
Smith y es uno de los grandes problemas
de la inteligencia artificial y es el
hecho de que esto es transnacional, que
supera barreras porque se mueve a través
de redes. Así que, ¿quién va a controlar
las inteligencias artificiales que
vienen además de lugares ajenos a
organizarnos la vida y organizarnos el
trabajo e incluso las relaciones entre
países? Y de qué manera se va a
garantizar la seguridad y que las
inteligencias artificiales no acaben
provocando daños o acaben tomando
decisiones que dañen a las personas en
lugar de a los intereses de quienes las
controlan si es que todavía las
controlan. Esas preguntas están encima
de la mesa. Esto nos lleva, es muy
interesante porque la ciencia ficción ya
lo ha contado, nos lleva al mito de la
película Colossus, que está basado a su
vez en una novela, una peli del año 70,
también conocida como Colossus, el
proyecto Corbin, en el que Estados
Unidos de América desarrolla un
supercomputador mucho antes de la peli
de Juegos de Guerra, en el que ese
supercomputador se dedica a analizar y a
investigar al enemigo, el adversario, en
este caso a la Unión Soviética. Y
precisamente Colossus acaba descubriendo
que la Unión Soviética ha desarrollado
una máquina similar que se llama
Guardian. ¿Qué es lo que ocurre en esta
película? Que ambas máquinas con la
capacidad que tienen para
autoalimentarse desde un punto de vista
intelectual y de información acaban
tomando la decisión de comunicarse entre
ellas de una forma absolutamente
ininteligible para un ser humano y
acabar sometiendo a la humanidad con la
amenaza de la guerra nuclear. Y al final
acabamos siendo sometidos, esclavizados
por dos máquinas que han aprendido a
comunicarse de una manera que nosotros
no somos capaces de entender y de tomar
ventaja sobre nosotros. Este problema,
este dilema está sobre la mesa
igualmente en los expertos en
inteligencia artificial y preocupa
muchísimo precisamente que podamos
perder el control, que esto se nos vaya
de las manos ya no solamente en el mundo
del trabajo, en el mundo de cómo nos
ganamos la vida, de cómo nos
comunicamos, sino también en el mundo de
la seguridad y también la posibilidad
efectivamente de que los estados, igual
que tienen bajo siete llaves sus mayores
secretos, las mejores fórmulas para
crear armas biológicas o armas
nucleares, tengan igualmente
inteligencias artificiales que les
sirvan para poder manipular, para poder
arrasar, para poder hacer cualquier tipo
de acción sobre el resto. Algo que antes
y que se viene haciendo toda la vida, se
hacía de una manera manual mediante los
servicios secretos y que ahora se va a
hacer de una manera completamente
conectada y automatizada. Al final las
cosas no han cambiado tanto si es que
acabaremos siendo sometidos por
determinados cerebros y formas de
pensar. La guerra cultural y la guerra
psicológica siempre ha estado ahí, solo
que ahora la harían o la están haciendo
ya máquinas de una manera mucho más
silente e igualmente también eficiente.
Así que, queridos amigos, después de
este viaje, la gran pregunta que queda
por resolver, la gran cuestión, la gran
incógnita es si al final nosotros
participaremos de las decisiones que se
tomen sustentadas sobre la inteligencia
artificial, si nosotros podremos decidir
o si algunos decidirán con nosotros. Las
capacidades que tiene potenciales la
inteligencia artificial para encontrar
fórmulas y nuevas vías, para atacar
enfermedades graves, algunas de ellas
sin remedio, para encontrar nuevas
fuentes de energía, para desarrollar
nuevas tecnologías con nuevos
materiales. Es impresionante. Estamos a
las puertas de una revolución
tecnológica e intelectual que nos puede
llevar a un siguiente nivel como
civilización. Pero la gran cuestión,
como digo, es si nosotros vamos a tener
posibilidad de participar en ello y si
vamos a participar del control de estas
tecnologías o si van a ser otros
determinadas élites quien lo haga o
incluso en una tercera situación, en un
tercer estadio, si a estas élites
incluso se les va a ir de la mano
también el control de estas capacidades
tecnológicas autónomas. Nada más,
queridos amigos, ahí dejamos la
pregunta. Me encantaría conocer tu
opinión y como decía la frase del
principio, ¿tú crees que vamos a ser
testigos de un cambio que va a hacer
caer la civilización humana tal y como
la conocíamos?
Pues ahí os dejo la pregunta. Espero
vuestros comentarios y respuestas. Hasta
el siguiente vídeo, querida familia.
Adiós.