¿Qué nos espera en la IA? - dotCSV | #MIDUCONF2025
Duration
31:12
Captions
1
Language
ES
Published
Sep 11, 2025
Description
▶ No te pierdas más directos en: https://www.twitch.tv/midudev
Captions (1)
Tenemos que hablar de inteligencia
artificial. Es que la inteligencia
artificial está en todos sitios. Si no,
yo que sé, o sea, es que parece que no
estés hablando si no hablas de
inteligencia artificial. Y he dicho,
ostras, yo si voy a hablar de
inteligencia artificial tengo que hablar
con el mejor. Entonces llamé a Samman y
Samman me dijo que no estaba disponible,
¿vale? Me dijo, "No, que no, no estoy
disponible." Yo, "Bueno, pues nada, pues
al segundo mejor." Y llamé a Elon Elon
Mask. Y Elon Mask me dijo que que que me
había creído yo, que estaba ocupado con
SpaceX. y dije, "Bueno, pues pues yo que
sé, al tercero mejor." Así que llamé a
12V y 12SV no me contestó, la verdad. No
os voy a engañar. O sea, no me contestó
y mira que le intenté enviar imágenes
generadas con inteligencia artificial
para ver si así le engañaba, pero yo
creo que por pena al final de tantas
cosas que generé con Ia, me dijo, "Mira,
solo por el esfuerzo" y aquí lo tenemos.
Hoy tenemos al bueno de Carlos Santana
que le voy a dar la bienvenida, creador
y divulgador sobre inteligencia
artificial, amigo 12V, ¿cómo estás?
>> Muy buenas, Midu. Muy bien, muy
contento. ¿Cómo? ¿Cómo que Keilon Mas
que Isam Almant? El uno y el dos. Madre
mía.
>> Es verdad.
>> No lo digo, no lo digo por mi posición,
lo digo porque, a ver, ellos saben mucho
de negocios, pero de ellos tien Bueno,
si es que ha venido ya a darme collejas
Carlos Anton. Ay, no, tienes toda tienes
toda razón. Era era una broma para hacer
una introducción, hombre. E, ¿cómo
estás? ¿Estás bien?
>> Muy bien, muy bien. La verdad que estaba
nervioso porque estaba estaba pensando
en el año pasado cuando vinimos a la
Miduc,
>> eh, creo que el año pasado fue 12 de
septiembre, no fue exactamente el día
10.
>> Y coincidió, tío, ese día con la salida
de o un preview. Yo me acuerdo que nos
conectamos aquí, te dije, "Bu, ha salido
una cosa." Y y no entendíamos mucho qué
era. Ahora ya todos sabemos que iba a
ser toda esta revolución de los modelos
resonadores y y también salió ese día el
notebook LM, fíjate.
>> Ostras, ostras, no lo sabía.
>> O sea, que claro, claro. O sea, fue un
día cargadísimo de novedades y estaba
nervioso. Digo, "A ver qué sale hoy."
Bueno, no ha salido muchas cosas. Alguna
cosilla interesante que podemos
comentar, pero pero bueno.
>> Pas. Sí, ha salido algo ahí a última
hora que tengas por aquí.
Mira, ha salido algo que rema a favor de
lo que me imagino que vamos a hablar,
que es de EI programación y es de la
gente de Replit, que han sacado como una
nueva versión de su sistema de agentes,
eh, la han llamado Agent 3 y es
interesante porque es un poco al final
se ha dicho mucho, ¿no? Este año 2025 va
a ser el año de los agentes y tal
>> y ciertamente está siendo el año de los
agentes un poco descafeinado eh si
hablamos de agentes en general, pero es
cierto que en programación estamos
viendo pues que sí que ahí está
funcionando bastante bien, ¿no? todos
los eh eh cloud code y todas estas
cosillas no dejan de ser agentes donde
ya tú le vas lanzando tareas y bueno,
más o menos trabaja cada vez más en
tareas de mayor horizonte. Y lo que
comenta esta gente de Replit es que lo
que han sacado hoy pues justamente es un
sistema que puede estar hasta 200
minutos trabajando en una tarea que
>> 200 minutos un montón, ¿eh?
>> Sí, sí, sí, sí. También hay que ver la
calidad de ese trabajo. Es decir, yo
también puedo estar trabajando 200
minutos en una tarea muy sencilla. La
cosa es que luego el resultado merezca
la pena y y no hayas alargado más de lo
que toca, ¿no? Pero es muy interesante.
Oye,
>> eh, luego si quieres ahondamos ahí.
>> Sí, yo había visto el tema de la
inversión que habían conseguido
justamente Repllit hoy, una inversión
bastante importante una valoración
bastante alta para ser Replit y para los
resultados que tiene, que esta yo creo
que la pregunta, la primera para que nos
lo quitemos un poco de encima, ¿cómo va
la burbuja de la inteligencia artificial
más de startup? Eh, porque yo creo es
que la gente muchas veces con esto,
[ __ ] que se cabrea, pero digo, una cosa
es la tecnología, que yo creo que es
innegable, ¿no? El impacto que tiene, y
otra cosa es a nivel empresarial y de
producto. Son dos cosas distintas. ¿Y
cómo lo ves?
>> Sí, sí. No, pues viento popa hinchándose
como siempre para arriba, ¿eh? La
burbuja.
>> Pero, ¿hay o no hay? ¿Tú qué dices?
>> Yo estoy estoy en tu postura. Yo sí creo
que la tecnología tiene un valor eh ya
innegable, o sea, ya nadie se atreve a
decir, "No, eso la la no te ofrece
valor, tiene un valor de la de la
leche." Ya luego cuando lo te lo llevas
a la parte de negocios, hay muchas
variables ahí jugando eh jugando, ¿no?
Entre ellas, por ejemplo, la competición
de modelos open source a muchas de estas
startups también le rompen un poco el
modelo de negocio. Eh, estas
valoraciones estratosféricas que
comentas. Ayer estaba hablando con
Andrés Torrubi en un directo en mi canal
y me equiparaba que Cognition, que si no
recuerdo mal es de los de Devin o los
productos,
>> pues tenían una valoración equivalente a
telefónica y es como, espérate,
>> claro, yo yo cuando me salen estas
cifras que son estratosféricas ni me
paro a pensarlas porque a mí los números
grandes de dinero me dan miedo, pero de
repente, claro, cuando te lo comparan
con empresas establecidas, pues dices
tú, madre mía. Claro.
>> Entonces, cierta ciertamente sí hay un
boom de de valoración porque entiendo
que los inversores saben que aquí puede
haber mucho dinero y es una carrera de
ratas, ratas a la carrera para conseguir
el oro y seguramente en algún momento
haya una corrección donde muchas de
estas empresas pues desaparezcan porque
es imposible que todas eh se queden,
¿no? Una seguramente acabe dominando una
o dos. Ya hemos visto esto en el pasado,
pero bueno. Sí, sí, es bastante loco.
>> Bueno, de Broser Company que la
vendieron el otro día Atlasian y yo creo
que ha sido un éxito la salida, pero no
ha sido tan bollante. Son 600 millones
de dólares, que no está mal obviamente,
pero la valoración que tuvo el año
pasado era muy similar, entonces no es
que haya crecido mucho más. Y es que lo
difícil es de dónde sacas el dinero,
¿no? Que es lo que dices tú.
>> Claro. Sí, sí. Y bueno, y también
sabemos que mucho del sector de la IA eh
requiere, por una parte, ¿no? Las
grandes empresas, grandes laboratorios
de inversiones en capital enorme, pues
necesit centros de computación para
invertir. Ahí salen las cifras h
universales estas de Open AI y compañía.
Eh, y luego las otras, las startups
necesitan mucho dinero para quemar eh en
APIs. O sea, al final un poco la burbuja
se va se va eh configurando cuando
empiezas a conectar, ¿no? Y dices,
"Vale, estas empresas consiguen
valoración, pero se la gastan en
invertir en Openi, que también gasta en
Nvidia y es como, vale,
>> tal cual.
>> A ver quién se pega el primer tropiezo.
>> ¿Has visto? ¿Viste? Seguro que la has
visto esta imagen de aquí que te voy a
poner aquí. Pam.
Vale, esta sí creo que es esta, ¿no?
Esta es la imagen de Open AI sobre
cuánto dinero iba a quemar en
>> y claro, sumándolo y tal, eran 115,000
millones de dólares. Esto es
recuperable. ¿Tú tú crees que van a
sacar Open y un producto que digas,
"Hostia,
hm, lo recupero."
>> Mira, yo te digo, si Open fuera la única
que está jugando a esto y fuera la única
que fuera a generar eh una protoagi o o
da igual, aunque no sea una AGI, pero un
modelo que te permita o que permita a
los programadores del mundo programar
mejor o que permita eh descubrir nuevos
avances científicos, ¿okay? Tú dices,
"Joder, tienes la gallina de los huevos
de oro." H
>> el problema es que eh lo que ha pasado
en el último año es que Open ya ha
perdido su posición de liderazgo que
tenía eh esa aura, ¿no?, de empresa que
parece que es la única capaz de innovar.
De repente eh pues laboratorios como XI
han llegado rápidamente a a la altura.
Eh Google no es que solamente haya
llegado a la altura, sino que muchos de
los sectores, pues por ejemplo Nia
generativa, van muy por delante de Open
AI, ¿vale? No hablemos solo de
generación de vídeo comparando Sora, que
es un desastre con lo que tiene pues
Google con BO3 o otras empresas de
vídeo, pero es que además tienen Jenny
3, que es lo de generación de vídeo en
tiempo real, que es esto. Madre mía,
ojito. Pero es que además Google tiene
computación, tiene datos, tiene
usuarios, tiene plataforma. Open AI
tiene que, o sea, para poder hacer valer
su tecnología tiene que tener también la
parte de aplicación que no tiene, ¿no?
Eh, por eso se habla mucho de, bueno,
van a sacar su propia red social, van a
sacar su propio producto, van a sacar su
propio eh navegador porque todo esto no
lo tienen. Entonces, lo que estamos
viendo es que cada vez entrenar modelos
de inteligencia artificial más potentes
no te da ese valor si no tienes el
ecosistema para sacarle partido.
Entonces, no sé, me me cuesta pensar
cómo va a ser Openi AI este juego, pero
sabemos que Samman, además de ser el
mejor en inteligencia artificial, bajo
tu criterio,
es muy buen eh es una lagartija, ¿no?,
que se mueve muy bien en tanto en la
política como en los negocios y se ha
escubido muchas veces. Eh, Open AI
seguramente si no fuera por Sammant ya
hubiera estado absorbida por Microsoft,
¿no? Que era como originalmente
Microsoft se se esperaba que iba a ser.
eh han sabido jugar bien sus cartas para
escaparse de eso. Bueno, habrá que ver
cómo les depara el futuro
>> más allá porque claro, esto es lo digo
la parte mala un poco de la IA de todos
estos tejemanejes de cómo van a van a
sacarle dinero y todo esto. Vamos ahora
por la parte buena, ¿no?, que es la más
tecnológica. Eh, ¿tú crees que en este
año ha habido una evolución brutal como
fue el año pasado? ¿O crees que se está
desacelerando o lo ves? Porque yo creo
que diferente, por ejemplo, si hablamos
de texto, sí que creo que se ha parado,
pero si vemos vídeo, pues ahí sí que
creo que la aceleración es brutal.
>> Pero, ¿tú cómo lo ves un poco esto? Eh,
¿ves que sí que la aceleración sigue
igual o que se ha parado un poquito?
Pues a ver, eh, realmente creo que ahora
mismo eh la percepción de la gente es
que sí que se ha parado, ¿no? Y creo que
viene un poco por el golpe que de la
salida de GPT5 que obviamente no ha
cumplido expectativas, pero si somos
realmente analíticos con dónde estábamos
hace un año, donde estamos ahora, 10 de
septiembre del año pasado, estábamos a
las puertas de la llegada de los modelos
razonadores. Yo lo digo mucho y creo que
Open AI se equivocó con eh la
denominación del modelo O1 preview. Yo
creo que eso debería haber sido GPT5.
Vale,
>> total
>> es te hubiera cancelado la Midu Conf de
2024, te hubiera dicho, "No puedo, estoy
cubriendo GPT5". Pero no, decidieron
llamarle de otra forma, decidieron
llamarle o uno preview, que ya sabemos
que Open AI con los namings pues tiene
un problema de la leche
>> horrible.
sé por qué o o creo entender por qué lo
hicieron y es que históricamente la saga
de modelos GPTs cada vez que tú
aumentabas la numeración tiene que ver
con que el modelo base eh tú lo
escalabas, ¿no? Lo hacías más grande.
Esto es lo que se llama la ley de
escalas en el entrenamiento y es que si
tú tienes un modelo de inteligencia
artificial y lo entrenas con más
parámetros normalmente te da un modelo
mejor que puedes utilizar. Entonces, yo
creo que Open decía, claro, este modelo,
el O1 preview, realmente no es un modelo
más grande, realmente es un modelo, es
el mismo modelo GPT4, pero que estamos
haciéndole esta técnica de que genere
tokens, genere tokens, genere tokens y
entonces ya no en el entrenamiento, sino
en la inferencia pueda gastar más
computación para llegar a mejores
resultados. Con lo cual, bueno, no tiene
sentido llamarle GPT5, llamémosle de
otra forma. Ahí a mi gusto se
equivocaron y de hecho está visto porque
ahora mismo GPT5 ya es un modelo
razonador, ¿vale? Es decir, al final se
han reconducido y han se han cargado la
saga de modelos o un o tres eh y o
cuatro y la han reconvertido a GPT5.
Claro, es que por lo que dices un poco
GPT 4.2
>> según ellos era GPT5, ¿no? Por eso de
hacerlo más grande. Lo que pasa es que
se arrepintieron viendo que no era un
avance, le llamaron 4.2 y han hecho un
han dicho, "No, vamos a pelear GPT5 con
un razonador." O sea, tienes todo
sentido de que los naming son una
[ __ ] O sea,
>> sea Sí, sí se han hecho un lío este año
porque fíjate, ellos sacaron los unos,
los modelos resonadores, ¿okay? Y luego
sacaron GPT 4.5, que es un modelo que
salió
>> 4.5, cierto. He dicho 4.2 y no es 4.5.
Sí, sí.
>> Y lo mataron luego a los 4 meses, ¿eh? Y
luego sacaron GPT 4.1. ¿Sabes que es
como, por Dios,
>> sí? Sí que era como para código, pero no
sé qué.
>> Sí, era como para código, pero no. Eh,
entonces el 4.5 originalmente iba a ser
GPT5. era como su modelo interno que
habían entrenado más grande y el
resultado era un modelo muy pesado
porque si lo haces más grande es más
pesado, más costoso y más lento. Creo
que el coste API era $60 por un millón
de tokens, era una locura
>> y era muy lento de utilizar, era muy
pesado, era más inteligente, pero
tampoco te daba un extra que justificar
ese ese gasto.
>> Entonces, eso lo que demuestra es que al
menos con lo con el nivel de computación
que tenemos a día de hoy, un modelo del
tamaño de GPT 4.5 no es viable. ¿Qué es
viable en 2025? Modelos que sean más
ligeros, porque al final el paradigma de
los modelos razonadores lo que te dice
es, oye, ejecutan bucle este modelo,
genera muchos tokens y eso te va a dar
mejores resultados. Con lo cual, a ti te
interesa que ese modelo no sea muy
grande y pesado, sino que sea más
ligero.
>> También si lo quieres utilizar para
agentes autónomos, ya sabéis que si
usáis eh un agente al final está
iterando, usando herramientas,
reflexionando sobre si está bien. Es
como un bucle donde también te interesa
que el modelo sea ligero. Entonces, en
ese sentido, por volver a tu pregunta,
sí creo que la saga de modelos eh O1
preview O1 o 3 debería haberse llamado
GPT5.1.2.3
3 y entonces ahí todos estaríamos
celebrando de que GPT5 es la leche,
porque realmente a nivel de mejoras de
razonamiento sí hemos visto un salto
brutal de lo que era GPT4O en 2024 a lo
que tenemos a día de hoy, ¿vale? Incluso
el modelo GPT4O ha tenido
actualizaciones en mayo, en en junio,
pero pero si hemos tenido un salto
brutal,
>> ciertamente hemos tenido un salto brutal
en ciertos dominios concretos. Y aquí es
lo interesante de los modelos
razonadores. Los modelos razonadores
funcionan, ahora se están entrenando con
lo que se llama el reinforcement
learning, eh, que requieren parte de
poder tú eh tener un una estrategia para
decirle al modelo si lo que ha hecho o
lo que ha hecho si está bien o está mal.
¿Vale? Entonces, para el entrenamiento
hay ciertas tareas como es la
programación o matemáticas, eh, que es
muy agradecido porque tú puedes saber
rápidamente si ejecutas el código, si el
código está bien o mal, ¿no? Si cumple
unos requisitos, pasa unos tests.
>> Claro, es determinista, ¿no? Es
determinista, es más fácil,
>> es verificable, que se dice. Vale,
>> entonces es verificable, te pasa lo
mismo con matemáticas. tú puedes
llevártelo a cierto a ciertas
herramientas y verificar si el
desarrollo matemático es correcto.
>> Claro.
>> ¿Qué pasa con escritura creativa? Pues
tú no puedes verificar rápidamente si un
texto es mejor que otro. tienes que
leértelo y eso hace que el entrenamiento
sea más lento. Entonces, por eso hemos
visto que los modelos o un o tres o cu y
también Yemini y tal, nos estamos
centrando mucho en Open AI, pero hay
modelos excelentes de la competencia,
pues son cada vez mejores en estos en
estos ámbitos y hemos visto IAs ganando
competiciones de olimpiadas matemáticas,
hemos visto eh IAs haciendo
optimizaciones dentro de todo el stack
tecnológico de Google espectacular,
mejorando los el diseño de chips, todo
eso, todo lo que son problemas
verificables, la IA sigue avanzando a un
ritmo excelente y entonces yo ahí
respondiendo tu pregunta sí creo Creo
que hemos tenido un salto brutal eh
respecto a lo que los modelos de
lenguaje pueden ofrecer.
>> Eh, hablemos de China,
>> ¿vale?
>> Hablemos de China. Eh, el tema es que tú
lo comentabas, ¿no?, de que es difícil
monetizar porque encima ahora con
modelos de código abierto, pero lo que
estoy viendo es que sobre todo hay
muchos modelos de código abierto de
China. Yama, eh, Yamaha 3 fue un poquito
decepcionante, ciertamente, no llegó a
lo que se esperaba. Ha pasado un poco de
puntillas.
Hm. Y Meta está un poco desaparecida. Me
imagino que ha estado después de hacer
todas estas contrataciones tan bestias
pues cocinando algo. Pero lo cierto es
que los que llevan la delantera en
cuanto a modelos de código abierto,
porque bueno, de código abierto, que ya
sabemos que no es literalmente código
abierto, pero los open
source, pero que son open source de
aquella manera.
El de CHGPT también es un poquito,
bueno, el de Open AI es un poco de
aquella manera, pero Deep Sick, el de
Kimi, todos estos sí que parece ser que
tienen un nivel bastante importante.
¿Crees que China se va a poder al nivel?
Porque, bueno, al nivel está, pero mucho
más, o sea, se va a poner muy muy al
nivel o incluso por delante pronto
porque, ostras, la evolución que están
teniendo es espectacular.
Sí, fíjate que el 2025 empezó en enero
con Deepsic, con la salida de Deepsic y
fue un bombazo
>> y y en parte yo a mí me alegra mucho que
esté los modelos open source porque al
final eh permite escapar un poco también
de lo que las empresas privadas te
obligan pues a subir tus datos, a poder
ejecutarlo en tu ordenador sin conexión
a internet. O sea, tiene muchas
ventajas, eh, y es cierto que a estas
empresas le hace flaco favor, ¿no? O
sea, yo creo que la estrategia que tenía
Meta eh, como llegaba tarde a la
revolución de la IA eh, frente a Open
EAI y Google era, bueno, vamos a sacar
modelos como Yama eh que sean open
source y rompemos un poco la línea de
juego. Hm, de repente llega a China y
dice, "Ojo, que podemos hacer mejor este
juego, ¿no?" Y salen pues empresas como
Dipsic, eh, y todas las que están
saliendo también de vídeo, de imágenes.
Y realmente yo, si lo vamos midiendo,
las capacidades de los modelos open
source están a 6 8 meses de lo que son
los modelos frontera. Y esto es
espectacular. Eso les obliga a los
grandes laboratorios a estar rápidamente
iterando, mejorando su sistema y lo que
hablábamos antes, ¿no? Tú tienes que
tener una capa de aplicación potente que
justifique que los usuarios digan,
"Vale, pues me quedo en chat GPT, ¿no?"
Yo creo que a futuro muchas de estas
empresas van a jugar, por ejemplo, con
el tema de la memoria,
>> que le da personalización a los modelos.
Pues si tú tienes todas tus
conversaciones con chat GPT, pues te va
a dar pereza saltarte a Cloud o a un
modelo depsic porque dices tú, "Joder,
que el modelo este me conoce mejor."
Claro, ya se acuerda de mí, ¿no? Y todos
los problemas que
>> Claro, te empiezan a atrapar un poco en
el ecosistema, como sabemos que le gusta
hacer a a estas empresas y que tiene
mucho sentido, pero es cierto que que
las empresas chinas vienen muy potentes
y e incluso están jugando con handicaps.
Pensad que hay restricciones en el en el
acceso a la computación eh por parte de
Estados Unidos, porque parte de estas
empresas privadas han hecho lobby. Es
como el capitalismo, sí, pero hasta que
no
>> el libre mercado. Entonces, de repente
han puesto restricciones de qué tipo de
GPU pueden enviar, con qué potencia. En
Nvidia ha tenido que hacer cabriolas ahí
para poner GPUs, eh, con una cantidad
computación para China. Es decir, hay un
juego geopolítico que además tiene
sentido porque no estamos hablando de
una tecnología que es paladí, sino que
sí
>> eh a nivel geopolítico la inteligencia
artificial va a tener un una importancia
eh clave en el futuro y también el
acceso a la computación, ¿no? Lo que nos
estamos dando cuenta es que el que tenga
acceso a la computación va a poder
sacarle más partido a estos modelos que
el que no tenga acceso.
En este caso, China política dura
>> está trabajando en estos chips de
Huawei, que parece ser que el gobierno
chino obligaba a Deeps utilizar estos
chips y es la razón por la que parece
que se ha se ha [ __ ] ¿Crees que
realmente veremos un momento en el que,
bueno, ahora China con los chips de
Huawei, pero también Open AI está
diciendo que quiere crear sus propios
chips. Google también hay rumores que
quiere crear sus propios chips. Esto,
[ __ ] cambiaría un poco este monopolio
un poco que tiene Envidia, ¿no?
>> Sí tiene sentido. Es que ahora mismo la
empresa, o sea, el que se está llevando
el gato al agua en la batalla de la IA
es en Nvidia porque es el único que
ofrece eh ese stack de computación sobre
el que la inteligencia artificial se ha
construido.
>> Sí, creo que va a haber muchos intentos
y hay otras empresas que están
intentando también diferenciarse con eh
chips, procesadores un poquito más eh
exóticos, ¿no? Pues tenemos cerebras,
tenemos Grock que hacen inferencias
ultra rápidas y todos intentan comerse
parte del pastel. Y de hecho, a ver, no
es comerse tanto la cuota de mercado de
Nvidia, sino eh también satisfacer una
demanda que siga en crecimiento, es
decir, la demanda en computación va a
seguir creciendo.
>> Que yo te haya empezado a hablar de que
Repllit ahora te tiene una gente que
trabaja 200 minutos, significa que
tienes una GPU o todas las que hagan
falta para ejecutar ese modelo tirando
200 minutos por cada usuario. Eso es una
locura. Y los entrenamientos cada vez se
están haciendo más costosos porque eh tú
también quieres generar datos sintéticos
para tareas de horizonte más largo, con
lo cual tienes que generar datos
sintéticos que requieran de eh de que la
a resuelva tareas cada vez más
complejas, que requiere de más tiempo.
Entonces, las necesidades de computación
están yéndose al alza. Pese a que los
modelos cada vez son más eficientes, la
demanda de usuarios de computación cada
vez se incrementa y tiene el sentido que
Huawei, eh Google, Nvidia, todas estas
quieran hacer sus chips porque quien
desbloquee ese cuello de botella y pueda
acceder a más computación podrá iterar
más rápido, podrá generar eh mejores
algoritmos, entrenar más modelos,
modelos más grandes y satisfacer a más
usuarios. ¿Has notado esta recortada que
está pasando muchos servicios? Por
ejemplo, Anthopic es uno de los más
los que recibe más quejas, ¿no? De que
Cloud Code, por ejemplo, pues le ha
metido una recortada, una tijeretazo
brutal, pero bueno, no es el único. Ya
Open AI de una forma un poco silenciosa
había intentado alguna cosita. También
tenemos cursor, tenemos un montón de
casos, ¿no? Eh, ¿es una cosa que tú has
notado que te ha pasado y que lo has
sufrido o o no? No es una cosa que
todavía a ti te ha te ha afectado de
alguna forma,
>> ¿no? Tú lo vas notando al final cuando,
o sea, yo lo voy notando por por lo que
voy cubriendo, ¿no? Yo cuando veo, por
ejemplo, que Open AI saca GPT5 y elimina
todos los modelos del selector de
modelos, eh, es porque necesitan liberar
capacidad.
>> Eh, cuando ves que no han actualizado
Sora, es porque necesitan eh están
ahogados, le falta le falta computación.
Eh, veo las quejas de los usuarios con
el tema de cloud code. Hay muchas
señales que demuestran que efectivamente
hay un cuello de botella enorme en
computación. Por eso yo me río cuando la
gente hizo ese análisis en enero de ah,
que dips que entrena el modelo mucho más
barato que chat GPT, ergo no hace falta
computación, así que que caiga envidia y
es como, no estáis entendiendo de qué va
esto.
>> O sea, si tú liberas una cantidad de
computación porque haces el modelo más
eficiente,
>> te va a pasar dos cosas. Primero que
abaratas eh el acceso a ese modelo, con
lo cual eh la demanda va a incrementarse
porque a precio más barajo eh más barato
más usuarios y luego también es que si
un laboratorio tiene más capacidad de
computación va a serte un modelo más
potente, no se va a quedar con un modelo
intermedio y más barato.
>> Vale,
>> totalmente.
>> Y otra prueba, de hecho, de la falta de
computación es GPT5. GPT5 ya no es un
modelo enorme, ya no es un modelo más
grande o mucho más grande que GPT4. Es
un modelo, bueno, eh, que han tenido que
hacer este enrutador con un modelo muy
eficiente por una parte que funciona
fatal. El modo pro ya te cuesta 200
pavos, o sea, se va notando que la
inteligencia artificial ya según se va
gastando el dinero de los inversores,
eh, pues empieza a demostrar su precio
real.
>> Claro.
>> Es claro.
>> Yo yo esa es una sensación que tengo,
¿no? Que me da la sensación que vamos a
llegar a un punto ahora en el que
realmente vamos a pagar lo que cuesta.
De verdad, no, que hasta hace poco no
estamos pagando lo que costaba, sino que
estábamos pagando pues un poco el
conejillo de indias y tener ese hype y
disfrutarlo y tal, pero que ya estamos
viendo un poco las costuras de que
realmente esto tiene un coste importante
y aún así, aún así me da la sensación
que no estamos cerca de pagar realmente
lo que es porque veo lo de cursor y lo
que sí que está generando mucho revenue
anual, pero luego a la vez veo lo que
está quemando de dinero y dices, "Es que
no me sale las cuentas, es que te lo va
a tener que multiplicar por cinco para
que salgan las cuentas.
>> Sí. A ver, yo sí creo que si si hacemos
la comparación justa tendríamos que
comparar eh lo que nos costaba un modelo
como GPT4 con eh las capacidades que
tenía GPT4 hace un año con un modelo
como GPT4 a día de hoy. Eh, seguramente
eh sea mucho más barato ejecutarlo hoy
>> porque hay alternativas open source que
puedes ejecutar en tu ordenador eh
mejores incluso que lo que teníamos hace
un año. O sea, creo que el problema es
que al mismo tiempo que sí los modelos
se van haciendo más baratos, eh, luego
es cierto que las empresas tienen que
encarecer porque a lo mejor el dinero de
los inversores se va gastando, al mismo
tiempo las capacidades siguen subiendo,
o sea, tenemos cada vez modelos más
competentes y eso se paga, ¿vale?
Entonces, seguramente llegamos a un
punto en el que, y yo ya he escuchado
testimonios de gente que usando cloud
code pagan las eh eh cantidades enormes
de dinero, pero porque le sale rentable,
porque realmente eh hacen las
matemáticas y dicen, "Vale, es que yo
cuando ejecuto 20 agentes para hacer 20
proyectos en paralelo, eh, pues el
retorno que obtengo de esto es mayor.
>> Entonces sí veremos gente pagando una
cantidad
>> absurda
>> que no nos cabe la Sí. absor de de
dinero, pero porque realmente el valor
que estos módulos pueden ofrecer va a
justificarlo.
>> Carlos, ¿cuándo ha sido la última vez
que has alucinado con la IA? Por última
vez, que hayas dicho, "Hostia, me cago
en la [ __ ] esto es increíble."
>> Es muy difícil, tío, porque ya creo que
estamos eh anulados, ¿no? De de tantas
novedades.
>> Yo yo lo comparo mucho con vivir en el
mundo de Harry Potter cuando tienen
magia, pero la usan de forma
supermundana, en plan que no le llama la
atención porque, [ __ ] ya está ahí, no
es magia. Pero he de decir que aún así
este año eh y hace no mucho flipé con
Jenny 3. Jenny 3 creo que el que haya
visto los resultados, que es este modelo
de Google de generación de vídeo en
tiempo real, que puedes interactuar con
el mundo,
>> eh, aun cuando sabíamos que algo así iba
a llegar, sorprende verlo funcionar.
>> Es espectacular. Yo creo que es, estoy
de acuerdo contigo que es es como lo que
más me ha volado la cabeza este año.
Como que hacía tiempo que no había algo
en inteligencia artificial que yo decía,
"Hostia, esto es increíble." O sea, me
sorprende, ¿no? Oye, han mejorado esto
de vídeo, han mejorado esto, pero
[ __ ] Jenny 3, me parece increíble que
te genere en tiempo real un mundo y que
sea encima interactivo que te puedas
mover.
Me parece esto, esto
>> es una barbaridad, o sea, que que tú te
puedas mover por ese mundo y decir, pues
me voy a ir por el palmeral a la derecha
a ver qué qué hay por ahí a [ __ ] un
coco. Es bastante loco. Entonces sí es
de lo último que ha salido que me ha
sorprendido. Si quito Jenny 3, sería BO3
de Google también. Y eso habla mucho de
el la situación de poder que tiene
Google ahora mismo, que desde el año
pasado que pues te digo, ¿no? En la midu
salió el notebook LM, que también nos
voló a todos la cabeza, pues en materia
de generativa Google está haciendo los
deberes muy bien.
>> Totalmente. De cara al año que viene,
¿qué qué esperamos? O sea, ¿cuáles son
tus hot takes o cuáles son? No sé,
porque el año el año pasado yo creo que
hablamos de los agentes y la verdad es
que los agentes es verdad que han
mejorado, pero es lo que decías, ¿no?,
que muy enfocados a programación. Yo al
menos tengo un poco la percepción que
estoy un poco decepcionado de cómo iban
a ser los agentes, esa idea de operator
y todo esto y se ha quedado muy
descanfeinado, excepto para
programación. No sé si de aquí a final
de año o incluso de cara al año que
viene, qué es lo que ves así realmente
que que tú esperas que sabes que va a
pasar o que te gustaría. sabes que
dices, "Hostia, a mí lo que me gustaría
es que pasase esto,
>> ¿no?" Yo creo que, a ver, los agentes
todavía están en una fase de desarrollo.
Creo que a nivel de demo es bastante
impresionante cuando ves el chat GPT
Agent funcionando y tal,
>> eh, es bastante interesante y hay
algunos casos de uso para los que es
útil, pero todavía es lento y costoso.
Entonces, yo creo que a mí personalmente
me encantaría un año en el que no pasara
nada en inteligencia artificial,
>> pero hiciéramos un por 10 en velocidad,
por ejemplo.
>> Bu,
>> vale, que todo funcionara mucho más
rápido. Ya.
>> Y y y cuando eso ocurriera, realmente
tendríamos un montón de beneficio de la
inteligencia artificial, porque todavía
hay muchos procesos, incluso programar,
eh todavía estamos ahí sentados mirando
la pantalla mientras el código se genera
y es es lento y pesado. Imagínate que
aceleras esto un por 10, que hacemos más
eficiente a todos los programadores del
mundo, que eh sistemas como el chat GPT
agent funciona más rápido. Eso me
gustaría bastante. Y hay algunas hay
avances pues en lo obvio, ¿no? Los
modelos de lenguaje cada vez se vuelven
más eficientes y año tras año el coste
de los modelos se vuelve más barato, o
sea, con capacidad de seteris paribus.
Eh, pero luego es cierto que
que eso que yo modelos más rápidos es lo
que pido a los Reyes Magos.
>> Y oye, ¿crees antes lo has mencionado la
ley de escalas, pero crees que la ley de
escalas se ha agotado?
Creo que no, o sea, no creo que se haya
agotado, por ejemplo, la de
entrenamiento, no creo que se haya
agotado,
>> sino que está en un nivel ahora que se
vuelve incómodo para la cantidad de
computación que tenemos,
>> ¿vale? Es decir, un modelo como GPT 4.5,
a lo mejor si tú lo pones a en modo
razonamiento
por el propio aprendizaje de haber
pasado a un modelo más grande, ese
conocimiento interno lo puede aprovechar
mucho mejor que un modelo más ligero. Y
a lo mejor ese razonador es mucho más
potente, pero ¿qué pasa? que no tiene un
sentido económico.
>> No tiene un sentido económico poner un
modelo tan costoso en 2025 con la
cantidad de computación, con el hardware
que tenemos, eh aerar 200 minutos, por
ejemplo. Entonces, eh creo que no se ha
agotado, sino que bueno, que realmente
es muy costoso todavía. Habrá que ver en
el futuro, habrá que ver con modelos más
grandes y más potentes, si tiene
sentido. Igualmente, creo que estamos en
una fase ahora en la que estamos
decidiendo si queremos modelos más
grandes y pesados o modelos más pequeños
y ligeros que hagan uso de herramientas
y que por tanto descargue las
necesidades de tener modelos tan
grandes. Porque, ¿de qué nos sirve tener
un GPT 4.5 que sepa quién es Carlos
Santana Vega? Pues nada, realmente ese
dato si puede usar una herramienta de
forma efectiva y buscar por internet,
pues lo podemos descargar de ese tamaño
de parámetros y tener un modelo más
ligero.
>> Claro. Bueno, yo creo que la idea del
enrutador inteligente este de Open AI es
buena idea. Lo que pasa es que hay que
afinarlo mucho,
>> que modelos pequeños hiperespecializados
es la clave, que al final el mixture of
experts es un poco esta idea, ¿no?
llevada, eh, pero bueno, separados los
modelos quizá, que es lo que dices tú,
¿para qué quieres el conocimiento de
geografía, pues a lo mejor podemos tener
modelos más específicos que tengan
cálculo, que por ejemplo todavía le
cuesta mucho el cálculo, bueno, pues es
que igual necesitamos un modelo
específico para esto que sepan rutar,
¿no?, en todo momento, pero claro,
entonces necesitaremos un modelo
enrutador que también sea lo
suficientemente inteligente para
enrotarlo todo, ¿no? Ojalá, ojalá. Pues
Carlos, muchísimas gracias por pasarte,
de verdad, un verdadero honor tenerte y
hablar de de algo tan interesante con la
inteligencia artificial porque, bueno,
aparte que lo tenemos en nuestro día a
día y tal,
>> se habla poco eh de inteligencia
artificial.
>> Sí, se habla demasiado poco. Yo creo yo
creo que deberíamos ¿Quieres pasarte
mañana y hablamos 4 horas?
>> Sí, sí, sí. No, no, ya la próxima vez
hablamos de carreras y del estado.
>> [ __ ] sí, sí. que encima Carlos, que
ahora he visto que está volviendo que
estás corriendo, que que nada, que me
encanta ver que el running está llegando
también al mundo de inteligencia
artificial. Yo le paso al Estrava, el
Strava se lo paso a HG GPT para que me
diga, "Oye, ¿cómo lo he hecho hoy?" Y
tal
>> y me dice, "Bueno, mejor no opino." Me
dice el cabrón.
>> "Pero cómo no va cómo no va a opinar,
Midu si te hace media Barcelona en un
día." Madre mía.
>> Qué va. Bueno, Carlos, te mando un aband
un abrazo muy grande. Cuídate. Nos vemos
en la siguiente. Chao.
>> Bueno, pues será Carlos Santana. 12V en
redes sociales, es divulgador de
inteligencia artificial, por supuesto,
podéis ir a su canal de YouTube. Ayer
mismo, y lo tengo pendiente todavía,
hizo un directo de no sé cuántas horas,
pero estuvo un buen rato porque yo es
que estaba estaba en directo, pero
estuvo hablando justamente de esto, ¿no?
Si la AGI ha muerto, si todavía está
disponible, no sé qué. Así que os
recomiendo, estuvo 2 horas y media ahí
hablando con Andrés Torrubia, le echáis
un vistazo muy interesante, 12SV, lo
tenéis ahí en YouTube, en Twitter, en un
montón de sitios y no os perdáis todo lo
que tiene que comentar sobre
inteligencia artificial porque es
superinesante. Ya sabéis que sabe sabe
un montón y muy interesante su opinión
al respecto. La verdad es que muy de
acuerdo con lo que lo que comenta. Sí
que sí que veo que que ha bajado un poco
el suflet, ¿eh? Ha bajado un poquillo
suflet, pero es normal, o sea, y estoy
de acuerdo con él. Eh, yo creo que una
cosa que sería muy interesante es que
ahora eh veamos mejoras de velocidad,
¿no? mejoras de velocidad que no de
realmente o de costes, velocidad, costes
y cosas así, en lugar de ser mejoras de
que sea más inteligente, porque me da la
sensación que GPT5 pues más inteligente
y tampoco noto yo muchas Cosas.