El SALARIO de ELON MUSK, lo “NUEVO” de APPLE y la SENTENCIA de GOOGLE | Tertulia de itnig

Duration

75:12

Captions

1

Language

ES

Published

Sep 11, 2025

Description

Volvemos de vacaciones con una tertulia cargada: arrancamos ligeros y entramos a fondo en la “ilustración oscura”, el tecno-feudalismo y la visión de poder de Peter Thiel y el círculo neorreaccionario, y cómo ese imaginario se cuela en debates políticos de alto nivel. Comentamos la cena en la Casa Blanca con los grandes CEOs: el momento “gracias, gracias…” de Tim Cook, las risas de Zuckerberg y el festival de promesas de inversión, y lo que eso dice de la relación poder-tech hoy. Pasamos a “Little Tech vs Big Tech”: el supuesto manifiesto pro-pequeños, el proteccionismo “a lo chino” y cómo la consolidación está dejando hueco solo para unos pocos. Caso del día: Browser Company (Arc). ¿Tiene sentido que Atlassian se lleve un navegador por ~600M con casi cero revenue? Le damos contexto histórico y de negocio. Zoom al antitrust: qué dice realmente la sentencia sobre Google, nada de romper Chrome/Android, pero adiós a exclusividades de búsqueda (como con Safari), comité técnico y compartir ciertos datos con competidores y por qué llega justo cuando el paradigma del search se mueve hacia modelos tipo OpenAI con Microsoft. Cerramos con GPT-5: más preciso y con menos alucinaciones… a costa de latencias que en API se sienten duras frente a la experiencia en Chat. Qué significa esto para producto y para workflows reales. 🎙️ ¿Quieres participar en el podcast de Itnig o patrocinar uno de los episodios? Aparecer en el podcast: https://tally.so/r/wo1Poe Patrocinar el podcast: https://tally.so/r/3EERLN 🔔 Suscríbete a Itnig para más entrevistas con los fundadores de las startups más ambiciosas SOBRE ITNIG 🐦 X - ⁠https://x.com/itnig 💡 LinkedIn -⁠ https://linkedin.com/company/itnig 📸 Instagram - ⁠https://instagram.com/itnig 💌 Newsletter - ⁠https://itnig.net/newsletter/⁠ 🌐 Web -⁠ https://itnig.net/ ⁠ ESCUCHA NUESTRO PODCAST EN 🔊 Spotify: ⁠http://bit.ly/itnigspotify⁠ 🎙️ Apple Podcast: ⁠http://bit.ly/itnigapple⁠ Índice: 00:00:00 Intro y vuelta de vacaciones. 00:03:45 tecno-feudalismo y el marco ideológico tech. 00:05:18 Giro político en la Casa Blanca; tecnólogos pro-Trump y desencanto. 00:08:52 Cena en la Casa Blanca con Big Tech 00:10:34 Little Tech” vs “Big Tech” 00:17:16 Atlassian compra Arc (The Browser Company) por ~600 M 00:18:12 Sentencia a Google 00:23:45 GPT vs navegador 00:33:42 Multas y licencias en IA 00:53:42 Salario Elon Musk 00:57:50 “Trillions”: Oracle/Larry Ellison y la ola de IA (datacenters, contratos, valoraciones). 01:08:36 Latitude Product Hunt 01:12:45 Tertulia en directo (25-Sep Barcelona)

Captions (1)

00:00

¿Visteis la cena de todos los líderes

00:02

tech en la Casa Blanca? Uso este puente

00:05

para hablar de Chrome y de y de la

00:07

sentencia que finalmente decide no

00:10

romper Google. CHGPT tiene más va a

00:13

tener más información que el navegador.

00:15

¿Habéis visto el evento de Apple?

00:16

Me he leído un libro este verano, un

00:18

libro sobre Joh Mccafi.

00:19

Mm. [ __ ] vaya, vaya figura, ¿eh? Sí,

00:22

sí. The man who hacked the world, el

00:24

hombre que hackeó al mundo, que es una

00:26

autobiografía de un ghost writer, y se

00:29

obsesiona y le escribe un email a John

00:30

McFi diciéndole, "Yo soy especial como

00:32

tú." Viven juntos durante un tiempo. Se

00:35

fugan del gobierno, se fugan del de los

00:37

cárteles del FBI, viajan juntos y tal y

00:40

de repente John Mccafi, que está

00:42

loquísimo, le estaba,

00:43

"Oye, ¿queréis hablar del salario de

00:45

Elon Mask?" [ __ ] un trilion he leído.

00:47

Bienvenidos a la tertulia de Idnic.

00:51

Bienvenidos a una nueva tertulia de

00:52

Idnick. Estamos aquí muy de cachondeo,

00:55

riéndose de mi español

00:57

de Japón

00:59

y y bueno, ¿cómo? ¿Qué tal? ¿Cómo

01:01

estáis? Bienvenidos después de

01:02

vacaciones. Pasado mucho tiempo.

01:06

Eh, ¿qué tal las vacaciones, César?

01:08

Bien, bien. Eh, no muchas, pero bien.

01:10

¿Por qué no muchas? Bu, porque

01:13

lockin

01:15

996, no estos términos que que se llaman

01:17

ahora, ¿no? Decis 996 meme es el meme de

01:19

la semana pasada, ¿no? De lock team de

01:21

septiembre a diciembre.

01:22

Exacto.

01:23

Que que yo lo leí, pensé, pues sí,

01:25

porque

01:26

vale, vale, espera gente igual sigue.

01:29

Vamos a Twitter directo. Eh, bueno,

01:31

memes que salen por internet. Había un

01:33

meme de oye, estoy creo que era e

01:37

eh Bercel

01:40

Raúl. Guillermo,

01:41

Guillermo Rouch de Bercel

01:43

casi,

01:44

eh, que decía, "Bu, estamos, estoy

01:46

viendo que todo el mundo está

01:47

loctiembre,

01:48

diciembre 2025 a todo gas, ¿no?" Y todo

01:50

el mundo contestando, "Sí, sí, 996, que

01:53

es el lo que antes se decía que era el

01:55

horario laboral chino, que es trabajar

01:57

de 9 de la mañana a 9 de la noche 6 días

01:59

a la semana." Y ahora en Silicon Valley

02:01

está todo el mundo en plan,

02:02

ahora no siempre. Es la cultura un poco

02:04

de Silicon Valley, que no es hacerlo, es

02:05

hablar de hacerlo.

02:06

Porque Silicon Valley y yo perdón

02:09

he visto en las startups de Silicon

02:10

Valley he visto la gente trabajar menos

02:12

que las startups de Barcelona

02:13

pero con diferencia e

02:14

no pero que están en barbaco hablando de

02:15

que hacen el nuevo 6

02:17

cor aquí. Aquí hablan del Barça, allí

02:20

hablan de que trabajan mientras no

02:21

trabajan, pero bueno, algunos trabajan

02:23

mucho, otros no, como aquí, como todas

02:24

partes. Eh, pues sí, lo septiembre,

02:27

decimme que para factores y demás son

02:28

meses super importantes, entonces

02:30

realmente la intensidad que tenemos aquí

02:32

en general, o sea, para todas las

02:33

empresas, ¿no? O sea, la preparación de

02:35

final del año es un buen empujes, ¿no?

02:37

Depende del sector.

02:38

Eso es la estacionalidad. Hombre, si

02:41

tienes un chinuquito en la playa,

02:42

seguramente no no vas a estar lock de

02:44

septiembre,

02:44

¿no? Pero los consumers los consumers

02:46

tienen el Black Friday y tienen Navidad

02:49

y tienes estas cosas,

02:51

¿eh? Y las empresas tenemos un poco el

02:53

para el año que viene, ¿no? Preparas

02:55

proyectos de mejora para el año que

02:56

viene.

02:57

Jordi, ¿tú qué tal las vacaciones?

02:58

Yo muy bien. Agosto muy aburrido, la

03:00

verdad. Eh, está en Switch.

03:02

Qué aburrido el agosto.

03:03

Ya

03:04

no pasan cosas.

03:04

No pasan cosas. En España no pasa nada,

03:06

¿no? Eh, estaba, bueno, no estaba ni en

03:08

España porque me fui a Suiza con la

03:10

familia de mi mujer y supertranquilo,

03:13

fresquito, molestando a los pocos que

03:15

trabajaban aquí e desde la casa de mis

03:18

suegros y ahora a tope, la verdad es que

03:20

super contentos. Pero sí, yo hice

03:22

vacaciones en julio. En julio que creo

03:23

que hicimos tertulia, que me estuve una

03:25

semana en Suecia. Tú, ¿qué tal? ¿Tú qué

03:26

has hecho? Yo bien, yo he estado aquí en

03:28

Barcelona, en casa, encerrado, eh, por

03:33

motivo

03:34

de seguridad nacional,

03:35

por motivo de seguridad nacional, eh,

03:38

que no no me no me apetece disclose.

03:40

Vale. Eh,

03:41

no te has ido a ninguna parte.

03:42

No me he ido a ninguna parte. Bueno,

03:43

aunque bueno, también estado leyendo de

03:44

filosofía eh, que comentemos comentado

03:47

tú y yo

03:48

eh algunas ideas de de gente que está

03:52

detrás, de hecho, de los del movimiento

03:54

político eh imperante en Estados Unidos.

03:57

Pues que me lo contaste, no he parado de

03:59

leer, ¿eh? Vaya vaya locura.

04:02

La gente que que cree en un futuro

04:05

posthumano directamente.

04:07

Peterill,

04:08

Peterill, pero que Peter tiene

04:09

Cristo es Roma. tiene tiene una serie de

04:12

intelectuales detrás, ¿no? Eh,

04:14

filosóficos, políticos, Nick Land a

04:17

nivel filosófico,

04:19

eh Cortis y Arvin a nivel político, ¿no?

04:23

Que que realmente creen en una visión

04:25

del mundo posthumana donde ya no el ser

04:28

humano ya no es lo más importante, ¿no?

04:30

Son partidarios del aceleracionismo

04:32

tecnológico,

04:34

eh, de la de un sistema postdemocrático

04:37

donde

04:39

da miodelo de post democrático.

04:40

Sí. O sea, es una especie de feudalismo,

04:42

feudalismo tech,

04:44

sí. eh donde bueno, es una se organiza

04:48

la sociedad como si fuera una empresa

04:51

eh y es un poco la teoría de Peter del

04:54

Z0 to one de del monopolio, ¿no? De la

04:59

concentración del poder, ¿no? Todo va

05:01

alrededor de de esto, ¿no? de por qué

05:04

vimos un sistema tan decadente, tan

05:07

fragmentado, eh donde al final es es la

05:10

dictadura de la de la narrativa del que

05:13

gestiona los medios de comunicación,

05:15

¿no? Y el la narrativa imperante versus

05:18

aquello que es eficiente, que que es

05:21

potente, como es la tecnología. Eh, este

05:24

esta idea humanista eh de la ilustración

05:27

pues la critican mucho y hablan de una

05:30

ilustración oscura.

05:33

donde se impone un modelo tecnológico eh

05:37

autárquico,

05:38

perdón, autárquico, eh autocrático eh y

05:42

tal, ¿no? Y es un poco, o sea, a mí me

05:44

preocupa mucho porque estas ideas están

05:45

detrás de Peterill, de Elon Mask, ¿no? Y

05:49

de JD Bans, ¿no? y de es un poco el el

05:53

movimiento intelectual detrás de lo que

05:55

estamos viendo en la Casa Blanca a día

05:57

de hoy, que tiene un efecto brutal en

06:00

todo el mundo, ¿no?

06:02

Y no sé si visteis esta semana,

06:04

la Casa Blanca va y viene, eh, también

06:06

porque la posición política de la Casa

06:09

Blanca ha cambiado mucho, o sea, desde

06:11

que los Mask no está, se de hecho, no se

06:14

se un poco se distanciaron mucho de Elon

06:16

Mask y Donald Trump y había un mensaje

06:19

protec progreso, eh, bajar gastos, tal,

06:22

que que no se pusieron de acuerdo y de

06:24

repente Trump dijo, "No, no, más deuda,

06:27

más inversión y MASK dijo, "No, no, que

06:29

y ahí se desentendieron." O sea, que no

06:31

está tan claro que la Casa Blanca este.

06:33

Yo es que creo les ha salido un poco el

06:34

tiro por la culata a los tecnólogos.

06:37

A Tram, no, a Tram creo no le sale por

06:39

la culata. Em, pero es bestia porque

06:41

estuve leyendo el blog de de eh, ¿cómo

06:45

se llama? Cartisin

06:47

e y el tío ya proponía a Trump en tipo,

06:50

no sé, 2012, 2013 como uno de los dos

06:53

posibles eh futuros presidentes de

06:55

Estados Unidos que pueda llevar a cabo

06:57

este tipo de de acciones.

06:59

Eh, y ahora está bastante desencantado,

07:00

¿no?, con las políticas de Trump. En

07:03

general, todos estos tecnólogos eh han

07:05

visto un poco que Trump al final ha sido

07:06

un poco y ha habido una reculada bestia.

07:09

Yo me acuerdo eh total

07:10

a finales del año pasado, principios de

07:12

este año, eh que quizá el pico no fue

07:14

principios de este año, 2025, casi todo

07:17

el mundo con quien yo hablo en Chilicon

07:19

Valley era abiertamente pro Trump

07:22

y ha habido una reculada importante. Hay

07:23

mucha gente que

07:24

pero públicamente no se muestra, eh,

07:25

porque esto es otra cosa, eh, la gente

07:27

le tiene mucho miedo.

07:28

La gente le tiene mucho miedo, si no yo

07:30

digo en mis gente con la que yo hablo

07:32

quizá no públicamente en Twitter, estoy

07:33

de acuerdo,

07:34

muchísimo miedo,

07:35

pero que todo el mundo se había bebido

07:36

el coolate, ¿no? O sea, había como

07:37

creído que no, que que Trump no es lo

07:39

que te pensabas, que era todo fake news,

07:40

que en realidad es un tío bueno, se se

07:43

les ha bajado un poco esto y han dicho,

07:45

"Bo tram sí, que es lo que me pensaba

07:46

más o menos y y luego se ha peleado con

07:49

Elon Mas que representaba una parte de

07:50

de forma bastante pública, además, eh,

07:52

porque los tweets de Ilon contra una

07:53

época cuando se salió el dog, madre

07:56

mía." No sé, yo yo veo lo más que que

07:59

tiene una opinión ahora divergente de lo

08:01

que es la opinión pública en el mundo

08:03

tech, que sigue siendo Trump y que oye,

08:07

All Incast, por ejemplo, no es un canal

08:09

de publicidad

08:11

ya abiertamente de

08:12

ahora oficial

08:13

oficialmente, ¿no? está David Sax ahí,

08:16

pues es básicamente eh una una un branch

08:19

de PR de la Casa Blanca más, o sea, no

08:22

no hay ningún tipo de divergencia,

08:25

opinión, pero es que también los otros

08:26

podcast que son parecidos a este que

08:28

hablan BC de Silicon Valley, son

08:30

bastante convergentes a esta

08:31

buo la la el universo de Peter Thil,

08:35

Founders Fan, Andrisen Horwich, ¿qué más

08:39

hay? Estos hacen mucha sombra, hablan

08:41

muy bien, tienen unas ideas muy fuertes

08:43

y y están dominando. Los demás, los Rit

08:46

Hoffmans del mundo, se han quedado

08:48

solitos,

08:48

han desaparecido.

08:50

Yo no veo ningún canal que tenga una

08:52

opinión diferente.

08:53

O sea, para mí la única persona

08:54

importante en Silicon Val que realmente

08:56

dice cosas en contra, ¿no? Y y les hace

08:58

un poco de debate es, por ejemplo, Rit

09:00

Hoffman, que yo creo que se acaba

09:01

cansando. Carwiser, eh,

09:03

sí, pero no no es lo mismo.

09:05

Rit Hoffman eh, se acaba cansando. Yo

09:07

creo que al final dice, "Bueno, iros ya,

09:08

a tomar por saco y me voy a mi casita y

09:10

descanso." E

09:12

visteis la escena, de todos los líderes

09:15

tec en la Casa Blanca.

09:16

Gracias, gracias, gracias por invitarme.

09:18

Me gusta tomar cerveza, me gusta hablar.

09:22

Gracias, gracias.

09:23

Las declaraciones de Tim Cook, ¿qué te

09:25

parecieron?

09:26

Dijo básicamente lo que acaba de decir

09:27

yo ahora. Patético, muy gracioso. No

09:30

sabe si se está descojonando de Trump en

09:32

su cara. Yo creo iba con cuidado.

09:35

Iba con cuidado, pero era tan obvio. O

09:36

sea, se directamente Team Cooko de

09:39

Apple, eh una de las empresas más

09:40

grandes importantes del mundo, eh su

09:44

mensaje de bienvenida, ¿no? Cuando

09:47

Donald Trump dijo, "Bueno, Team Apple,

09:49

¿no? ¿Tú qué dices?" Dijo, "Gracias,

09:50

gracias, gracias, gracias. Me gusta

09:53

cenar y me gusta interactuar. Gracias."

09:57

Y 600.

09:58

Eso es una transcripción literal, eh,

09:59

literal. Lo escuché cuatro veces porque

10:00

no me lo creía. Eh, literalmente no es

10:03

porque lo he visto en un montón de

10:04

fuentes y tal

10:06

y y esta era la temática en general.

10:08

veías unas risas de Mark Zuckerberg

10:10

cuando le preguntaba sobre el free

10:12

speech o

10:14

no

10:15

pero la cosa era que todos dijera un

10:16

número de cuánto van a invertir en

10:17

Estados Unidos y de hecho es gracioso

10:19

porque fuera de micro aparentemente eh

10:21

Marckerberg eh comentando con Trump le

10:24

dijo algo en plan, "Hostia, no sabía

10:25

cuánto cuánto querías que dijera

10:26

improvisado.

10:27

Lo he improvisado bien."

10:29

La improvisación fue 600 billion

10:32

porque estos números se los lleva al

10:33

viento.

10:34

Eso luego lo pintas en la en la pianel y

10:36

ya está, ¿sabes? No, no lo repitas en

10:37

ninguna parte. Cuando sal dice, "Sí,

10:39

esto es para est

10:40

tal como acaba el vídeo y se se ha ido

10:42

este número, nadie le importa. Esto es

10:43

propaganda."

10:43

Hace tres o cuatro meses salieron Larry

10:46

Ellison, eh, Masayoshi San y Sam Alman.

10:50

No sé si os acordáis que también

10:52

uno decía, "Yo voy a invertir 100

10:53

billion y yo 600 iban diciendo, y luego

10:57

qué terrible.

10:58

Búscalos estos billions. Nadie ha

11:00

escrito."

11:00

Y luego y luego cuando viene un

11:01

satiadela y dice, "Nosotros 80, ¿dónde

11:04

vas con 80 billion? No, ya

11:07

si tienes al de al lado que invierte de

11:08

verdad y el otro dice cosas.

11:11

Sean más de verdad los de Sat.

11:12

Es verdad. O sea, Satia los invierte de

11:13

verdad, pero claro, el otro dice 600, te

11:16

quedas mal.

11:18

Sí, sí. Bueno, patético la escena esta

11:19

patética. Eh, yo creo que

11:22

Pero aparte el Little Tech, que es este

11:24

concepto que se se inventó Andrison

11:26

Horwits, ¿no? Que ellos querían proteger

11:28

el Little Tech.

11:29

¿Quién es Little Tech?

11:29

O sea, e el Big Tech, que son esta cena

11:32

Little Tech.

11:32

Nosotros somos Little Tech.

11:34

Tú estabas en la cena. No, ¿verdad? Pues

11:37

eres little tech.

11:37

Vale. Estoy contento. Si soy tech. Ya

11:40

estoy contento.

11:41

Bueno, pues toda la gente que no es big

11:42

tech es Little Tech, ¿vale?

11:44

Con lo cual todos nosotros somos Little

11:45

Tech.

11:45

Somos Little Tech. Todos somos Little

11:47

Tech aquí.

11:49

Eh, pero Andrisen Horwits hacía como un

11:51

manifiesto sobre protegiendo el little

11:53

tech, ¿no? Y la importancia del Little

11:54

Tech. O sea, esto de alguna forma eh lo

11:58

que está haciendo aquí la Casa Blanca o

12:00

Trump tal es proteger, llegar a acuerdos

12:02

con los Big Tech, ¿no? Que no deja de

12:05

ser un proteccionismo a lo chino. Porque

12:08

yo cuando fui a China y hablé con varias

12:10

startups de ahí, la gente me decía,

12:12

"Mira, el problema que tienes aquí es

12:13

que no puedes crecer. Es imposible que

12:16

seas un unicornio, un big player, porque

12:18

te va a acabar absorbiendo un Alibaba,

12:21

un Tensent, o sea, solo tienes un

12:23

camino,

12:23

los tentáculos,

12:24

solo tienes un camino que son las

12:26

empresas que tienen el beneplácito del

12:28

gobierno te pueden comprar, pero no hay

12:32

más caminos en el mundo tecno, solo hay

12:34

un camino a la consolidación.

12:36

Eh, y y lo que estoy viendo es que en

12:37

Estados Unidos de alguna forma está

12:39

pasando lo mismo, ¿no? Está el gobierno

12:41

llegando, acercándose mucho a estas

12:44

grandes empresas. ¿Y qué pasa con el

12:46

Little Tech? No

12:48

es que si miras el Samp 500 ya está

12:50

pasando esto, ¿no?

12:51

Ya está pasando eso.

12:51

O sea, las Magnificent 7, que son las

12:53

únicas que están creciendo,

12:55

y las otras flat desde hace un tiempo

12:57

ya.

12:58

Claro, pero

12:58

y no hay mane

13:00

Bueno,

13:01

hay muy poco

13:05

grande.

13:06

Eh, se ha intentado eh temas

13:09

regulatorios. Eh, Figma, de hecho, caso

13:11

interesante, acabó saliendo a bolsa, eh,

13:13

la petó fuerte y ahora está un poco en

13:15

la [ __ ]

13:16

E

13:17

no está en la [ __ ] pero

13:18

no no la creo que está por debajo de

13:20

está 18 veces facturación de los

13:22

próximos 12 meses y había llegado a

13:24

estar a 40 casi. Entonces sí, o sea, ha

13:26

bajado la mitad. Es una putada bajado.

13:28

Me parece después de los earnis, no sé

13:29

si lo has visto, eh, han bajado incluso

13:30

más, ¿eh?

13:31

Sí, mir,

13:32

estaba 34 billion de capitalización y

13:35

ahora está como 20 pico.

13:37

Sí, 18 veces de Yanar o o facturación

13:39

próximos, ¿eh? 18 meses,

13:41

eh, que sí que está bien,

13:43

no son los 60 de Palantir,

13:45

pero tampoco son los 12 de la mediana y

13:48

de las empresas de software cotizadas.

13:50

Entonces, mm

13:52

sí, o sea, pegó un viaje bastante

13:55

bastante bestia,

13:56

¿no? Pero ya grandes adquisiciones

13:58

igual, ¿no? Eh, sí que se ve los es que

14:01

además son son empresas privadas las que

14:02

están adquiriendo ahora. Son sobre todo

14:03

los labs grandes de AI, eh, tipo Open AI

14:07

comprando.

14:07

Bueno, pero sí, pero que que compran,

14:09

que no compran porque luego hacen que te

14:11

compro el 49% y una licencia y derecho a

14:15

tal. O sea, que esto no se mane.

14:16

¿Cómo se llama la compañía que he

14:17

comprado? Sis eh no sé qué.

14:19

Eh, Statsic.

14:21

Stats

14:21

statsic que no tiene nada que ver con

14:23

ella ahí. Esta chic es una es una

14:26

startup que hace un software que te

14:29

permite hacer heavy testing y

14:30

lanzamiento de features e que nosotros

14:33

usamos los feature flags famosos, ¿no?

14:35

Que es cuando tú haces una

14:36

funcionalidad, la despliegas, pero la

14:38

gente no tiene acceso a ella y tal.

14:39

Entonces dicen que es un poco rara la

14:41

adquisición. Eh eh tenía yo por ahí.

14:43

No es tan rara cuando te das cuenta que

14:44

tenían de cliente anthropic.

14:46

Es que es es que de verdad,

14:48

no le han comprado statsic 40 millones

14:51

de Yarar según Twitter, pero más o menos

14:53

me fío, creciendo dos veces año año, o

14:55

sea, 100% de crecimiento por un billón,

14:59

o sea,

15:01

una buena valoración. E es una

15:05

Sí, hay MNI, hay M& en AI, concretamente

15:08

hay MNI en NI, pero empresas no

15:09

cotizadas, yo creo que es importante,

15:11

¿eh? O sea, las únicas que compran son

15:12

empresas no cotizadas. Las cotizadas

15:13

compran muy poco, no les dejan. se lo

15:15

tumban casi todo

15:17

y da un miedo regulatorio de precio por

15:19

acción y tal que al final se cortan.

15:20

Pero bueno, perdona. Bueno,

15:22

el Little Tech, sí,

15:23

¿no? Ya está, ¿no?

15:26

Que a nosotros nos gusta el Little Tech,

15:27

simplemente esta reflexión, ¿no? De

15:28

decir, "Oye, das más poder, más

15:31

acuerdos, proteccionismo nacionalista,

15:34

vente aquí, trabaja en mi manera como yo

15:36

te digo, ta ta ta ta ta ta ta ta, y te

15:38

ayudaré en," no. Entonces, esto son

15:40

barreras, son todos son barreras para el

15:42

que quiera hacer algo diferente, ¿no?

15:44

O sea, es pro business

15:46

para mis business, ¿no? Para mis que

15:48

tengo acuerdos, que haces lo que tú

15:49

quieres, que hablas bien de mí y que no

15:51

sé qué ta ta ta.

15:52

No, un poco círculo cerrado. Pero esto

15:54

es muy es muy china esto.

15:55

Sí. Y no lo sé, pero puedes llegar a

15:57

pensar que si hay donaciones, si hay no

16:00

eh favores,

16:02

o sea, te abre la puerta un poco a a que

16:04

haya favoritismos que puede llevar esta

16:06

gente que está en libertaria, no sé,

16:08

esto es muy poco libertario, ¿no? Es muy

16:09

poco mercado libre,

16:11

no sé, pues libertario,

16:14

es que es al revés darle más cada vez

16:15

más poder al propio gobierno, al propio

16:18

estado, o sea, las fronteras menos

16:20

claras entre el estado.

16:21

Que el estado es bueno o malo depende de

16:22

si tú lo controlas o no, ¿sabes? No, no,

16:25

este control

16:27

este es el tema

16:28

un eman que sí que ha habido, mira, me

16:30

como unas palabras, eh, que lo tenía

16:31

apuntado aquí, The Browser Company New

16:33

York,

16:34

que es el nombre más guapo de empresa,

16:36

que yo creo que todos hemos querido

16:37

renombrar nuestra empresa a The Software

16:39

Company of Barcelona.

16:40

Montón ahora ya llegamos tarde,

16:41

ya llegamos tarde. Eh, The Bra Company

16:44

of New York, es la empresa que hacía Arc

16:46

Arc

16:47

eh,

16:48

que es, ¿cómo se llama esto? Ghost

16:50

Ghostware, no, software abandonado.

16:53

Eh,

16:53

tiene un nombre esto, eh, cuando Abandon

16:56

eh, que es Abandonware, o sea, yo estoy,

16:57

mi navegador principal es Abandonware,

16:59

que me me jode muchísimo.

17:00

¿Sigues usándolo?

17:01

Lo sigo usando, lo tengo delante mío y y

17:03

Día, ¿no?, que es el nuevo navegador de

17:05

IA que nadie ha usado o que la gente que

17:07

lo ha probado ha dicho que no tiene

17:08

ningún sentido. La ha comprado alasian

17:10

por 600 millones de dólares americanos.

17:12

Cash

17:13

cash, eh, con cero revenio.

17:16

Es que bueno,

17:17

no está mal. 600 kg.

17:19

Sí, sí. No los hacemos equipo

17:20

cada día.

17:21

Son buen equipo.

17:22

Son buen equipo. La cuja es más caro.

17:25

El de Johnny.

17:27

El de Johnny.

17:27

Bueno, sí, correcto.

17:28

Gana un poquito, ¿no? Pero además

17:29

Atlasian que no es Open AI, porque Open

17:31

AI tiene como dinero de monopoli. Bueno,

17:33

hecho esto anteriorment cuando compró

17:35

Trelo. Trelo era el Darling del

17:37

Prosumer.

17:39

Sí,

17:39

que es un poco el mismo tipo de perfil

17:42

fue 50, 100 millones. No, no,

17:44

sí,

17:44

no creo que fuera algo

17:46

Trelo,

17:46

no me acuerdo. Hace años yo competía

17:48

contra Trelo. Tenía revenue de

17:50

donaciones Trelo, o sea, tenía un plan

17:52

premium que era opcional, te daban unas

17:54

etiquetas de colores, o sea, tenían como

17:55

unas features inútiles y era como una

17:57

donación y tenían algo de revenue.

17:58

2016 era era otro momento, mágic

18:00

fueron momentos mágicos y yo competía

18:01

contra estos que di, [ __ ] así es

18:02

difícil, ¿no? Eh, pues sí, Atlasen

18:05

comprando un navegador y y es muy

18:06

curioso porque por una parte dices, hay

18:08

una bruja de la [ __ ] por otra parte

18:10

dices, Google casi la obligan a

18:13

separarse de Chrome

18:15

y cuidado que Chrome es un negocio que

18:16

te puede facturar 20, 30

18:20

billion de dólares, como Safari para

18:23

factura 20 billón de dólares al año

18:24

dejándole a Google que ponga publicidad,

18:26

¿no? Entonces, bueno, si Arc la peta,

18:29

puede llegar a tener un revenue.

18:30

A no, Ark no,

18:31

no, porque no la peta. O sea, Chrome

18:34

abandonado

18:34

tiene muchos usuarios.

18:36

¿Sabes qué quiero decir? Que un

18:37

navegador sin revenue puede llegar a

18:39

tener mucho revenue,

18:40

como ha demostrado Apple con su deal con

18:43

Google, Firefox y eh Chrome, ¿no? Que

18:47

cuando le llegaban a a a obligar a

18:49

sacarlo, que al final no lo han

18:50

obligado, ¿no? Parecía parecía que iba a

18:51

ser un negocio de la [ __ ] en realidad.

18:52

Chrom.

18:53

Oye, uso este puente para hablar de

18:55

Chrome.

18:55

Ya. Perfecto.

18:57

Y de y de la sentencia del 2 de

19:00

septiembre de del tribunal, no sé qué

19:03

irrelevante,

19:05

eh, que finalmente decide no romper

19:08

Google. Llevamos años aquí hablando de

19:10

Hay muchas sentencias, ¿no? Porque hay

19:11

como 14 sentencias que han dicho que sí

19:13

y luego hay la sentencia de la

19:14

sentencia, la sentencia que di

19:15

la definitiva es que no.

19:17

Ya, para siempre.

19:18

Para siempre. Bueno, 10 años.

19:20

Okay.

19:20

10 años,

19:21

buenas noticias para Google

19:22

con un comité de seguimiento técnico que

19:25

irá evaluando que Google no rompa

19:27

estas fronteras. También es verdad que

19:29

por el camino ha cambiado el paradigma,

19:32

o sea, el sech está cambiando

19:34

radicalmente.

19:35

Ha cambiado el gobierno americano, ¿no?

19:37

De de Biden a Trump. Y

19:39

sí, pero no es que bueno, algo tiene que

19:41

apretar.

19:41

Puede ser que tenga

19:43

y search ha dejado de hacer así para

19:45

hacer así. Claro. Open y no y Open AI no

19:48

es Google, ¿no?

19:49

Y es el líder del nuevo paradigma de

19:52

búsqueda

19:53

y está controlado por Microsoft, que es

19:54

el archi enemigo de Google en algunas

19:56

batallas. O sea,

19:57

por eso que esto en este juicio les

19:59

habrá servido, al menos algo, ¿no? Esto

20:01

les habrá servido para decir, "Oye, que

20:02

no somos los líderes."

20:03

Es el otro, el bully es el otro.

20:07

Eh, la sentencia lo que sí dice es que

20:11

no puede pedir la exclusividad a ningún

20:14

eh search engine, o sea, no puede tener

20:16

en exclusividad Google

20:18

estos acuerdos que llegaba con Safari

20:21

que tiene que preguntar ahora que qué

20:23

browser, o sea, qué buscador quieres o

20:25

como en Europa.

20:25

Lo tiene que preguntar como en Europa y

20:27

no puede llegar a un acuerdo económico

20:29

para conseguir la exclusividad ni puede

20:31

usar un producto eh de Google para

20:34

vender otro. O sea, hacer bandling entre

20:37

los

20:37

Esto es imposible no hacerlo.

20:39

Bueno. Hm. No puede hacerlo ahora. No

20:42

puede hacerlo y tiene un comité técnico

20:43

revisándolo que te imaginas que 60

20:45

funcionarios 60 funcionarios mirando ahí

20:48

todo lo todos los eh que vas a poner un

20:50

botón de YouTube dentro de Gmail, no

20:53

puedes.

20:54

Es más más cosas. Esto que tiene que ver

20:55

con Chrome,

20:57

bueno, con Search,

20:59

es con el monopolio

21:00

sech está cruzado,

21:01

¿vale?

21:01

O sea, el tema es Google es un

21:04

monopolio, tiene el navegador y tiene la

21:06

búsqueda, ¿no? Y con eso está

21:07

controlando todo. Eh, también se hablaba

21:09

de eso, por cierto, también se hablaba

21:11

de Android de de hacerle obligarle a

21:13

vender eh Android. ni Android ni Chrome

21:16

le obligan a venderlomm

21:19

eh, pero van a controlar este tipo de

21:21

bandling, que es lo mismo que le

21:22

hicieron a Microsoft en los años 2000,

21:25

eh,

21:25

con el con Windows.

21:27

Claro, jodió, claro, claro que le jodió.

21:29

Eh, no es solo eso, además tiene que

21:31

compartir la información que recapte a

21:34

través de su navegador y su buscador. Su

21:36

buscador, perdona. compartir con quién,

21:38

con los competidores. O sea, toda la

21:40

información, todos los índices, todo lo

21:42

que está clicando, las estadísticas de

21:44

los usuarios cuando entran en un

21:46

resultado y luego entran en otro, va a

21:48

estar obligado a compartirlo.

21:49

Qué arbitrario.

21:51

Ya. Hm. No sé en qué se va a traducir a

21:53

la práctica.

21:54

No sé cómo se ejecuta,

21:55

pero se va a publicar en algún sitio.

21:57

Harán algún report una vez al año y ya

22:00

está.

22:01

No, no, no. Tienen que poder usarlo

22:02

programáticamente estas estos datos. Los

22:05

competidores.

22:06

¿Qué competidores?

22:07

Los otros ser engine go obviamente go.

22:12

Eh, ¿qué más? eh

22:15

también aplica a Geni, es decir, no

22:19

pueden utilizar estas mismas medidas en

22:22

la búsqueda en en en AI, digamos, en la

22:25

búsqueda de AI esto. Eh

22:26

eh bueno,

22:29

durante van a tener un comité técnico

22:30

durante 6 años, perdón, no 10, eh, y van

22:34

a tener van a estar revisando todo lo

22:35

que hacen, ¿no?

22:37

Bueno, básicamente es de esto.

22:39

Ao,

22:39

no les obligan a tener un choice screen

22:41

ni les obligan a romper

22:44

Chrome y Android,

22:46

eso no, pero no pueden llegar a acuerdos

22:48

de exclusividad.

22:50

Eso significa que compartir los datos.

22:51

Van a dejar de pagarle 20 billion al año

22:54

a Apple.

22:54

Sí, exacto.

22:56

Pues vaya putada para Apple. Totalmente.

22:59

O sea, es acuerdos de exclusividad

23:00

relacionados con Chrome o con otros

23:02

navegadores

23:02

con Search.

23:03

En se con otros navegadores. Apple.

23:06

al año.

23:08

Y en Europa hay otra hay otra sentencia

23:11

abierta de una multa de tres billion que

23:14

le quieren poner a Google por razones

23:16

parecidas y veremos cómo acaba también

23:18

porque esto no ha acabado.

23:20

Madre mía.

23:21

Pero vaya, vaya follón, ¿eh? M

23:23

casi era mejor venderse Chrome y poder

23:26

hacer lo que te dé la gana, ¿no? Es que

23:27

al final si tienes tantos peros pase

23:29

paralizar,

23:30

pasa que ahora el momento navegador es

23:32

tenso, ¿eh?

23:34

Yo yo sí que veo un día

23:36

comet eh, quedanos al mercado de

23:38

navegadores.

23:38

Puede ser, con lo cual quizá el Chrom ya

23:40

no vale tanto, te da igual,

23:41

hombre, pero Chrome tienen la

23:42

oportunidad de ser ellos, ¿sabes? Que

23:44

ten la distribución.

23:46

¿Qué distribución? Chrome.

23:47

Claro,

23:49

o sea, meter las fitros que tiene día o

23:50

las que tiene Comet, no, no creo que sea

23:53

para tanto,

23:53

ya

23:54

sabes y ya tienen la distribución,

23:55

entonces evitan que la gente se cambie

23:57

de navegador,

23:58

¿no? Más que la distribución lo que

23:59

tiene es la información del usuario,

24:02

¿no? Cuanto más cuanto bajas más el

24:04

nivel eh en el que estás captando todo

24:07

lo que está haciendo el usuario, ¿no? Si

24:08

vas a nivel de navegador tienes toda la

24:10

información, a nivel de search engine

24:12

tienes menos información. O sea, lo que

24:14

tienes lo que tienes es control sobre

24:17

cuánta información del navegador acaba

24:19

pasando a los providers de las páginas

24:22

web, ¿sabes? Y puedes

24:24

Sí, lo que lo que veo que hay una gran

24:25

diferencia es con CH GPT, o sea, CHGPT

24:28

tiene más va a tener más información

24:32

que el navegador

24:35

por la naturaleza de las conversaciones

24:36

que tienes con la forma, la experiencia

24:38

de usuario

24:40

te te obliga a subirle la radiografía

24:42

del riñón. Totalmente.

24:44

En Google no la radiatografía del

24:45

Claro.

24:47

Que lo integres con Gmail o con

24:48

cualquier cosa ya tiene acceso a todo.

24:50

Sí, sí,

24:51

sí. Yo no sé vosotros, pero yo le voy

24:52

chutando muchas cosas.

24:55

O sea, Samman sabe todo sobre ti, ¿no?

24:57

Y sobre Factorial.

25:00

Esto los de que no se enteren.

25:02

Utilizas la versión Enterprise que

25:04

tenemos en Factoria. Un premis. Un

25:05

premis instalado en mi armario.

25:07

No, no, la que tenemos de verdad,

25:09

¿eh? No, a ver, no, obviamente hay cosas

25:11

que no las no las subo, ¿no? Pero pero

25:13

en general es que es inevitable, es que

25:15

es muy útil

25:16

para digerir grandes tamaños de

25:18

información.

25:19

¿Qué tal, GPT5?

25:23

Has dejado votando ahí, ¿eh?

25:26

Pues

25:28

bien, ¿eh?

25:30

Sí,

25:30

sí, sí.

25:31

No es un poco más de lo mismo.

25:33

¿Te ha cambiado la vida de cuatro a

25:34

cinco y de lo tres al cinco?

25:36

No. Toma decisiones de qué razonar y qué

25:38

no razonar. Puede ser. en algunos casos

25:40

más más lento, en otros pero más más

25:44

acurado. Veces más lento, pero pero es

25:47

más

25:47

más preciso, alucina menos,

25:51

eh

25:51

alucina menos, sí, dice menos tonterías.

25:54

Dice menos tonterías. Estoy de acuerdo

25:55

con esto.

25:56

GPT5 Pro, ¿lo habéis probado?

25:57

Sí,

25:58

es la [ __ ]

25:58

Yo no sé por qué lo tengo. Creo que en

25:59

la cuenta de Factorial, eh, por eso

26:02

tengo acceso a él. Es

26:03

el de 200 € no lo tengo.

26:06

Yo tengo el pro también, no pago 200 € y

26:09

piensa un huevo.

26:11

Sí, como tarda mucho,

26:14

tarda mucho. Es brutal y eso es bueno.

26:17

No,

26:17

no, pero para es para todo.

26:20

Claro.

26:21

Pero, pero, ¿por qué? ¿Por qué es la

26:22

[ __ ]

26:23

Porque prepara muy bien. O sea, por

26:25

ejemplo, para podcasts, antes he grabado

26:27

un podcast y se lo ocurra,

26:29

se lo ocurra. Con un prom poco currado,

26:32

la respuesta está bastante currada.

26:33

Ahora, el problema es que me he

26:34

acostumbrado a esperarme 10 segundos, 5

26:37

segundos y ahora me quedo ahí como un

26:39

tonto mirando 2 minutos al móvil, hm,

26:41

voy a hacer otra cosa. Y ya se me olvida

26:43

que le había pedido hacer esto, ¿sabes?

26:45

Entonces el sí, es un deep research todo

26:48

el rato. Bueno,

26:49

y muy bueno, la verdad, pero bueno, la

26:51

verdad es que yo me esperaba más, eh,

26:53

con GPT5, me esperaba más. Está bien.

26:55

Claro, habían hecho un hype de la

26:56

[ __ ]

26:57

Haban hecho un hype de la [ __ ] está

26:58

mejor. O3 estaba muy bien.

27:00

Yo creo que estaba muy bien.

27:01

Open AI se está convirtiendo en empresa

27:03

100% consumer. Eh,

27:05

o sea, nosotros que lo vemos desde el

27:07

otro lado en latitud, eh, hemos

27:09

intentado usar GPT5 a través de la API y

27:12

es que es es infumable, tío. O sea, es

27:15

absolutamente inusable. Unas latencias

27:17

que dices, "Esto no no se puede, eh,

27:20

pero que son latencias que no se

27:21

perciben en chat GPT, ¿sabes? Incluso CH

27:23

GPT cuando tú le pides algo sobre usando

27:25

GPT5 mini o incluso nano, eh, el tiempo

27:28

al primer token a través de la API es

27:31

que no se puede trabajar con eso. Es

27:32

terrible.

27:33

Es cierto que la la experiencia de

27:34

usuario y la ingeniería que hacen de UX

27:36

es muy buena.

27:37

Como consumidor consiguen que no parezca

27:40

que lo que están haciendo es una locura.

27:41

Pero yo creo que las máquinas las tienen

27:45

eh no optimizadas, pero preparadas para

27:47

para consumers. Yo no es César y yo no

27:51

estoy escuchando eso, ¿eh? O sea, la

27:52

gente utiliza están contentos con GPT5

27:55

en la

27:55

a nivel de App.

27:56

Nuestro equipo, por ejemplo,

27:57

sí, por ejemplo, nuestro equipo, eh,

27:58

pero pero mucha más gente, eh,

28:00

depende de,

28:00

o sea, que les ha cambiado, les ha

28:02

mejorado mucho. De hecho, Antropic es

28:04

para nada lo que yo he escuchado.

28:06

No, no, para nada, para nada. De hecho,

28:08

o sea, los propios empleados de PNI en

28:10

los foros

28:10

están usando Antropic,

28:12

¿te imaginas? No, están diciendo, "No

28:14

uséis GPT5 por ahora, usa GPT41 o 4U."

28:19

Los propios empleados de PN. Esto,

28:20

esto es psicología inversa, ¿eh? son los

28:21

genios del marketing, dicen, "No, no, es

28:23

demasiado potente." No lois,

28:24

¿no? En lo que lo estabilizan, porque es

28:26

lo que digo, yo creo, las máquinas las

28:27

tienen eh con prioridad para consumer,

28:30

para con prioridad para HGPT y dicen que

28:33

la API no la uses,

28:34

puede ser,

28:35

hasta que lo estabilicen todo y y

28:37

consigan sacar una versión mejor del

28:39

modelo.

28:39

Sí, sí. Y en nuestra experiencia con eh

28:42

ahora que hemos estado montando un agent

28:44

que monta agents eh hemos intentado

28:47

pasarlo todo a GPT5 y ha sido

28:49

absolutamente imposible, tío,

28:51

absolutamente imposible. O sea, por los

28:53

tiempos y alucinaciones, eh, no sigue

28:56

las instrucciones, tool calling fatal, o

28:58

sea, incapaz absoluto de de montar una

29:01

agente con GPT5.

29:03

Profundizaré, ya te diré. Lo lo que he

29:06

escuchado es que Codex está volviendo a

29:08

ganar eh tirada, ¿no? O sea, me acuerdo

29:11

en julio

29:13

eh que todo era cloud code, todos a

29:15

cloud, todos a clot, lo demás es todo

29:17

basura, no hace falta nada más. Todo

29:18

cloud

29:19

en agosto más o menos tranquilos y ahora

29:22

de repente clot es una [ __ ] Se ve que

29:24

han bajado mucho los límites, ¿no? O

29:26

sea, enseguida te limitan, con lo cual

29:29

baja la calidad está teniendo problemas

29:31

de de servidores, eh,

29:33

no tienen envidias. Eh,

29:35

esto lo vemos todo el rato. Eh, nosotros

29:37

algunas algunos de nuestros subagentes

29:39

funcionan con Sonet, y

29:42

que es el modelo de clot,

29:43

que es el modelo de cloud, eh, y muchas

29:45

veces nos devuelve overloaded,

29:47

overloadedad, overloaded y son los

29:48

servidores de Anthopic que no pueden con

29:50

ellos.

29:50

Y entonces están metiendo mucho rate

29:51

limiting, ¿no? O sea, están capacidad.

29:54

muchísimo.

29:54

Eh, creo que también han subido precios,

29:56

pero también es porque la calidad es

29:57

muchísimo mejor que que los de Open AI.

29:58

Eh,

29:59

bueno, si está es mejor, si no está no

30:00

es mejor, ¿no? Entonces la gente dice,

30:02

"No va." Y se están yendo muchos a Codex

30:04

de Open AI

30:06

y otros a

30:07

algunos al nuevo de de XI. Sí, sí.

30:10

Que dicen que va bastante bien. Cosas

30:12

preguntar.

30:13

Eh, creo que es un modelo muy potente, o

30:15

sea, que está al nivel de Open AI casi.

30:18

Eh, pasa que no tiene no tiene

30:21

alineamiento de ningún tipo.

30:22

Es nazi.

30:24

un poquito

30:24

el problema es es muy bueno, pero

30:26

es verdad que no sé vuestra experiencia,

30:27

pero en Twitter, tío, a mí me me parece

30:31

es muy útil. Yo lo uso lo uso solo en el

30:33

contexto de Twitter, ¿qué es esto?

30:34

Quiero entenderlo, quiero profundizar.

30:36

Una cosa que no hemos hablado, creo, es

30:39

eh lo de XI, o sea, Twitter y los

30:41

companions

30:43

que se han puesto muy fuertes. De hecho,

30:44

en agosto

30:44

companga esto,

30:46

sí, no, tú no has visto esto, estabas

30:48

liado en tu casa. Eh, este agosto, o

30:51

sea, este verano, pero sobre todo del

30:52

anteagosto, eh Twitter X ha empezado a

30:56

pushear mucho, eh, companions que son

30:59

amigos que

31:00

no te salen los anuncios en Twitter. No

31:01

te sal anuncias en Twitter

31:04

todo el día.

31:05

Intento no usar Twitter, pero pero

31:06

desafortunadamente uso explican estas

31:08

cosas, ¿no? Te sale un manga de una

31:10

chica muy prominente,

31:12

minifalda,

31:12

eh con vestida de manera, digamos, al

31:14

límite de lo que es okay eh, ¿no? Para

31:17

todos los públicos,

31:18

de lo que me apetece ver en mi teléfono,

31:19

honestamente, cuando estoy leyendo

31:20

Twitter,

31:20

¿no? O sea, es el límite de lo que te

31:22

apetece ver en tu teléfono.

31:23

Es pasado el límite.

31:24

Vale. Tú estás diciendo que es lo que te

31:25

apetece ver en tu teléfono, solo para

31:27

clarificarte. Tú estás ahí leyendo y ves

31:30

esto y dices, "¿Qué [ __ ] es esto?" Y

31:32

es Twitter haciendo un anuncio en

31:34

Twitter de "Prueba nuestros nuevos

31:36

companions que son tus amigos". Y tienen

31:39

como una cosa sexy. Y los ejemplos son

31:42

frases de que llevas puesto, eh, que te

31:44

que te apetece, no sé, o sea, como cosas

31:47

sexy, eh, tirando a no sé si

31:49

pornografía, pero la erótica, ¿no? Y y

31:52

tal. Eh, y el meme de este verano era,

31:55

"Me habían prometido curar el cáncer,

31:57

eh, llegar a la luna y estoy eh haciendo

32:00

chatbots porno

32:01

en en XI, en la empresa de los mask y

32:04

realmente te hace pensar, dices, "¿Qué

32:05

haces?"

32:06

Es que hay un trend consumer muy

32:08

bestial. Eso es lo que es lo que, o sea,

32:12

en en Chag el uso más extendido, eso lo

32:15

vi hace un tiempo, es companionship. Es

32:18

es amigo.

32:19

Sí,

32:20

pero ojo porque acá hay varias demandas

32:22

de gente que se ha suicidado,

32:24

¿sí?

32:25

Y que luego han encontrado todo el track

32:27

récord de conversaciones con CHGPT que

32:29

de alguna forma le ha motivado, no le ha

32:31

motivado, pero le ha incentivado. Sí,

32:32

sí, sí.

32:33

Le ha validado,

32:33

le ha validado su pensamiento suicidas.

32:37

Y cuando lanzaron CH GPT 5

32:41

hubo gente que quería cortarle la cabeza

32:43

a Samalman porque le había robado a su

32:45

novia

32:46

y tuvieron que poner GPT4. El GPT 4 era

32:50

eh la pareja, el companion de de

32:52

millones de personas que estaban

32:53

enamorados de 4o. O claro, le cambiaron

32:56

le cambiaron la novia

32:57

porque de repente Char GPT5 te da como

33:00

unos emojis con unos bullet points y

33:01

dices, "No, no, yo quiero la persona que

33:03

me comprende, que me dice que tengo

33:04

razón." Y eso esto da miedo. Eh, yo

33:06

cuando leía estas había manifestaciones

33:09

y tal,

33:09

cuando cuando más se va desarrollando la

33:11

ventana de contexto, la memoria, todo el

33:14

contexto que vas generando con un

33:16

agente, cada vez se parece más a una

33:18

relación, ¿sabes? Porque a mí, o sea, yo

33:21

no sé vosotros, pero a mí me da los me

33:24

llama la gente de mis amigos y tal por

33:25

sus nombres, porque a veces le he dicho,

33:28

"Oye, tal, Jordi, no sé qué." Y me dice,

33:29

"Sí, pues dile a Jordi,

33:31

¿sabes?

33:32

No hables de mí. Tú no le hables de mí.

33:33

No, no, yo lo cuento todo lo tuyo.

33:39

Ahora voy a hablarlo yo de ti. Pues que

33:41

sepas que me rat

33:44

y luego me asegura, no te preocupes que

33:46

esto quede entre nosotros.

33:47

Sí, hace así, ¿no?

33:49

Entre nosotros y el gobierno de Estados

33:50

Unidos, ¿no?

33:51

Exacto. Y Sam. Y el tío Sam. El tío Sam.

33:55

En fin. Eh, que es es un poco, o sea, yo

33:58

creo dentro de unos años eso será muy

34:00

habitual.

34:01

Eh, hablando de de Antropic eh, y de

34:03

multas, leía también que no sé si habéis

34:05

enterado, le han clavado 1000, creo que

34:07

00 millones de dólares de multa antropic

34:09

e por copyright de libros

34:13

no tienen suficiente con lo que cuesta

34:14

el compute. También hay que ir pagando

34:16

multas,

34:17

o sea, aquí se for levantar 14 bilios,

34:18

¿no? Algo así

34:20

se forra.

34:20

Pues ya son 12.

34:22

Sí, 12 y medio. Eh, Jensen Juan, el

34:25

amigo que siempre gana,

34:26

honestamente. Sí. y y los gobiernos,

34:28

¿no?, entre Europa y Estados Unidos que

34:30

van clavando billions de multa a Todo

34:32

Kisky.

34:33

Sí, sí.

34:33

Bueno, algo ahora han hecho que se lo

34:34

merecen, ¿eh? O sea, se ve que sí que

34:36

estaban estaban pasándose por el [ __ ]

34:37

de copyright y era un problema.

34:40

El otro había un mapa de eh las

34:43

licencias entre proveedores de contenido

34:45

y de datos y los laboratorios grandes de

34:47

no sé si lo viste en Twitter,

34:48

el de Redit, ¿no?

34:49

Eh, no sé si era de Redit.

34:51

Bueno, perdón, acaba. Em, sí que me

34:54

sorprendió ver que por lo menos la mitad

34:56

de las relaciones entre estas entidades

35:01

eh son licenciadas con contrato a día de

35:04

hoy.

35:04

Eh, que yo me hubiera imaginado

35:06

bastantes menos

35:06

que la número uno en Open AI es Reddit,

35:09

o sea, la fuente número uno. Sí,

35:12

que a mí me sorprendió porque a mí Redit

35:13

me encanta como usuario. Cuando quiero

35:14

saber la verdad voy a Redit.

35:16

Sí,

35:17

sí.

35:17

V a estar lleno de

35:18

la verdad. V redit flipando.

35:20

Hay profundidad en Reddit. Hay

35:22

profundidad, o sea, internet está no hay

35:24

profundidad de [ __ ] pero hay

35:26

profundidad de todo realmente.

35:28

Pero de verdad, eh, una cosa obscura que

35:30

tú quieres saber, tú piensas de cables

35:32

USBC, USBC como este que tengo aquí. Si

35:35

tú quieres saber la persona que más

35:36

conoce de cables USBC, USBC, está en

35:38

redit

35:39

todo el día hablando de este tema.

35:41

Entonces, si yo quiero buscar USBC cable

35:44

review, pongo Reddit al final de Google,

35:46

es lo que he hecho yo durante los

35:47

últimos 10 años. encuentro redit, hablo.

35:50

No busques en YouTube.

35:51

No, no, no busco en Reddit. en YouTube

35:54

también de noche, de día, en Reed,

35:55

disculpe, depender ya de mis hábitos,

35:56

pero eh pues es verdad, cuando ya acabo

35:59

de trabajar en mi casa con el iPad, pero

36:01

en Redit hay como los expertos de todo y

36:04

y Open AI publicó, no sé cómo, eh la

36:07

lista de fuentes que tenía y la número

36:09

uno era Reddit, que tiene una licencia,

36:11

de hecho creo que le paga 600 kg

36:13

eh durante cuántos años por por acceder

36:15

al contenido de creo que 100 al año, 100

36:17

millones de dólares al año.

36:18

Oye, cambiemos de tema. Eh, ¿habéis

36:20

visto el evento de Apple? Sí,

36:22

he visto lo que han anunciado.

36:24

Yo evento entero.

36:25

Dijeron que estaba guay, ¿no? Mejor que

36:27

a ver como producción

36:28

lo de siempre.

36:29

O sea, yo hoy tenía una No, es la

36:30

[ __ ] A mí a mí

36:33

yo te digo que a mí no, o sea, este este

36:35

formato de salir gente que no conoces,

36:38

que no es especialmente carismática,

36:41

no son Steve Jobs.

36:42

No son Steve Jobs, que no es el formato

36:44

Keynote. A mí me gusta el formato

36:46

era valiente. Era valiente.

36:48

No, no es los toros, o sea, la gente se

36:50

pone ahí delante del toro.

36:51

Claro. ¿Qué es esto de Kito?

36:53

Y fallaban cada dos años. Yo me acuerdo

36:55

que veías con las no con las palomitas,

36:57

pero casi y de repente el Mac tal y

37:00

ponían una manta encima de un Mac y

37:01

salía otro Mac debajo la mesa y dices,

37:04

"Uh, he visto el cambiazo." Esto era

37:06

verdad, esto lo he pasado varias veces y

37:07

era divertidísimo.

37:08

Claro, pero ahora todo producido,

37:10

¿eh? Dentro de poco le va a hacer un

37:12

algoritmo.

37:13

Sí,

37:14

nano banana.

37:14

De hecho, se dice que team Cook no es

37:17

humano.

37:18

Puede ser. Marber tampoco, ¿eh? Marber

37:21

tampoco. Ya lo sabíamos.

37:22

Lo sabíamos. Cariño, Mar, si nos ves.

37:25

Eh, bueno, ¿qué tú has visto algo que te

37:27

ha interesado?

37:28

Bueno, ayer, no, eh, estamos miércoles

37:31

ahora en en vida real. Ayer martes se

37:33

publicó el iPhone 17, el 17 Pro, Pro

37:36

Max, 17R y el 16 eh algo.

37:40

AirPods 3 y relojes, que yo creo que ya

37:42

los relojes son tan irrelevantes, o sea,

37:44

el el Apple Watch,

37:45

bueno, ahí sale gente que le le ha

37:47

salvado la vida mil veces. Estos vídeos

37:50

son de lagrimita. Bueno, hoy con nuestro

37:52

equipo de product marketing les he

37:53

dicho, "Deja lo que estás haciendo, ves

37:55

a ver esto, esto es lo que necesitamos,

37:56

hablar del impacto que tienen nuestros

37:58

productos y en las personas y mi ejemplo

37:59

siempre es el Apple Watch que salva

38:01

vidas a la gente, pero la novedad de

38:03

Apple Watch es que hacía, me lo saltaba.

38:06

Es lo mismo ya

38:08

que los últimos no sé cuántos años. O

38:10

sea, el Apple Watch es super

38:12

incremental, no cambia nada.

38:13

Bueno, han hecho más resistente a

38:14

rayadas la el cristal,

38:17

la definición de incrementar. Sí,

38:19

at the atomic level.

38:22

Esto es muy importante.

38:23

Sí, sí.

38:24

Y no, sí, poco más. Bueno, y que tiene

38:27

5G, no sé qué, o sea, tiene siempre

38:29

cobertura, tal y satelital,

38:33

eh, se puede conectar con satélite.

38:34

Eso ya pasaba,

38:35

ya pasaba. No, creo que no.

38:36

Yo creo que el ultra

38:38

es que siempre te lo cuentan como nunca

38:40

ha pasado antes, es el mejor de nunca,

38:42

pero dices, ya me lo espero que sea el

38:44

mejor de nunca. No es peor que el del

38:45

año pasado. Lo siento.

38:48

Es que cada vez dicen lo mismo. Es el

38:50

mejor que nunca se ha hecho

38:51

y lo dicen con cara sorpresa. It's the

38:52

best iPhone I've ever had. Ya es el

38:55

nuevo. Claro,

38:57

hay dos cosas que que han presentado que

38:59

están bien en mi opinión.

39:00

A ver,

39:01

eh, el iPhone Pro naranja, por el hecho

39:04

de que es naranja,

39:04

mola un poquito.

39:05

A mí me gusta bastante ese Safety

39:07

Orange. A mí me me flipa. Es el orange

39:09

del Apple Watch Ultra del botón, ese

39:11

toquecillo como más aventurero.

39:14

CL voy a confesar que yo el Apple Watch

39:16

eh, cuando me lo renové, que ahora ya no

39:17

lo llevo porque grande, me compré el

39:19

ultra solo por el botón naranja porque

39:21

me flipaba.

39:22

Y ya y ya no lo llevas.

39:25

Es el problema. Es el problema.

39:26

Yo a mí me divorcian. Si llevo una me

39:28

divorcian, no me dejan.

39:30

Yo tengo una mesa que se movía y está

39:32

aguantándola ahora mismo.

39:33

Está ahí debajo.

39:33

Está ahí debajo.

39:35

Debajo del acaban todos. Yo me compré un

39:39

un Apple Watch no ultra, el normal, eh,

39:41

no existía el ultra, si no me lo hab

39:42

comprado el ultra, tengo que reconocer

39:43

que mola el ultra.

39:45

Eh, lo usé 10 días, de hecho, eh, fuimos

39:48

a hacer un viaje contigo que queríamos

39:50

ir a Baleares y nos fuimos. Pues ese

39:52

viaje estuve testeando. Recuerde, no

39:54

recuerdes.

39:55

Bueno, es igual.

39:55

E lo devolviste.

39:56

Y lo devolví.

39:57

Y lo devolví porque no, primero no

39:59

quiero más notificaciones, quiero menos

40:01

notificaciones y estéticamente no me

40:03

gusta. Ya,

40:04

estéticamente no me gusta. Me gusta.

40:05

Te salva la vida, ¿eh?

40:06

Pues

40:07

o sea, cuando tienes un accidente de

40:08

coche,

40:08

tú prefieres llama a la policía

40:10

vivir menos y ser cool o vivir más

40:14

sin ser cool,

40:15

no sé, dicen que es el el reloj más

40:17

vendido en el mundo cona diferencia.

40:20

Pero lo curioso es que esto es muy

40:21

interesante porque hay un una revista

40:22

que me recomendó César que es buenísima,

40:24

que es Jodinki,

40:25

eh es un medio de comunicación sobre

40:27

relojes mecánicos que y ahí hablan mucho

40:30

de la historia y los nuevos modelos y el

40:32

mercado de los relojes, eh, no

40:34

digitales, no los normales.

40:36

que el Apple Watch todo el mundo decía

40:39

que había matado ya por fin el mercado

40:41

del reloj suizo, del reloj automático

40:45

y en realidad fue como un disparar

40:48

brutal porque la gente que no llevaba

40:50

reloj como yo, eh se planteó llevar

40:53

reloj por el Apple Watch, creó un montón

40:55

de demanda y la gente decía, "Vale,

40:56

quiero algo, pero quiero algo clasicy,

40:59

quiero algo antiguo, quiero algo como

41:01

con estatus, ¿no? y las las ventas de

41:03

Rolex y de todas las marcas Omega y tal

41:05

se dispararon después del de la

41:08

popularización del Apple Watch.

41:10

O sea, los dos han subido en paralelo.

41:11

Es bastante curioso el impacto.

41:13

Pues a mí lo que me interesó fueron los

41:15

nuevos AirPods.

41:18

Vale. ¿Por qué?

41:19

Eh, ¿qué diferencia hay entre los

41:20

AirPods Pro 3 y son los mejores que han

41:23

hecho?

41:24

Vale,

41:25

ya está. Toma mi dinero.

41:27

No, el eh No, o sea, se ve que tiene

41:29

noise cancellation,

41:30

o sea, la cancelación del sonido

41:32

ambiente. Mejor que la anjor del

41:33

mercado.

41:33

Cuatro veces.

41:34

Ah, cuatro veces mejor. Es cuatro veces

41:36

mejor,

41:37

¿no? Cuatro veces mejor que el modelo

41:39

uno.

41:40

No sé. Eso ya eso ya le da letras

41:42

pequeñas.

41:43

Se pierde.

41:45

Te quedas con el 4x ahí, ¿eh? No, y

41:48

pero tú tenías un problema de noise

41:49

cancellation. tú te los ponías y decías,

41:51

"Ojalá cancelaran más mis AirPods."

41:53

Ahora tienen como una

41:54

buo que que es que funciona, o sea, se

41:56

estropeado. Eso se estropeado 1 veces.

41:58

No sé vosotros que he tenido que ir a

42:00

cambiar

42:01

eh, los AirPods 1 veces, pero bueno, aún

42:03

así

42:03

yo quizás sin exagerar estos AirPods que

42:05

que los llevo siempre encima

42:07

quizás son el número ocho.

42:09

En serio,

42:09

pero pero sigues teniendo Airpods, o

42:11

sea, la verdad es que de casa

42:14

es que vuelves a casa, ¿verdad que

42:15

vuelves a casa?

42:16

Casaro,

42:16

pero de Londres, ¿eh? Vuelvo a casa de

42:18

Londres si hace falta. o me compro unos

42:20

nuevos. No puedo estar sin ser droga.

42:22

Claro, es que bueno, pues ahora

42:23

imagínate que que van a ser, o sea,

42:26

tienen traducción simultánea. Tú puedes

42:28

estar hablando en ruso.

42:30

Patética la demo. Patética. Esperándote

42:32

ahí media hora.

42:33

No, no es simultáneo. Es

42:35

simultánea una [ __ ] Incluso en el

42:36

vídeo de Apple, que es todo cartón

42:37

piedra, ya tardaba un rato.

42:38

Ahora se me ha olvidado. Tenían un

42:40

montón de cosas y me han olvidado todas.

42:41

Me parecieron increíbles.

42:43

Se me han olvidado. Bueno, voy a

42:45

resisten un poquito más al polvo.

42:47

No, no, no. Son la [ __ ] Son la

42:49

[ __ ] No me acuerdo.

42:51

Yo me los voy a comprar, pero por la

42:53

razón mala, que es la que has dicho tú,

42:54

que es que estos ya me empiezan a ir

42:57

mal, pero te van mal. ¿Cómo

42:58

se me degradan

42:59

la calidad del audio?

43:01

En serio.

43:01

Sí,

43:02

es una putada. Pues es que los uso

43:03

mucho, ¿eh? O sea, los uso horas cada

43:05

día.

43:06

¿Y habéis probado los no

43:07

también? [ __ ] a mí no me pasa con

43:10

A mí no me gustan los no pro.

43:12

A mí me pasa al revés.

43:13

Probé de Nothing también que estuvo aquí

43:15

en el podcast.

43:16

David, David. E

43:18

ah, sí, ese

43:20

ac No, pero que son los mejores. Son los

43:22

mejores. El problema que tienen es que

43:24

se me se me desgastan

43:27

y es una putada porque es una cosa cara,

43:28

ya.

43:29

Pero una vez al año me los cambio seguro

43:31

porque me dejan de me van funcionando

43:32

cada vez peor. La gente no me escucha,

43:34

se me desconecta una oreja.

43:36

Eso es de nuevos también, ¿eh? O sea, el

43:37

micrófono es terrible, terrible. Esto

43:41

sí,

43:41

ya yo siempre espero para los que te

43:43

escuchan los que te escuchan es una

43:44

putada. Escucho ido mejorando, pero sí,

43:46

sí,

43:46

ido mejorando, pero no es la [ __ ]

43:48

Pero, por ejemplo, bueno, es igual.

43:49

Dispara,

43:50

¿no? Eh, bueno, se puede mojar,

43:52

se puede mojar un poquito más.

43:53

Oye, pero una tú no te caen

43:55

sistemáticamente.

43:56

Sí,

43:56

no, porque te caen en el ba, ¿no? En la

44:00

No, no me caen. O sea, ¿qué? La pica.

44:03

La pica

44:03

o en la pila. En español es la pila,

44:06

¿eh? En el Japón

44:09

estoy en blanco.

44:10

No, pero tú sabes, Bernardo, el

44:11

fregadero.

44:11

El lavadero.

44:12

El lavadero.

44:13

Se te caen mucho. Se te caen mucho.

44:15

Siempre

44:16

sabes que cuando te los compraste en la

44:17

caja,

44:19

los adaptadores, ¿no?

44:19

Sí. Si levantas como el cartoncito en la

44:22

base hay esto, o sea, los AirPods es un

44:25

poco desagradable, pero Ah, de distintos

44:27

estos.

44:27

La gente que no escucha por audio.

44:29

Bueno, yo montar un Airpod. Acabo de

44:31

[ __ ] mi Airpod y romperlo.

44:34

Separando.

44:34

Esto luego es difícil de de volver a

44:36

poner.

44:36

No es difícil de volver a a poner. Lo he

44:37

hecho varias veces para limpiar la

44:38

[ __ ] que se acumula aquí. Eh, pues hay

44:40

varias de estas.

44:42

Prueba con una más grande.

44:44

Puede ser.

44:44

Quizá tienes el agujero grande

44:47

y te bailan

44:48

y puedes poner un

44:50

A ti no te caen.

44:51

A mí no me caen nunca.

44:52

Bueno,

44:53

se me ha caído alguna vez, ¿eh? Pero o

44:55

sea, pero no me caen casi nunca.

44:56

A ver, o sea, yo eres la primera persona

44:57

que que me dice que no se le caen los

44:59

caos. Los rincones más difíciles de

45:01

llegar.

45:02

No se me caen

45:02

y en sitios con agua. Nunca

45:05

tampoco. Pues soy el único.

45:07

Por favor, los que nos escucháis en los

45:08

comentarios si alguien se le ha caído un

45:10

Airpod.

45:11

Es que creo que por eso hacen dos

45:12

versiones, los normales y los pro,

45:14

porque igual los normales no se te caen,

45:16

¿sabes? Dependía de la forma de la

45:17

oreja.

45:17

Pero que hay tamaños de capuchón de

45:19

estos. Pruébalos. A mí lo que me pasa,

45:20

que es lo más humillante, que sí que me

45:22

ha pasado bastantes veces, es que se me

45:23

cae la caja al suelo

45:26

y salen disparadísimos. Salen dispar

45:28

superlejos. No sé por qué tiene una

45:30

fuerza, una fuerza nuclear y van a 4 m

45:34

cada uno. Ahí sí al a la

45:36

Oye, otra cosa que tiene eh frecuencia

45:38

cardíaca, ¿vale? Ya no hace falta el

45:40

reloj para eso. G

45:42

con la oreja puedes saber la frecuencia

45:44

cardíaca.

45:45

Eso sí. Y si te da una taquicardia te

45:47

avisa por Bluetooth, que eso está guay.

45:49

Tiene que tienes que tener los AirPods

45:51

puestos en el momento de la taquard.

45:52

Por eso te da la taquicardia, porque

45:53

estoy hablando contigo y me sube me sube

45:55

la bilir rubina hablar contigo.

45:57

Esa que estadísticas por llamada. Y la y

45:59

la traducción en tiempo real, yo esto lo

46:01

veo, eh, o sea, esto va a cambiar muchas

46:03

cosas,

46:04

o sea, mi padre,

46:05

pero no es una feature de los AirPods,

46:06

es una feature del iPhone. Se los

46:08

AirPods escuchan y hablan.

46:10

Bueno,

46:11

sí, claro. Tú tú puedes usar los AirPods

46:13

con YouTube o puedes usar los AirPods

46:14

con Zoom

46:15

y Zoom puede traducir.

46:16

Bueno, pero lo que hace es te baja el

46:18

volumen de la persona que habla.

46:21

Ah, pero é no es canceling y tal.

46:23

Claro. O sea, solo la persona que te

46:24

está hablando le baja el volumen y lo

46:26

cambia por la la versión traducida. en

46:29

tiempo real.

46:29

No es una feature de los Airods, es una

46:31

feature del dispositivo.

46:31

Bueno, es una feature combinada de

46:33

hardware y software y de todo,

46:34

evidentement, de

46:35

software.

46:38

Es la gracia de Apple, el paquete,

46:39

yo no sé vuestros padres, pero pero mi

46:41

padre que no habla inglés, viajar por el

46:43

mundo siempre es una cosa que le he

46:45

preocupado, pues dices, no me voy a

46:46

entender, ¿no? Dices, pues oye, pues ya

46:49

sím

46:50

No, esto le cambia a mucha gente la

46:51

vida.

46:52

Sí, yo creo que esto se usará. Sí, me lo

46:54

creo.

46:55

Bueno, pues est

46:55

inevitable también, ¿eh? Pero insisto,

46:57

no es una fatura de dos AirPods. Bu,

46:59

podemos hablar de la otra novedad

47:00

relevante que no son los AirPods.

47:01

El iPhone,

47:02

el iPhone Air, por favor.

47:03

Yo lo quiero tocar.

47:04

Yo también.

47:05

No, no tengo opinión.

47:06

Nunca me lo compraría.

47:07

No, yo yo me compraré el Pro cuando me

47:09

lo cambie. Me compraré el Pro porque

47:10

prefiero batería

47:12

que que finura.

47:13

Bueno, y cámaras pepinos y cámaras

47:16

pepinos. Por eso que gano con

47:17

ya demasiado poco pesa porque

47:18

sí quítale la funda. Tú dos tenéis una

47:21

manía de llevar funda. Mira, mi iPhone

47:22

está perfecto y no llevo funda.

47:24

Yo no entiendo quién se gasta 1000 €

47:27

Mira, mira mi teléfono.

47:28

En un iPhone y luego no se gasta 10 y

47:30

luego no se gasta 10.

47:31

Exacto. Claro.

47:32

O sea, no te cae al suelo.

47:34

No sé. Míralo. Está bien. Sí que me cae,

47:35

pero está bien.

47:36

Y no le pasa nada.

47:37

No es que de verdad. Míralo.

47:39

Bueno, pero de cuándo es.

47:40

Nos han metido y eso yo no lo hago.

47:44

Yo sí. No pasa nada. Piensa que ayer

47:46

salió el nuevo iPhone. Mira,

47:48

estás ganando excusas para comprarlo.

47:50

Claro. Toma.

47:51

Oye, pero mira, aquí tienes una aquí

47:53

tienes una fractura. Va peor o

47:55

Bueno, no va peor, pero no no sé. No, no

47:57

lo quieres que se aquí también dos tres

48:00

arrugas.

48:03

Está bastante está bastante jodidillo.

48:04

Va igual de bien que el tuyo.

48:05

O sea, resulta que no quieres empeorarlo

48:07

con una funda.

48:08

No, cuidado, gíralo que si no se va a

48:10

atascar aquí. Bueno, pero me da miedo.

48:12

Me da miedo. Está guapo.

48:15

Ahora se me va a romper a mí justamente.

48:16

Bueno, hoy esto parece una tertulia de

48:18

de taberna, ¿no? Un poco. Hacía mucho

48:20

que hace mucho tiempo que no que no

48:22

hablábamos. Oye, ¿queréis hablar del

48:23

salario de Elon Musk?

48:25

[ __ ] un trillion he leído.

48:27

Sí,

48:27

no está mal. O sea, le banearon. Es

48:29

bueno. A, cuéntalo, ¿no? Pero le

48:30

banearon el salario de 60 billion

48:33

que no, o de 6 billion, ahora no me

48:35

acuerdo cuántos eran. Yo no vine de

48:36

aquí. No, eran 60. Le banearon, o sea,

48:38

le le Sí. le rechazaron el salario de 60

48:41

billion aprobado por casi todos los

48:43

socios de Tesla

48:44

dos veces

48:45

dos veces y ahora ha dicho, pues mira,

48:47

me hago una nueva propuesta de cobrar un

48:49

trillón.

48:51

¿Cómo va? ¿Cómo va la propuesta de

48:52

salario? Que yo te contesté por WhatsApp

48:54

inmediatamente que te dije

48:56

que teníamos ya un tema para nuestro

48:58

port,

48:58

que tenemos que hablar de nuestro

48:59

salario.

49:00

Claro, claro.

49:01

A ver, no somos el Mask, pero entre un

49:02

trillion y lo que cobramos hay un

49:05

perfecto. Sí, sí, el anor

49:08

conformamos.

49:10

E

49:10

y me conformo.

49:11

Sí, no es es interesante porque me leí

49:14

las condiciones que tiene que tener, o

49:17

sea, que tiene que conseguir para

49:18

conseguir para el salario de un

49:20

trillion, porque además es binario. Es

49:21

un trillion o nada.

49:23

¿Qué será nada?

49:24

Bueno, no lo sé.

49:25

Bueno, o cambia los jueces o será nada.

49:27

No aprendí nada. Hombre, no, hombre, no,

49:28

eso sería muy como muy injusto, ¿no? No

49:31

sé. Eh, la o sea, a ver, aquí hay muchos

49:34

temas de reflexión profunda de sobre el

49:36

capitalismo, te diría eh, otra vez. Y es

49:38

que lo llevo todo la filosofía, eh,

49:41

porque dices, "A ver, tú eres trabajador

49:43

o eres capitalista,

49:46

pero hasta ahora el trabajador por

49:50

trabajar

49:52

no ha tenido una compensación

49:54

atada al resultado económico de la

49:56

compañía,

49:57

excepto en Silicon Valley con los stock

49:59

options,

50:00

¿vale? Pero bueno, lo de stock options,

50:01

¿vale?

50:01

Que han hecho al trabajador capitalista,

50:03

ya,

50:03

correcto. Sí, pero

50:04

que es magía.

50:06

Sí, sí, pero pero no es un trilión. Es

50:10

que

50:10

no no conozco ningún empleado. Si

50:14

quieres hacer con una disertación

50:16

filosófica y pero es que no es un

50:17

trilón.

50:18

No, pero es que

50:20

he leído mucha filosofía, pero no es un

50:23

trilón. No, pero es que es muy

50:24

interesante porque, o sea, en el mundo

50:26

en el que estamos viviendo ahora mismo,

50:28

donde eh hay agentes para hacerlo todo,

50:32

realmente el trabajo que queda es un

50:36

trabajo de muchísimo valor añadido,

50:39

porque si resulta que todo lo que es

50:40

tareas reactivas lo puede hacer un

50:43

agente, la proactividad y la idea gana

50:47

mucho en valor,

50:48

¿no? Entonces, yo esta es la reflexión

50:50

que me hago. Eh, digo,

50:51

eso ya viene pasando, eh, esto no es

50:53

nuevo, o sea, desde el granjero, ¿no? El

50:55

trabajo original es el trabajo en una

50:56

granja, el trabajo en una línea

50:57

producción.

50:58

Sí, pero esto cambia mucho porque, o

50:59

sea, las necesidades de capital son muy

51:00

diferentes. O sea, el el capital riesgo,

51:03

el inversor, la institución financiera,

51:05

la bolsa, dejan de tener tanto poder.

51:08

Según Mark Andrisen, el único trabajo

51:10

que quedará

51:11

es el del BC.

51:12

Es el del BC. Después del AGI.

51:16

hace cu o ces

51:17

y va y va a invertir en agentes.

51:20

Dice cosas,

51:21

dice cosas.

51:22

Eh, entonces, bueno, h puede ser que

51:25

tenga mucho valor. La lo que sí que es

51:26

verdad que tienen mucho miedo en Tesla,

51:28

aparentemente, de que se vaya Elon Mask,

51:30

¿no?

51:30

Pero normal, eh, yo así fuera, bueno,

51:32

soy accionista de de Tesla a través de

51:34

los index fans y estas cosas, ¿no? Pero

51:35

como accionista de Tesla diciendo soy

51:38

accionista de Tesla y de

51:39

Lo tengo en el LinkedIn, lo tengo en el

51:41

LinkedIn.

51:43

No, pero [ __ ] esa parte parte de mis

51:45

ahorros están en Tesla, una parte

51:46

pequeñita, pero una parte de mis ahorros

51:47

están en Tesla. Pues oye, estos ahorros

51:49

yo quiero que esté a los másc ahí

51:50

trabajando. Hombre, si sea si los más

51:53

que está distraído con otras cosas,

51:54

cambiar radicalmente todo esto a ti, a

51:57

tus ahorros.

51:58

El market cap de Tesla, o sea, si si

51:59

Elon más no está en Tesla, el market cap

52:01

baja la mitad al día siguiente,

52:02

¿no? La mitad no, mucho menos. Pero en

52:04

un fondo indexado la filosofía no es lo

52:06

que pasa al día siguiente, es lo que

52:07

pasa a largo plazo. No, pero no, porque

52:09

es lo que pasa en el instante. En un

52:10

fondo indexado va todo indexado y si uno

52:13

cae cae el fondo indexado.

52:14

La filosofía de inversión en fondo

52:15

indexado es una filosofía a largo plazo

52:17

donde vas invertiendo.

52:18

Bueno, pero Tesla tiene un peso muy

52:19

grande dentro del S&P 500

52:23

porque digamos están pr rateados

52:25

ya,

52:26

entonces tiene un peso muy grande y

52:27

Apple y Microsoft y tal, ¿no? Entonces,

52:29

claro, si Elon Mask no está motivado,

52:33

insisto, yo como socio de Tesla,

52:35

eh, estaría preocupado.

52:37

Yo quiero que esté motivado de Elon

52:38

Mask,

52:39

si no quién pones en Tesla.

52:41

Pero, ¿y tú no estás motivado cuando ya

52:43

eres un porcentaje relevante de una

52:45

compañía que vale 3 trillion, 4

52:47

trillion? O sea, no, de por sí,

52:49

normalmente esto ha sido suficiente

52:50

hasta día de hoy, 2025, ¿esto va a

52:53

cambiar ahora? Yo creo que hay una sí,

52:54

hay gente que dice que es así, ¿no? Hay

52:56

hay algunos eh como Jeff Bezos, por

52:59

ejemplo, ¿no? Y y

53:00

sí, Jeff Bezos, por ejemplo, es un buen

53:02

ejemplo,

53:02

los fundadores de HSpot, Darmesh y

53:04

Brian, que han cobrado muy poquito, muy

53:06

poquito salario porque dicen, "No, no,

53:07

es que yo ya tengo mis acciones

53:09

y y no necesito cobrar salario,

53:11

¿no?" Pero y oye, Jeos dice, o sea, yo

53:13

he generado o sea, me he quedado con 10%

53:16

de una empresa. Eso significa que he

53:17

repartido el valor del otro 90% de de

53:20

trillions,

53:21

o sea, nadie ha repartido tanto valor

53:23

como yo en el mundo.

53:25

Correcto.

53:26

Vale. Y y oye, está muy bien que os

53:27

fijéis que yo tengo un 10%, que soy el

53:29

hombre más rico del mundo. Ya no en hoy

53:31

hoy es la realison, curiosamente, luego

53:34

hablaremos, pero

53:36

pero y y el otro 90% que he repartido

53:39

entre otra gente, ¿no? Pues claro, si tu

53:40

filosofía es, no, no, yo quiero capturar

53:43

este valor adicional, ¿no?

53:45

Bueno, hay un tema de que la gente le

53:47

parece que sea justo, de que se valore

53:49

su trabajo. O sea, yo creo que Elon Musk

53:53

¿Cuánto vale el trabajo? No es que por

53:54

eso te digo que filosófico,

53:55

¿no? No, totalmente. Y y y la gente que

53:57

acusa a ciertas personas, como por

53:59

ejemplo los más, ¿no? De avaricioso,

54:01

digo, oye, yo no le conozco, eh, a los

54:02

más pero me cuesta mucho imaginar que él

54:05

quiera más dinero.

54:06

Pero tú no crees que esto va a cambiar

54:07

el paradigma, o sea, tal y como nosotros

54:09

vamos a ir al siguiente Bor y vamos a

54:10

pedir

54:11

algo entre algo entre medias, ¿no? Entre

54:13

lo nuestro y lo de Elon.

54:14

¿No crees que esto va a pasar en todas

54:15

las compañías ahora?

54:16

Es Claro,

54:17

claro,

54:17

claro.

54:18

Muy bien.

54:18

Va, no s todos los ceos son el má.

54:20

Tú no, eh, César.

54:24

este tren.

54:24

Qué bord,

54:25

qué bord [ __ ] No, pero e o sea, al

54:29

final lo que a mí me gusta y lo dije

54:32

cuando hablamos del del paquete de los

54:34

mask que se rechazó, ¿no? El de 60

54:36

billion

54:37

cuando él propuso esa compensación que

54:40

él no propuso 60 billion, él propuso un

54:42

porcentaje de acciones, ¿no? Un número

54:43

de acciones si pasan estos hitos y estos

54:46

hitos eran una locura que a todo el

54:48

mundo le iba muy bien.

54:49

Pero es un poco ponci porque tú dices

54:50

un poco ponci. Sí, porque si crece la

54:53

valoración

54:54

eh,

54:54

no, pero había muchos objetivos de

54:56

facturación de coches de coches

54:58

entregados. Aquí el tema es tiene que

55:00

llegar a 8,5 billion

55:03

de ¿qué?

55:03

Trillion, perdón. Trillion

55:05

de valoración.

55:05

De de valoración la Tesla.

55:09

Eso no me gusta que el stock price sea

55:11

el KPI, esto no me gusta.

55:13

Y cada aumento de valor de cada 500

55:15

billion de valor desbloquea en un 1%.

55:18

Vale, pero eso es el un objetivo, es el

55:20

valor de mercado. Luego tienen objetivos

55:22

operacionales,

55:23

que es que tiene que entregar 20

55:24

millones de vehículos. 20 millones.

55:27

Tiene que vender 10 millones de

55:29

suscripciones en full self driving cars.

55:33

Tiene que producir,

55:34

pero no ha dicho que tengan que

55:35

funcionar,

55:36

no

55:36

tiene que vender las suscripciones. Eso

55:38

ya lo está haciendo.

55:40

Otra cosa es que vayan.

55:40

Si luego no van, pues no importa eso de

55:43

cara al trillion de

55:44

no hablan de churn.

55:45

E exacto, no hablan de chorn. Sí, que

55:49

hablar de suscripciones y no hablar de

55:50

chorn.

55:52

Bueno, lo tengo aquí el contrato. Lo

55:53

tengo. Me lo ha mandado. Me lo ha

55:54

mandado. No, es un es un resumen de

55:56

chap.

55:56

Es un señor en Twitter. Es un señor en

55:58

Twitter.

55:58

Puede ser una alucinación

55:59

tranquilamente.

56:00

Ya. Total.

56:01

Vale. Luego, eh, un millón de robots

56:04

Optimus

56:05

producidos, no vendidos, no hay que

56:07

venderlos,

56:08

solo hay que producir.

56:09

Puedes incinerar dinero produciendo

56:11

cosas. un millón de de robots

56:13

humanoides, ¿vale? Eh, hacer circular 1

56:17

millón de robotaxis.

56:19

Bueno, eso está bien

56:20

porque producir lo de robots me parece

56:21

fatal. Producir no tiene ningún valor.

56:23

Hacerlos en

56:24

circular circular significa que pasen

56:25

por ahí.

56:26

Bueno, no, ya está mal, está mal.

56:27

Bueno, no he leído el contrato.

56:28

Tendría fábrica al vertedero, ¿no?

56:30

Y luego con un robot encima que lo mata.

56:33

Y luego eh un eviddam de 400 billion.

56:37

Eso, eso ya no está mal.

56:38

400 billion no los hace

56:40

partiendo de los 16 billion actuales

56:42

nadie 400 billion no los hace nadie

56:44

todo esto a la vez

56:45

en qué horizonte de tiempo lo pones

56:46

10 años

56:47

10 años nadie hace 400 billion en el

56:49

planeta, ¿eh?

56:51

Y luego e no hay ningún salario, no

56:54

tiene ningún salario ni ningún bonus de

56:56

ningún tipo en cash.

56:58

Me faltaría más, ¿no? O sea, un trillion

57:00

y además

57:01

bueno, hay que pagar el alquiler, ¿eh? Y

57:03

creo que ya le da, ¿no? De hecho,

57:05

no llega a final de mes.

57:06

No llega a final de mes.

57:07

Bueno, y luego eh no puede vender en 7,5

57:09

años ninguna de las acciones que va

57:11

recibiendo.

57:11

Eso está bien.

57:12

Vale,

57:12

eso me gusta.

57:14

Eh tiene que bueno, tiene que probar el

57:15

consejo. Vale,

57:16

la compensación es en acciones, ¿no? Sí,

57:18

sí, sí, claro. Por eso es que no es un

57:19

trilion, es un porcentaje de acciones.

57:21

Y tiene que mantenerse como CEO durante

57:24

7,5 años a 10 años para conservar las

57:27

acciones adquiridas.

57:29

Pero no dice que no pueda ser

57:30

en los dos últimos tramos

57:31

puede ser emperador malvado del universo

57:34

al mismo tiempo o esteo en exclusiva.

57:37

Bueno, esto puede ser no dice nada, pue

57:39

ser

57:39

tiene que poder serlo.

57:40

Puede ser presidente de Estados Unidos

57:41

del partido de América.

57:43

Esto justo no

57:44

porque no es no es nacional, no nació en

57:46

Estados Unidos.

57:48

Vale. Es verdad.

57:48

Tienes que haber nacido en Estados

57:49

Unidos.

57:50

Es verdad.

57:52

A no ser que cambie la Constitución

57:54

complicado.

57:56

Antes la cambiará Trump para ser él

57:57

siempre. Correcto.

57:59

El presidente e y y luego e tiene que

58:05

hacer un plan de sucesión en los dos

58:07

últimos años,

58:09

eh, que lo apruebe el consejo.

58:11

Parida, ¿no?

58:12

No sé.

58:12

O sea, de hacer

58:14

es el resumen

58:15

de hacer 400 millones de vida, hacer un

58:17

plan de sucesión. Gran tarea, ¿no?

58:20

Si no consigue esto,

58:20

si no lo cobras, eh,

58:21

no cobra nada

58:23

más vale,

58:25

me parece bastante.

58:25

Entonces, esto lo van a votar los

58:26

accionistas del 6 de noviembre.

58:28

Ostras,

58:28

tercera votación sobre las condiciones

58:31

de los más. A ver, que tiene que cobrar.

58:33

Yo creo que tiene que cobrar.

58:35

El trilon lo propone él o no.

58:37

Él

58:37

sí, el porcentaje.

58:39

O sea, el trilion no. El trilon es la

58:41

extrapolación de decir, hombre, si la

58:42

empresa vale tanto y a ti te doy tantas

58:44

acciones, el valor de esas acciones. Yo

58:46

creo que esto todo lo propone él. Eh, a

58:48

ver, que estamos hablando el consejo de

58:49

su hermano, el otro que no sé qué

58:51

el objetivo de valoración, ¿cuál era?

58:54

Eh,

58:54

8 trilion, creo. Trilon.

58:56

8 trilón. Tela, eh, 8 trillion.

58:58

Ya, ya

58:59

tela. Eh,

58:59

bueno,

59:00

estamos hablando para para referencia

59:01

que el GDP, el producto anterior bruto

59:03

español son 1 un trillón y medio.

59:07

Ha subido, ¿no? Ahora

59:09

1,6, no sé, algo así.

59:11

El la frontera de las empresas de un

59:13

trilion la cruzamos hace 3 años, 4 años.

59:16

Bueno, de 3 trilion

59:19

cuatro llegó a más de tres seguro.

59:24

Y Oracle está en camino.

59:24

Llegó cuatro. Llegó cuatro.

59:27

lo de la liquidez del mercado y estas

59:28

cositas, ¿no?

59:29

Que son cosas diferentes. Ya hemos

59:30

hablado varias veces en esta tertulia.

59:32

El PB

59:32

siempre me dan a mí la razón.

59:35

Por una vez en la vida me dan a mí la

59:36

razón solo en esto.

59:37

No sé, no recuerdo. No recuerdo.

59:39

¿Qué memoria el memorías elec?

59:41

Ilon más podría comprar España

59:45

pues hombre, desde luego podría. Desde

59:47

luego podría con 8 trillón de

59:48

valoración.

59:49

¿Y te parecería buena idea?

59:51

No,

59:52

vale, complicado,

59:54

¿no? Pero ojo porque el mundo evoluciona

59:56

con estas ideas

59:57

transhumanistas,

59:58

eh, post eh humanistas, eh, el mundo

00:02

evoluciona un poco ahí, eh,

00:03

ya.

00:04

Ah, un gobiernos corporativos

00:07

le han adelantado a lo más por la

00:08

derecha, eh, Larry Ellison, que lo has

00:10

dicho antes de pasada, pero a mí me me

00:12

ha sorprendido Larry Ellison, fundador

00:14

de Oracle, que no sé si mucha gente más

00:15

joven,

00:16

Oracle, para la gente que

00:17

Oracle,

00:18

la gente más joven no sabrá lo que hace

00:20

Oracle. a lo que se dedica y tal,

00:23

¿eh? O sea, yo nunca he comprado un

00:24

producto Oracle,

00:26

sé lo que es. He contratado gente que ha

00:27

trabajado ahí.

00:27

Claro que has comprado el producto de

00:28

Oracle, por favor. Tienes actualmente el

00:30

RP de Oracle.

00:31

Es verdad. My sequel no

00:34

es verdad no me lo recuerdes.

00:36

Nunca he comprado un RP.

00:39

Estaba pensando yo en bases de datos.

00:40

Estaba pensando en las bases de datos

00:41

que era el negocio principal de Oracle.

00:43

Sigue siendo el negocio principal de

00:44

Oracle. Parece mentira, ¿eh?

00:45

O sea, ¿cómo puede ganar tanto dinero?

00:48

Pues ahora con el AI eh son muy buenos

00:50

haciendo megacontratos y mientras Jensen

00:53

Juan vende eh GPUs e la Reellison y

00:58

compañía Oracle está vendiendo e data

01:01

centers, infraestructura, licencias de

01:04

de billion en billion.

01:05

My Sequel, usáis My Sequel en Factorial

01:07

Esracle también,

01:08

no sé si lo usamos.

01:08

Usamos un montón de cosas de seguro que

01:10

pagamos una pasta Oracle

01:12

Larryison que es el señor octagenario

01:14

que mejor se conserva del mundo, ¿no?

01:16

Bueno, es raro, ¿eh?

01:17

Es una locura. conserva raro,

01:19

raro, pero pero no parece un abuelo,

01:20

¿sabes?

01:21

Se conserva, no sé, se conserva raro. Os

01:24

voy a hacer una recomendación del libro

01:25

ahora cuando acabe porque me ha hecho

01:26

pensar La Real Elison. Oracle ha subido

01:28

un 40% la valoración y Larry Ellison ha

01:31

ganado.

01:32

¿Qué valoración concretamente?

01:33

Gan hay que comprar o no.

01:35

Es que antes Bueno, a ver,

01:37

la Realison ha ganado 500 billion de

01:41

patrimonio. 100. Laion ha ganado 100

01:44

billion de patrimonio en un mes, en una

01:47

semana, que no está mal. Ahora que vale

01:50

que gan,

01:50

casi un trillón, vale casi un trillón.

01:52

En serio,

01:53

está 900, de hecho, ayer

01:55

y tiene un porcentaje alto.

01:56

Madre mía.

01:57

Esta mañana creo que ha llegado a valer

01:59

un trillón.

01:59

¿Y qué porcentaje tiene la realison de

02:01

Oracle? Oracle,

02:02

eh, pues un 20 y pico por [ __ ] 30%.

02:06

Claro, es que Jeff Basada, eh,

02:08

Mark Zuckerberg

02:09

y Elon Mask tienen menos porcentaje de

02:12

sus empresas. menos. De hecho, eh,

02:14

Marckerbe es de los que más tiene todos

02:15

estos. Eh, la real es una pasada el

02:19

dinero que tiene. Me ha hecho pensar, me

02:20

he leído un libro este verano e off

02:22

topic, ¿no, una recomendación? Eh, sobre

02:25

interesa, ¿no? Sigue, sí, sí, nos

02:28

interesa. Nos interesa.

02:29

Dale, dale.

02:31

Un libro sobre John Mcfid.

02:33

Mm. [ __ ] vaya, vaya figura, ¿eh? Buah,

02:36

es que has dicho lo de este señor que se

02:38

conserva tal. Sí que se parecen un

02:39

poquito. Tienen que aire

02:40

tienen la piel así como de un color.

02:42

Sí, de un naranja raro. The man who

02:45

hacked the world. Eh, el hombre que

02:47

hackeó el mundo.

02:48

Historia interesantísimo.

02:49

Que es que es una autobiografía de un

02:52

ghost writer. Pues este chaval, Alex,

02:54

eh, Cody Foster e era un pobre chaval

02:59

deprimido, con una vida muy dura, que se

03:03

convirtió en mendigo, se fue a Los

03:05

Ángeles, las pasó canutas, casi se

03:07

muere, casi se suicida. una vida

03:08

durísima, era escritor y de repente eh

03:11

pues empezó a encontrar un poco pues la

03:13

luz y se puso a hacer biografías para

03:16

otros, ¿no? Como Ghost Writer.

03:17

Per un momento, ¿qué tiene que ver esto

03:18

con MCAF?

03:19

Espérate, espérate, espérate. Es que es

03:21

que es loquísima la historia, ¿no? Es

03:22

que es que empieza así el libro. Hay que

03:24

darle trocitos de dopamina para que se

03:26

mantenga.

03:26

Yo he venido a leer un libro de John

03:27

Macafi y de repente estoy leyendo la

03:29

vida de los homeless en Los Angeles y

03:32

bueno, complicadísimo el libro. Pues

03:34

este tío acaba dedicándose a escribir

03:36

biografías, a llega al boom de las

03:38

crirypto. Hay un montón de crypto bros

03:40

que quieren tener un ghost writer para

03:42

explicar cómo la han petado y son la

03:44

[ __ ] que lo que han hecho es tener

03:45

suerte recibiendo cuatro bitcoins en el

03:47

momento que toca. Y se obsesiona por los

03:49

bitcoins, descubre John Mccaf y eh se

03:52

obsesiona y le escribe un email a John

03:54

Mccafy diciéndole, "Yo soy especial como

03:56

tú. Yo he visto la luz, yo he tocado

04:00

fondo, yo yo soy como tú." Y yo Macfi eh

04:03

le contrata para que escriba su

04:05

autobiografía, su historia. Entonces

04:08

vive juntos no es autobiografía y se lo

04:09

escribe

04:10

es ghost writer. Es ghost writer. Viven

04:12

juntos durante un tiempo. Se fugan del

04:15

gobierno, se fugan del de los cárteles

04:18

del FBI, viajan juntos y tal y de

04:21

repente John Mccafi, que está loquísimo,

04:23

le despide

04:25

y al cabo de poco tiempo se suicida en

04:27

una cárcel en Girona, creo, o sea, en

04:29

España. John MCF era en Andalucía. Me

04:32

suena.

04:32

La arrestaron creo que en Chilona, pero

04:33

no me acordé. En España, seguro que en

04:35

España.

04:35

[ __ ] esto no me acordaba.

04:36

Es fuertísima la historia de John

04:38

Macafi. O sea, John Macafi es el

04:39

fundador del antivirus Macafi, que casi

04:42

todo el mundo de más de 25 años ha usado

04:43

en algún momento en su vida,

04:45

¿eh? Y está absolutamente loquísimo.

04:48

¿Sabías que su mujer, eh, allegedly, yo

04:50

no lo sé?

04:50

¿Cuál de las 700 mujeres?

04:52

Una, creo, me parece que una de las

04:53

últimas, eh, en realidad era como una

04:56

sicaria que alguien había contratado

04:58

para cargárselo.

04:59

No, no, no. Ah, sí, tambén

05:00

seis de sus mujeres

05:02

la han intentado matar. O sea, uno de

05:03

los hobbies principales,

05:05

uno de los hobbies principales de John

05:06

Mcfi era

05:08

es muy bestia, es un recruter, gente que

05:10

le iba a asesinar y él les contrataba.

05:13

O sea, su equipo de seguridad personal,

05:16

sus novias, porque llegó a tener como 14

05:18

mujeres a la vez. Tenía una mansión con

05:20

14 habitaciones, una mujer en cada

05:22

habitación y él se iba a dormir en una

05:24

habitación, iba pasando por todas las

05:26

habitaciones y por la mañana se

05:27

despertaba por la otra y así

05:28

el mismo día o cada día de la semana.

05:30

El mismo día empezaba la noche en una

05:31

habitación y acababa en la otra punta

05:33

del pasillo. Está muy loco con pistolas

05:36

en pelotas con con seguratas por ahí. de

05:38

repente se ponía en el balcón a disparar

05:40

a la gente de la calle porque se pensaba

05:42

que eran del FBI y que le estaban

05:43

persiguiendo.

05:45

Muy muy loco, ¿eh? Es un es un libro

05:47

duro, eh, o sea, yo os tengo que

05:48

reconocer que ha habido noches de verano

05:50

que me he ido a dormir un poco

05:52

trastocado porque es que es duro, o sea,

05:53

está es bastante oscuro lo que pasa,

05:56

pero lo recomiendo.

05:57

Pero, ¿el libro es la autobiografía o es

06:00

la historia de cómo escribió la

06:01

autobiografía? Entonces, claro, este

06:02

tío, el Ghost Rider Alex, acaba

06:05

acojonado

06:07

porque, claro, tiene miedo del cartel

06:09

del FBI, del presidente y de Joe Mccafi,

06:12

porque claro, le ha contado los secretos

06:14

de todo el mundo. John Mccafi le

06:16

confiesa que él con el antivirus Macafi

06:20

tenía un backdoor a todo el planeta,

06:21

incluido el gobierno de Estados Unidos,

06:23

todos los gobiernos del mundo. Y él

06:24

dice, "Yo lo sé todo de todo el mundo."

06:26

Buah,

06:26

y por eso me quieren matar, porque lo sé

06:28

todo, ¿no? de Epstein, de Trump, de de

06:31

la NASA, de Kennedy. Lo sabía todo

06:33

absolutamente. Este tío

06:34

vienen los papeles de de Epin como anexo

06:36

en el libro o no?

06:38

De momento no, pero este tío casualmente

06:40

le arrestan y al cabo de dos días, como

06:42

él temía, muere suicidado

06:45

el el escritor. Ah, vale, vale.

06:47

Entonces, Alex, cuando le despiden el

06:49

escritor

06:50

suicidado en Girona.

06:51

Sí, sí. Bueno, en España, no me acuerdo

06:52

si es en Girón, lo puedo buscar, pero

06:54

bueno. [ __ ] pero qué fuerte, ¿no?

06:57

Entonces, Alex, el escritor vive

06:58

acojonado desde que le despide Macafi

07:01

hasta que lee que se ha suicidado.

07:03

Entonces dice, "Bueno, ya está, ¿no? O

07:05

sea, se ha suicidado Macafi,

07:08

ya no vendrá nada por mí." Y entonces

07:10

publica el libro, pero no publica el

07:12

libro como la historia de John McAf John

07:15

Mccafi, sino publica su autobiografía de

07:17

Alex Cody, no sé qué, explicando su

07:20

experiencia. trabajando con varia gente,

07:23

incluyendo su experiencia como Homel, su

07:25

experiencia donde casi le matan cuatro

07:26

veces y su experiencia con John Mccafi.

07:28

Wow,

07:29

brutal.

07:30

Recomendado. Sí, sí. Was founding de in

07:32

his near Barcelona. Sí, sí. O sea, se

07:34

suicidó en Cataluña. Eh, lo de Giron no

07:37

sé dónde lo ha sacado, pero en en

07:38

Cambrian

07:39

Brian 2.

07:40

Desde aquí, aquí al lado.

07:41

Qué fuerte.

07:42

Muy fuerte.

07:44

O sea, aquí le suicidaron

07:46

según según el libro que yo acab

07:49

Sí, cuidado lo que dices que

07:51

según lo que yo he leído en el libro que

07:53

ha escrito este señor, buscarle a él,

07:56

eh, no se suicidó. O sea, lo que dice la

07:59

gente que lo conoce. John McAfy cada vez

08:01

que conocía a alguien le decía, "Yo

08:02

nunca me voy a suicidar si un día me

08:04

suicido." Han sido ellos. Literalmente

08:06

decía esto, lo primero que decía a a

08:08

todo el mundo que veía. De hecho, hay un

08:10

señor que el escritor entrevista después

08:13

de John McAf intentando buscar más

08:14

clientes, que le habla también de cripto

08:17

y tal, un un un mega trillioner de

08:19

criptos que nadie sabe quién es y

08:21

desaparece luego y dice, "Ah, por

08:23

cierto, eh, dice, hay un amigo mío, no,

08:26

un amigo mío no, dice, hay un ch un tío

08:28

que conocido, eh, Epstein, dice,

08:31

cuidado, que en pocos meses le van a

08:33

arrestar y se va a suicidar en la en la

08:34

cárcel." Y eso se lo dice como se meses

08:37

antes de que destape el tema Epstein. Y

08:40

pero es que hay algún documento,

08:42

no lo sé. Y he leído el libro, no he

08:43

visto las pruebas, pero quiero decir que

08:44

todo es muy conspiranoico y muy de que

08:46

saben cosas de que pasan y tal, pero el

08:48

libro es fascinante.

08:49

Y la IP del libro es de este chico.

08:52

Sí, claro, es su vida.

08:53

Es su historia. Sí,

08:54

es su vida. Bueno, no sé si hay, pero

08:57

está muerto. No le va a ir a buscar

09:00

ya. Pero [ __ ] qué buen negocio, ¿no?

09:03

Es un buen libro. Yo lo recomiendo

09:04

por eso,

09:05

o sea, es la historia de otro

09:07

que la ha contratado el otro para

09:08

escribirla.

09:10

Públ suya. No sé si hicieron papeles o

09:11

no hicieron papeles, si hicieron NDA o

09:13

no hicieron NDA. Creo que no, porque es

09:15

un Macafi, ¿eh? Pues es que lesis el

09:17

libro

09:17

este va a parecer suicidado también, yo

09:19

creo, eh, pero bueno.

09:20

Sí, es que no quiero hablar más porque

09:21

me da ya cuerpo. Yo no soy suicidal,

09:24

¿eh? O sea,

09:26

oye, para para cerrar, eh, César, hoy

09:27

has publicado un launch,

09:29

[ __ ]

09:30

de latitud

09:31

para los que han llegado hasta aquí,

09:32

¿eh? los que llegaron hasta aquí.

09:34

Saludos.

09:35

Hay un 94% de dropof.

09:37

Oye, gracias. Eh, llamos 2 horas.

09:41

Dos horas. No, [ __ ]

09:43

¿no? Eh, super rápido. E no, lo

09:46

comentaba antes, hemos montado una gente

09:47

que monta agentes, eh, y está bastante

09:50

monta agentes, pero no tantos agentes,

09:51

porque aquí hay una gente que está

09:53

esperando,

09:55

que es el agente de INC, que yo no lo

09:56

veo en producción.

09:57

Ah, por eso querías hablar de ello, ¿no?

09:59

Querías mi compromiso verbal. Exacto,

10:01

exacto. Cuenta cuál es el lunch.

10:03

Eh, no, básicamente le hemos dado una

10:04

vuelta al producto. Eh, estamos

10:06

apostando por una estrategia más prumer

10:08

porque lo que vemos es que hay mucha

10:09

gente,

10:10

sí, hay mucha gente que quiere montar

10:11

agents porque escucha esto de AI, dice

10:13

N8N,

10:14

sí, tipo,

10:16

pero lo que vemos es que las

10:17

herramientas que hay disponibles ahora

10:18

mismo no son de agente, son de workflows

10:20

y un workflow tienes que diseñar

10:21

exactamente todos los pathways, o sea,

10:23

todas las los caminos que tiene que

10:24

seguir y le pones un poco de purpurina

10:27

lls, ¿sabes? Y te piensas que es un

10:29

agente y no es verdad. agentes, no son

10:30

workflow 100%.

10:31

Correct. Entonces, no te aprovechas de

10:32

la autonomía. Para realmente eh diseñar

10:34

autonomía, necesitas ser programador

10:36

ahora mismo, necesitas ser ingeniero. Y

10:38

nosotros lo que hemos decidido o lo que

10:40

hemos visto hace tiempo ha sido cuáles

10:41

son las primitivas correctas para montar

10:43

los agentes, que al final son dos, son

10:45

prompts y tools, ¿vale? O sea, prompts

10:48

los de los mismos que haces en CHGPT,

10:49

pero que se ejecutan en un bug hasta que

10:51

acaban la tarea y les das una serie de

10:52

herramientas que son cosas que pueden

10:54

utilizar. Hemos hablado a veces de

10:55

servidores MCP y tal, da igual, son

10:56

tools, eh, que al final son pues

10:58

interacciones con otros servicios.

11:00

Entonces, con estas dos primitivas te

11:01

puedes montar sistemas realmente

11:02

complejos, eh, que básicamente

11:05

automatizan tu trabajo o automatizan el

11:06

trabajo de otras personas. Entonces, lo

11:08

que hemos montado ha sido el primer eh

11:11

software que te permite montar agentes

11:12

completos simplemente escribiendo

11:14

prompts y conectándolos con tools eh a

11:17

escala. Eh, además, esto está integrado

11:18

pues con nuestros

11:19

escala, ¿qué significará escala? A

11:20

escala significa que no son juguetes,

11:21

que no es un prompt, que si

11:23

bueno, ya veremos cuando tenga escala,

11:25

¿no? Porque, o sea, nosotros mismos

11:26

va a funcionar escala.

11:28

Sí, sí, escala individual de cada uno de

11:29

los agentes, quiero decir,

11:31

o sea, pueden hacer tareas realmente

11:32

complejas porque tú puedes delegar las

11:33

tareas en subagentes, que esto es lo que

11:35

la mayoría de otros productos cuesta

11:36

mucho montar, eh, cuesta que te lo

11:38

permitan. Nosotros mismos hemos montado

11:39

un agente para ayudar a que la gente, a

11:41

que la gente,

11:42

madre mía, una agente para que la gente

11:44

haga agentes, que hacen agentes,

11:46

eh, es que en español es complicado. E

11:48

para ayudar a que la peña eh monte monte

11:51

agentes, eh, y lo hemos montado todo en

11:52

latitud, o sea, con el mismo sistema que

11:54

utilizan eh para apuntar los propios

11:56

agentes.

11:56

¿Quién de los que nos está escuchando,

11:58

¿quién te debería llamar? Eh, pues por

11:59

ejemplo, gente que hace marketing, que

12:01

quiere automatizar pues campañas de

12:03

anuncios, eh, que quiere automatizar

12:05

reporting de analítica

12:07

y quiere montar una gente para hacerlo.

12:08

Exacto. O sea, cualquier persona

12:10

cualquier persona que está haciendo un

12:11

trabajo en vez de utilizar N8N o

12:13

cualquiera de estas plataformas puede

12:15

utilizar latitud. Sí, concretamente.

12:17

Y es mejor.

12:18

Es mejor para los casos donde realmente

12:19

necesitas autonomía. Sí.

12:21

Autonomía, ¿qué significa?

12:22

Autonomía significa que tiene

12:24

resiliencia errores, por ejemplo. Eh,

12:26

puede encontrar otras formas de resolver

12:28

el problema. Eh, por ejemplo, si tú

12:29

estás haciendo enrichment de leites, hay

12:31

veces que pues vas a la web de la

12:33

empresa y no va, ¿sabes? O vas al

12:35

LinkedIn y han cambiado de URL. Eh, los

12:38

datos se rompen por todas partes y en

12:40

lugar de que se rompa todo el flujo, el

12:42

agente busca cuál es el camino para

12:43

encontrar la información que necesita

12:45

para cumplir el objetivo que tú le

12:46

dices. No se rinde. Correcto. Correcto.

12:49

Entonces, tiene un montón de resiliencia

12:50

y tú no tienes que programar cada uno de

12:53

los paths que tiene que seguir el

12:54

workflow, sino que la gente lo decide

12:56

por

12:56

Pero no entra en un bucle,

12:58

¿eh? No entra en bucle, ¿no? Con los

13:00

maduros actuales, no.

13:02

Vale. Y llevas una gorra que pone call

13:04

my agen

13:04

call my aa agent. Eh, sí, porque también

13:06

estamos haciendo,

13:07

¿cuánto dinero de la ronda os habéis

13:08

gastado en gorras?

13:09

En gorras, en swag,

13:11

eh, menos de un 0,01%.

13:14

Demasiado.

13:16

Lo sabía. Eh, no, estamos haciendo un

13:18

giveaway, de hecho, eh, para la gente

13:19

que monte una gente con nosotros y

13:22

escriban. Es que, ¿cómo se dice gente?

13:24

Si no, si dices gente.

13:26

La gente que monte un agent con

13:27

nosotros.

13:29

Siguiente tertulia deck en directo que

13:31

la gente le va a molar.

13:32

Ah, pues sí, sí podemos hacerlo

13:34

en Barcelona.

13:36

Sí,

13:36

eso lo lo podemos y lo está la web de

13:38

IND, que por cierto yo mientras estaba

13:40

esperando

13:41

ah,

13:42

este mes de agosto, mientras estaba

13:44

esperando,

13:45

he estado programando eh y la verdad es

13:47

que he disfrutado muchísimo. He d hecho

13:49

varias cosas, entre ellas la web de INC,

13:51

eh, que está, bueno, veréis que hay

13:53

cambios, está un poco actualizada y tal,

13:56

y ahí podéis ver los eventos e que

13:58

tenemos y y el próximo evento, que creo

14:01

que es a final de este mes de

14:02

septiembre, va a ser en Barcelona en

14:04

directo y vais a poder venir y recibir

14:07

algún regalito de César.

14:10

Vamos a hacer un sorteo. Sí, tenemos el

14:11

mejor swag de la industria de DI,

14:13

sí,

14:13

del mundo.

14:14

[ __ ]

14:14

de lejos.

14:15

25 de septiembre.

14:17

25 de septiembre. Tertulia en directo en

14:19

Barcelona.

14:21

Apuntáoslo en el calendario.

14:23

Bueno, pues oye, con esto yo creo que lo

14:25

podemos dejar aquí. Muchísimas gracias

14:28

ambos

14:30

por vuestra colaboración.

14:32

Este saludo es para los tres que quedan

14:33

escuchando.

14:35

Oye, los tres que quedan escuchando

14:36

tengo un objetivo para vosotros. Bernard

14:38

tiene 100 followers más que yo en

14:40

Twitter y esto es inaceptable. Así que

14:43

id a twitter.com. Bueno, quedan 100

14:46

personas escuchando como mucho. Entonces

14:48

todos, necesito que todos lo hagáis.

14:49

twitter.com/jordiomero

14:51

y seguid. No dejéis de seguir a Bernard,

14:54

¿vale?

14:55

Pero no hace falta que vayáis a seguirle

14:56

expresamente ahora, solo irme a seguir a

14:58

mí, así cerramos el g. Bernard Farrero,

15:00

para los que no

15:01

Exacto, este es el que no hace falta que

15:03

vayáis a seguir. Muy bien, hasta la

15:05

semana que viene.

Video Information

YouTube ID: d89JpjMra18
Added: Sep 12, 2025
Last Updated: 5 months ago