Los 7 conceptos de IA que tienes que saber sí o sí: Agentes, AGI, MLLM y más… 🤖🧠
Duration
14:31
Captions
1
Language
ES
Published
Sep 25, 2025
Description
Descarga la guía para usar ChatGPT como un PRO aquí: https://www.jonhernandez.education/guia-chatgpt/ ¡Apúntate al Club de la IA! Grupo de WhatsApp conmigo y otros cientos de locos por la IA: https://clubdelaia.com/ 🔥 Cada día me llegan por redes sociales decenas de comentarios preguntándome qué significan algunas de las palabras, de los tecnicismos que utilizamos cuando hablamos de inteligencia artificial. En este vídeo explico, de forma clara y sin jerga, 7 conceptos clave de IA: qué es un agente de IA, qué significa AGI y la ASI, por qué hablamos de cajas negras y de alineamiento, qué es un LLM y cómo funcionan los tokens, además del contexto y las alucinaciones. Resolverás dudas típicas como “qué es un agente de IA”, “qué es AGI”, “qué son las alucinaciones en IA” y “qué es un LLM”. ► Concursos, Descuentos y Regalos PACK Cursos IA con 150€ de descuento! https://academia-ia.com/curso-ia-generativa/?subscription_plan=140903#register Consigue tu Plaud AI con Código Descuento: JONHERNANDEZ34 aquí: https://bit.ly/plaud_ai_jon Contesta tus emails con IA con Jace AI, Código Descuento JONIA: https://www.jace.ai/ ► Comunidad y Noticias IA Newsletter semanal con las mejores Noticias de IA: https://www.jonhernandez.education/newsletter-ia/ Comunidad de Discord: https://discord.gg/mNEyUN2g8e Canal de WhatsApp sobre IA: https://www.whatsapp.com/channel/0029VaDBcuy3WHTZIOgD1Q2n Web con las mejores IAs: https://iaperfecta.com ► Sponsors y Colaboraciones Consultas sobre marca, patrocinios y negocios: iban@jonhernandez.education ____________ ⏱ Timestamps: 00:00 Introducción 00:25 Agentes de IA 02:39 AGI 04:49 Cajas Negras 06:45 Alineamiento 08:16 LLM/MLLM 09:10 Concepto 1: Transformer 09:34 Concepto 2: Tokens 10:31 Contexto 11:39 Alucinación
Captions (1)
Cada día me llegan por redes sociales
decenas de comentarios preguntándome qué
significan algunas de las palabras de
los tecnicismos que utilizamos cuando
hablamos de inteligencia artificial. Y
hoy he pensado que es un buen momento
para ponerle remedio. Así que hoy vamos
a repasar siete palabras importantes que
tienes que conocer sobre inteligencia
artificial y que te ayudarán a entender
mejor cómo funciona esto de la IA y de
paso profundizaremos un poco en cada una
de ellas. Empezaremos por la palabra del
año, sin ninguna duda, agentes de
inteligencia artificial. Un agente de
inteligencia artificial no es más que
una inteligencia artificial que hace
cosas. Es así de simple y nos están
vendiendo la moto con la palabra de los
agentes. Pero la realidad es que
prácticamente todo lo que veis que le
llaman agentes no son agentes de
inteligencia artificial. A día de hoy,
para que una inteligencia artificial
pueda ser considerada una agente, tiene
que poder hacer cosas por sí misma. Y
eso depende de principalmente tres
factores. Tiene que tener, por un lado,
el modelo de inteligencia artificial,
por otro lado, una serie de herramientas
que pueda utilizar y, por último, una
capa de orquestración que le permita
utilizarlas. Esta capa de orquestración
no es más que una programación que le
indica cómo y cuándo utilizar las
herramientas. Pero no os dejéis engañar,
un agente de inteligencia artificial no
es una automatización, no es un GPT
personalizado. Este tipo de tecnologías
que están, evidentemente, desde hace ya
bastante tiempo, permiten automatizar
procesos y acelerar ciertas cosas y que
la IA haga cosas basado en una serie de
reglas que le imponemos previamente,
como por ejemplo cuando hacemos un GPT
personalizado. Pero la realidad es que
para que sea un agente tiene que ir un
poco más allá. Por ejemplo, en Open AI
tenemos dos agentes. Tenemos el agente
de Deep Research, que se permite hacer
una investigación profunda de un tema y
lo que hace la inteligencia artificial
es que tras una orden de un tema por el
que queremos investigar se lanza a
internet, busca toda la información y la
recopila en un informe por sí misma, sin
ningún tipo de interacción por nuestra
parte y tampoco ningún tipo de
programación para hacerlo. Esto se ha
hecho internamente desde Open AI. A
partir de aquí, el segundo agente, que
es mucho más potente es el que le llaman
el modo agente de Chat GPT, al que le
podemos pedir que haga tareas y
principalmente tiene tres capacidades.
Una, la de hacer investigaciones
profundas como Deep Research. Dos, la de
hacer operaciones dentro de páginas web
de forma visual, como lo que antes era
Operator en Open AI. Y tres, y más
importante, capacidad de desplegar
código para autoayudarse a sí misma. Con
esto lo que podemos hacer es pedirle al
modo agente que nos reserve un hotel,
pero también que nos haga un PowerPoint
y lo puede hacer bastante bien.
Evidentemente agentes hay más. Por
ejemplo, está Manus, que es muy popular,
pero no todo lo que veis por internet
que le llaman agente es un agente. Vamos
ahora a un término muy clave y también
bastante mal utilizado, que es el
término AGI, AGI. Ese término significa
literalmente artificial general
intelligence, es decir, una inteligencia
artificial general. Y es un término muy
importante porque tiene consecuencias
muy serias. Lo que pasa es que su
definición varía según a quien le
preguntes y con lo cual es muy difícil
definir lo que es una AGI. Yo creo que
la opinión más habitual y donde
realmente eh se define la AGI es en una
inteligencia artificial capaz de hacer
la mayor parte del trabajo productivo de
la humanidad. Así la define, por
ejemplo, Sam Alban de Open AI. Pero
evidentemente hay otros tipos de
definiciones. Demis Hasabis muy
recientemente dijo que sería una AGI. Si
le diésemos un corte de conocimiento de
1901 y la inteligencia artificial
pudiese desarrollar la teoría de la
relatividad, como hizo Einstein en 1905,
sin tener el conocimiento actual. A
partir de ahí, él creería que esta
inteligencia sería una inteligencia
artificial general. desde Microsoft son
mucho más prácticos y lo definen como
aquella inteligencia artificial capaz de
hacer una cantidad de trabajo económico
valorado directamente en dólares. Con lo
cual, al final lo que nos encontramos es
que la definición es complicada, pero lo
importante es entender que ese será el
punto donde la inteligencia artificial
sea capaz de realmente competir con la
humanidad. Y si llegamos a ese punto
donde la IA pueda competir con la
humanidad, tendremos que pues cambiar
muchas cosas de cómo entendemos el mundo
actualmente. Además del término Agi, que
es importante que lo conozcáis, tenemos
un segundo término que también es muy
importante, que es la Asi, es decir,
artificial super intelligence. Este es
el punto donde la inteligencia
artificial no solo compite con los
humanos, sino es tremendamente superior
a los humanos. Y para que os hagáis una
idea, a día de hoy eh uno de los
creadores de Chat GPT, que es Ilias
Suskeer, ya tiene una empresa que se
dedica puramente a buscar la
superinteligencia artificial porque cree
que la AGI ya está al alcance de la mano
y tenemos que trabajar en la siguiente
cosa. Os puedo asegurar que la
superinteligencia artificial será ese
punto donde la tecnología nos supere y
no podamos ni tan solo entender lo que
hace porque nos supera intelectualmente.
Un problema que es bastante importante
son lo que consideramos las cajas
negras. Las inteligencias artificiales a
día de hoy son cajas negras y como veis
estamos yendo en una dirección en que
parece que vamos a llegar a una
inteligencia artificial general como
acabamos de ver y con lo cual la IA cada
vez es más potente y el hecho de que sea
una caja negra no es algo que
relativamente nos ayude a estar más
tranquilos. ¿Qué quiere decir que es una
caja negra? Pues muy simple, no
entendemos exactamente lo que sucede
dentro de la inteligencia artificial. Es
decir, no podemos saber exactamente lo
que hace y por qué lo hace una
inteligencia artificial. Esto parece de
ciencia ficción porque es algo que hemos
creado los humanos, deberíamos
entenderlo, pero esto lo explica muy
bien, por ejemplo, Darí Amodei de
Antropic, que dice que esto es como una
planta donde tú decides qué suelo le
pones, cuánta agua le vas a dar y cuánto
sol vas a dejar que le toque, pero a
partir de ahí la planta crece como le
sale de los Pues básicamente la
inteligencia artificial hace eso.
Nosotros le hemos dado los algoritmos
que definen lo que debería hacer, pero
cuando le damos tantísimos datos a una
escala tan absolutamente brutal, los
humanos nos quedamos absolutamente fuera
de juego. No podemos hacer absolutamente
nada con la información de lo que sucede
dentro de estas inteligencias
artificiales, porque no somos capaces de
descodificarla. Por lo tanto, para que
lo entendáis de una forma muy sencilla,
cuando tú le preguntas a Chat GPT si la
capital de Francia o cuál es la capital
de Francia, básicamente te puede decir
múltiples respuestas. Lo normal es que
te diga París, porque evidentemente
estos modelos funcionan bastante bien,
pero un día te podría dar Berlín y
cuando te diga Berlín no podrás saber
por qué ha respondido Berlín. Solo
tenemos la capacidad de entender lo que
entra y lo que sale, pero no entendemos
para nada lo que sucede en el medio. Y
cuando digo no entendemos, no me refiero
a mí y a ti, a las personas normales, me
refiero a los científicos que han creado
la inteligencia artificial. Nadie
entiende perfectamente cómo funciona la
inteligencia artificial por dentro. El
alineamiento es otro de los grandes
temas que hay que entender de la
inteligencia artificial, porque
básicamente define que la inteligencia
artificial pueda tener unos intereses
comunes con los de la humanidad. es
decir, que vaya en línea con nuestros
intereses. Esta palabra, el
alineamiento, es algo muy importante
porque para que os hagáis una idea, a
día de hoy no sabemos si vamos a poder
estar alineados con la IA o si, mejor
dicho, la IA va a estar alineados con
nuestros intereses. Lo que sabemos por
ahora es que cada vez tenemos
inteligencias artificiales más potentes,
más capaces y que siguen siendo cajas
negras por ahora. Aún no hemos
conseguido entender exactamente cómo
funcionan por dentro y cuáles son sus
procesos internos, con lo cual no
podemos garantizar que la IA vaya a
estar alineada con la humanidad. Para
que os hagáis una idea, a día de hoy ni
tan solo Open AI, la empresa tras Chat
GPT, puede alinear a Chat GPT para sus
propios intereses y a veces Chat GPT
responde cosas que ellos no querrían que
respondiese. Por eso la IA es hackeable,
porque simplemente el sistema está hecho
de una forma en la que no podemos
garantizar que no haga ciertas cosas y
eso supone que el alineamiento sea un
problema. Elzerukowski, que es el mayor
científico que ha investigado sobre el
tema del alineamiento, lleva muchos
años, décadas, de hecho, investigando
sobre esto, cree que es imposible que
consigamos alinear a inteligencia
artificial y por eso no para de
avisarnos que esto puede ser un peligro
en un futuro y que tenemos que tomarnos
mucho más en serio, entender esta
tecnología para poder quizá tener una
posibilidad de alinearla con nuestros
intereses. Esta es una palabra que oís
muchísimo y que a veces es confusa, LLM.
La palabra simplemente significa large
language model y es como han determinado
llamarle a los grandes modelos de
lenguaje que utilizamos todos los días,
chat, GPT, Gemini, Cloud, Grock,
Copilot, todo esto son llms. Lo que pasa
es que la palabra, pues evidentemente
suena fatal, large language model. y
decirle es mucho más rápido. Simplemente
este nombre está caducando y para que os
hagáis una idea, ahora empiezan
científicos como por ejemplo Jan Lecun a
llamarles MLM, es decir multimodel large
language model, es decir, modelos de
lenguaje a gran escala, multimodales
porque ya no son solo de lenguaje.
Obviamente las palabras van a ir
cambiando, pero cuando este término nos
estamos refiriendo precisamente a chat
GPT. Ahora, lo que hay que entender es
cómo están hechos estos modelos, porque
ahí hay otras palabras que veis
habitualmente que os pueden confundir.
La primera es transformer. Esta palabra
básicamente define la arquitectura
computacional que estamos utilizando
para crear un LLM. Básicamente es algo
muy técnico en lo que no nos tenemos que
meter, pero tenéis que entender que
cuando hablamos de un transformer es que
hablamos de un tipo de arquitectura de
inteligencia artificial y no todas las
IAs funcionan exactamente igual, pero sí
que es cierto que la gran mayoría de los
LLMs actuales son Transformers. Y tras
los Transformers llegamos a los tokens,
que es algo que también da mucha
confusión. Los tokens básicamente es
como la IA digiere el contenido que le
mandamos, sea una imagen, sean palabras.
Básicamente lo que hace es dividir ese
texto. Por ejemplo, si tienes una frase,
la divide en partes de palabras para
poder procesarla internamente.
Evidentemente esto no lo hace de la
misma forma que lo hacemos nosotros, que
interpretamos como palabras enteras,
sino que lo hace por partes de palabras
que ayudan a ubicar esas palabras en el
contexto. Lo que hace muy bien
precisamente en LM es entender la
diferencia que hay en el lenguaje.
Cuando yo te digo banco, me puedo
referir pues al banco donde pongo el
dinero o me puedo referir al banco donde
me siento en el parque. Y eso,
evidentemente, son dos conceptos
distintos con la misma palabra. La
gracia de los LLMs es que a través de la
tokenización de esas palabras que le
mandamos pueden procesar esa información
y entender el contexto tras esas
palabras que hemos mandado, haciendo que
sean muy buenos entendiendo y
reproduciendo el lenguaje humano. La
sexta palabra por la que me preguntáis
mucho es el contexto. El contexto en la
inteligencia artificial hace referencia
a la memoria a corto plazo que tiene una
cuando tú estás interactuando con la
inteligencia artificial, vas a estar
mandándole mensajes que va a procesar y
va a retener de una forma pues en
memoria corta, sin necesidad de ir a
buscar documentación ni de consultar
ningún tipo de herramienta externa. Eso
es el contexto. Y el contexto depende de
la inteligencia artificial que utilices.
Tenemos inteligentes artificiales que
tienen 128,000 tokens, que hemos hablado
antes, o tenemos inteligencias
artificiales que tienen 1 millón de
tokens. Con lo cual hablamos de que
algunas inteligencias artificiales de
forma inmediata pueden procesar
información que se contendría, por
ejemplo, en un libro entero y otras
pueden procesar en una colección entera
de libros. Obviamente para según qué
aplicaciones, un mayor contexto es una
diferencia brutal a la hora de utilizar
la inteligencia artificial. Hoy en día
en Chat GPT tenemos un contexto
limitado, pero suficientemente amplio
para que no sea un problema
habitualmente. Pero en cambio tienes
herramientas como Gemini que dan un
contexto mucho mayor y que con lo cual
si esto es un problema para ti puedes
utilizar esa otra herramienta y obtener
un mejor resultado. Y por último,
alucinación. Esta palabra suena también
un poco a ciencia ficción, pero es una
palabra muy importante cuando hablamos
de inteligencia artificial, porque la
inteligencia artificial nos miente. Chat
GPT te miente. Gemini te miente. Todas
las inteligentes artificiales pueden
mentir. Y la palabra mentir no les gusta
a los científicos porque básicamente
parece que haya una intencionalidad y
con lo cual esto se asocia a cierto
nivel de consciencia. Como la IA hoy por
hoy no tiene consciencia, mentir no es
la palabra adecuada. y utilizan
alucinación, que yo tampoco creo que sea
la palabra adecuada, pero en cualquier
caso es cuando hacen referencia cuando
la IA se inventa una información. Por
ejemplo, tú le preguntas, "Oye, pues
dime en qué año vivió Juana de Arco y te
dice que vivió en 1990 y que era muy
amiga de Taylor Swift." Pues eso
evidentemente se lo está inventando, ¿no
es cierto? Y aquí hay que tener dos
cosas muy claras. La primera, no es un
error de la IA, no es un bug que se
pueda subsanar, parece que es una
característica. Queremos que la
inteligencia artificial tenga cierto
nivel de creatividad, pues evidentemente
al tener mucha creatividad puede
inventarse cosas. Es como el cuñado que
tienes en la cena de Navidad que te
habla del volcán de Islandia y no tiene
ni puñetera idea, pero suena plausible.
El segundo problema es mucho más grave y
es que nos lo solemos creer porque hay
un sesgo de autoridad de la inteligencia
artificial, con lo cual es muy
importante que nos comprobemos siempre
la información que nos da Laia. Ahora,
también te digo una cosa, las
alucinaciones se han reducido de forma
radical entre 2023 y 2025, principios de
2025, se habían reducido ya en un 80%.
Pero es que con el lanzamiento de GPT5
han reducido cerca de un 90% lo que ya
había en ese momento. Es decir, que
prácticamente las alucinaciones están
desapareciendo. Y hay un paper muy
interesante, un documento de Openi AI
que han escrito en el que reflejan cómo
se producen las alucinaciones y con lo
cual parece que han dado con la clave
viendo que están mejorando muchísimo el
resultado. Dependiendo de la
inteligencia artificial, alucina más o
alucina menos, yo os diría que Chat GPT
es la que menos alucina de todas y por
eso también una de las más útiles del
mercado. Así que ya ves, en definitiva,
hemos visto siete palabras clave y
algunas subpalabras dentro de esas
secciones que creo que te pueden ayudar
a entender mucho mejor cuando hablamos
de inteligencia artificial y que te
pueden ayudar a procesar un poco más
cómo funciona esto de la IA. A partir de
aquí, evidentemente, hay muchos más
tecnicismos como rack, fine tuning y
muchas cosas más que pueden ser
interesantes. Y si para ti crees que lo
son, déjame un comentario por aquí
debajo y hacemos otro vídeo explicando
otras palabras, porque de vez en cuando
me cuesta poco cuando estoy a punto de
ir a una conferencia y estoy en el
hotel, tengo un rato libre, hacer un
vídeo de esto y explicaros estas
palabras para que entendáis mejor la
inteligencia artificial. Por cierto, si
queréis aprender a usar la inteligencia
artificial, os voy a dejar un ebook
gratuito en un link que tenéis en la
descripción para que empecéis a utilizar
Chat GPT como un profesional. Nos vemos
en el próximo vídeo.