¿Cómo funciona ChatGPT? La revolución de la Inteligencia Artificial

00:50:44
https://www.youtube.com/watch?v=FdZ8LKiJBhQ

Resumo

TLDREste video explora cómo la inteligencia artificial, especialmente a través de ChatGPT, ha comenzado a realizar tareas que anteriormente eran exclusivas de los humanos, como la creación artística y generación de textos complejos. Se analiza la rápida adopción de Tecnologías IA y su evolución a lo largo del tiempo, centrándose en el uso de patrones de datos para generar texto original y responder preguntas de manera coherente. Una explicación técnica sobre el funcionamiento interno de estas IAs revela cómo utilizan redes neuronales y sistemas de embeddings para entender y producir lenguaje humano, además de resaltar los desafíos y la necesidad de regulación en el uso de estas tecnologías.

Conclusões

  • 🎨 La IA está ganando concursos de arte.
  • 🤖 ChatGPT ha alcanzado 10 millones de usuarios en un mes.
  • 📚 La IA facilita la redacción de artículos científicos.
  • ⚖️ Las IAs pueden generar documentos legales.
  • 💻 GPT es un modelo de lenguaje generativo poderoso.
  • 📈 La adopción de IA supera a tecnologías anteriores.
  • 🔍 La IA aprende de grandes volúmenes de datos.
  • 📊 El uso de redes neuronales transforma la programación.
  • 🧠 La atención en los transformers permite un procesamiento eficaz.
  • ⚠️ La información generada por la IA no siempre es precisa.

Linha do tempo

  • 00:00:00 - 00:05:00

    Un concurso de pintura es ganado por una inteligencia artificial, lo que plantea preguntas sobre el futuro de profesiones como el arte y el derecho, mientras la tecnología avanza vertiginosamente, dejando a los programadores y profesionales en la informática desconcertados.

  • 00:05:00 - 00:10:00

    Las inteligencias artificiales como ChatGPT han mostrado un crecimiento increíble, alcanzando 10 millones de usuarios diarios en su primer mes, convirtiéndose en la tecnología más rápidamente adoptada en la historia. Este hecho suscita curiosidad sobre su funcionamiento y capacidades.

  • 00:10:00 - 00:15:00

    Se introducen conceptos sobre el modelo de ChatGPT, que no solo es un chatbot, sino una herramienta capaz de generar texto original y resolver problemas lógicos complejos, además de ofrecer consejos prácticos y creativos en diferentes contextos para el usuario.

  • 00:15:00 - 00:20:00

    A lo largo de décadas, la convergencia de diversas tecnologías ha permitido la evolución de la inteligencia artificial, llevando a desarrollos como ChatGPT que son, a la vez, revolucionarios y aún en evolución, con muchas más aplicaciones por venir.

  • 00:20:00 - 00:25:00

    ChatGPT, basado en el modelo GPT-3, predice palabras en función del contexto de la conversación, utilizando técnicas avanzadas de machine learning y redes neuronales para generar respuestas parecidas al habla humana.

  • 00:25:00 - 00:30:00

    Los modelos de lenguaje, como ChatGPT, son representados como programas que predicen la próxima palabra en una secuencia dada, utilizando complejas matemáticas y patrones estadísticos extraídos de enormes conjuntos de datos textuales.

  • 00:30:00 - 00:35:00

    El modelo de GPT-3 utiliza una combinatoria de lenguaje natural simplificada a través de un proceso de tokenización, donde las palabras son convertidas en números para facilitar su comprensión por parte de las máquinas, lo que lleva a un análisis del contexto y significado.

  • 00:35:00 - 00:40:00

    Se discute la importancia de las redes neuronales y su capacidad para aprender de patrones, permitiendo a ChatGPT reconocer y responder a preguntas complejas basándose en ejemplos previos de textos y conversaciones similares.

  • 00:40:00 - 00:45:00

    Cada palabra es representada a través de vectores en un espacio multidimensional, permitiendo identificar relaciones y similitudes entre términos, facilitando al modelo generar respuestas coherentes y relevantes en su interacciones con los usuarios.

  • 00:45:00 - 00:50:44

    El video concluye resaltando la necesidad de avanzar en la tecnología de la inteligencia artificial, a medida que empresas como Microsoft y Google compiten por el desarrollo de herramientas de búsqueda semántica y procesamiento del lenguaje natural, a pesar de las limitaciones presentes en la actual generación de inteligencia artificial.

Mostrar mais

Mapa mental

Vídeo de perguntas e respostas

  • ¿Qué es ChatGPT?

    ChatGPT es una inteligencia artificial desarrollada por OpenAI, basada en el modelo GPT-3, que permite interactuar a través de conversaciones de texto.

  • ¿Por qué ChatGPT ha crecido tan rápidamente?

    Logró 10 millones de usuarios en su primer mes, convirtiéndose en la tecnología más rápida de adoptar en la historia.

  • ¿Cómo funciona la inteligencia artificial en el arte?

    La IA ha comenzado a participar en procesos creativos como la pintura, generando obras que son reconocidas en concursos.

  • ¿Qué es un modelo de lenguaje generativo?

    Es un algoritmo que, basado en patrones en grandes volúmenes de datos de texto, puede generar nuevas secuencias de texto coherente.

  • ¿Cuál es la diferencia entre GPT y ChatGPT?

    GPT es un modelo de lenguaje genérico, mientras que ChatGPT está configurado para responder en formato de chat y mantener el contexto de la conversación.

Ver mais resumos de vídeos

Obtenha acesso instantâneo a resumos gratuitos de vídeos do YouTube com tecnologia de IA!
Legendas
es
Rolagem automática:
  • 00:00:00
    una Inteligencia artificial gana un
  • 00:00:02
    concurso de pintura una revista
  • 00:00:04
    científica Beta autores que usan
  • 00:00:06
    Inteligencia artificial para escribir
  • 00:00:08
    sus artículos una Inteligencia
  • 00:00:10
    artificial puede hacer exámenes muy
  • 00:00:11
    difíciles de medicina y abogacía qué
  • 00:00:14
    está pasando cómo puede ser que en los
  • 00:00:16
    últimos 2 años de repente los
  • 00:00:18
    ordenadores pueden hacer cosas que hasta
  • 00:00:19
    ahora pensábamos que solo nosotros
  • 00:00:21
    podíamos hacer y además cosas que
  • 00:00:23
    realmente nos hacen plantearnos Qué
  • 00:00:25
    significa el arte o si realmente
  • 00:00:27
    necesitaremos un abogado en el futuro
  • 00:00:29
    para redactar un texto legal o incluso
  • 00:00:31
    si harán falta programadores Oh sí las
  • 00:00:33
    inteligencias artificiales también están
  • 00:00:35
    generando código y sinceramente habiendo
  • 00:00:37
    sido programador durante 10 años de mi
  • 00:00:39
    vida nunca me imaginé que vería un
  • 00:00:41
    ordenador generando de la nada programas
  • 00:00:43
    así de elaborados Y la verdad todo esto
  • 00:00:46
    hace que uno se sienta bastante perdido
  • 00:00:48
    sobre todo los que nos dedicamos a la
  • 00:00:49
    informática desde toda la vida o estas
  • 00:00:51
    noticias nos hacen dudar nos están
  • 00:00:53
    demostrando que cosas que pensábamos que
  • 00:00:54
    una máquina no podía hacer ahora resulta
  • 00:00:57
    que puede y a veces incluso mejor que
  • 00:00:58
    nosotros Así que me propuse investigar
  • 00:01:01
    qué hay detrás de estas inteligencias
  • 00:01:02
    artificiales y hoy te voy a contar todo
  • 00:01:05
    lo que descubrí desde el punto de vista
  • 00:01:07
    de un ingeniero de software explicado
  • 00:01:09
    para todo el mundo o sea mi objetivo es
  • 00:01:11
    que seas quien seas sin saber nada te
  • 00:01:13
    puedas hacer ni que sea una idea de cómo
  • 00:01:15
    funcionan estas inteligencias y
  • 00:01:17
    especialmente Hoy me voy a centrar en
  • 00:01:18
    uno de los productos que está más de
  • 00:01:20
    moda y que más ruido ha hecho chat gpt
  • 00:01:23
    chat gbt es super popular todo el mundo
  • 00:01:26
    la está usando para que os hagáis una
  • 00:01:28
    idea consiguió la escalofriante cifra de
  • 00:01:30
    10 millones de usuarios activos cada día
  • 00:01:33
    en su primer mes o sea sale Y a los 30
  • 00:01:35
    días ya tenía 10 millones de usuarios
  • 00:01:37
    cada día haciendo preguntas rompiendo el
  • 00:01:40
    récord de la tecnología más rápidamente
  • 00:01:42
    adoptada en la historia de la humanidad
  • 00:01:44
    un crecimiento 10 veces más rápido que
  • 00:01:46
    el de Instagram una locura total chat
  • 00:01:48
    gpt es una web de uso gratuito aunque
  • 00:01:50
    también tiene una versión de pago y
  • 00:01:52
    funciona como un chat al que le puedes
  • 00:01:54
    preguntar todo tipo de cosas es como una
  • 00:01:56
    especie de oráculo tecnológico que te
  • 00:01:58
    sabe decir cosas como Cuál es la mejor
  • 00:02:00
    manera de atarte los zapatos Cómo
  • 00:02:02
    deberías dejar a tu novia de la forma
  • 00:02:04
    más suave resolver problemas lógicos
  • 00:02:07
    complejos escribir software hacer
  • 00:02:09
    cambios en ese Software que acabas de
  • 00:02:10
    escribir jugar a juegos contigo inventar
  • 00:02:13
    una historia escribir poemas crearte una
  • 00:02:15
    rutina del gimnasio con instrucciones
  • 00:02:17
    muy específicas componer una canción con
  • 00:02:19
    sus respectivos acordes generar un texto
  • 00:02:22
    legal Como por ejemplo un acuerdo de
  • 00:02:24
    confidencialidad y todo esto recordando
  • 00:02:26
    todo lo que habéis hablado a lo largo de
  • 00:02:27
    la conversación o sea tú hablas con él y
  • 00:02:30
    recordando todo lo que estás hablando y
  • 00:02:32
    son textos originales o sea todo lo que
  • 00:02:33
    te dice no lo vas a poder encontrar en
  • 00:02:35
    ninguna parte de internet aunque luego
  • 00:02:37
    hablaremos de eso cómo es posible que
  • 00:02:40
    despertemos una mañana y esto
  • 00:02:41
    simplemente exista bueno no ha sido
  • 00:02:44
    realmente de la noche a la mañana han
  • 00:02:45
    pasado décadas y décadas con muchas
  • 00:02:47
    innovaciones tanto en el mundo de la
  • 00:02:49
    programación como la informática la
  • 00:02:50
    Inteligencia artificial las redes y la
  • 00:02:52
    sociedad en Sí esta es lo que se conoce
  • 00:02:54
    como una tecnología convergente vale
  • 00:02:56
    nace de muchas otras tecnologías que se
  • 00:02:59
    juntan para llegar al resultado que
  • 00:03:00
    vemos hoy en día y esto gente es una
  • 00:03:03
    Revolución una Revolución que todavía no
  • 00:03:05
    está en su punto pero se viene y para
  • 00:03:07
    demostrarte Lo bueno que es le he pedido
  • 00:03:09
    a gpt que me genere el sponsor de hoy y
  • 00:03:11
    he utilizado una Inteligencia artificial
  • 00:03:13
    para que lea el texto Así que vamos a
  • 00:03:15
    ver qué tal Bien lo hace con un mensaje
  • 00:03:17
    de nuestro sponsor Hola a todos Soy chat
  • 00:03:20
    gpt y Hoy les hablaré sobre la gtc de
  • 00:03:22
    nvidia la gtc de envidia es la
  • 00:03:25
    conferencia más grande sobre
  • 00:03:26
    Inteligencia artificial aceleración de
  • 00:03:28
    gráficos y ciencias de de datos este año
  • 00:03:31
    la gtc se llevará a cabo en línea el 20
  • 00:03:33
    de este mes y nvidia está organizando un
  • 00:03:35
    sorteo especial para los asistentes
  • 00:03:38
    podrás ganar una rtx 4080 si te
  • 00:03:40
    registras para asistir a la gtc el
  • 00:03:42
    enlace para registrarse está en la
  • 00:03:44
    descripción la gtc de nvidia incluirá
  • 00:03:46
    más de 1000 sesiones en línea con
  • 00:03:48
    presentaciones talleres y discusiones de
  • 00:03:50
    expertos podrás escuchar a los
  • 00:03:51
    principales expertos de la industria y
  • 00:03:53
    aprender sobre los últimos avances en la
  • 00:03:55
    informática acelerada la Inteligencia
  • 00:03:57
    artificial el aprendizaje automático la
  • 00:04:00
    ciencia de datos y mucho más también
  • 00:04:01
    tendrás la oportunidad de conectarte con
  • 00:04:03
    otros líderes de la industria explorar
  • 00:04:05
    nuevas tecnologías y descubrir có las
  • 00:04:07
    soluciones de nvidia están transformando
  • 00:04:09
    la forma en que vivimos y trabajamos
  • 00:04:11
    regístrate ahora mismo para asistir a la
  • 00:04:13
    gtc de nvidia y tener la oportunidad de
  • 00:04:15
    ganar una rtx 4080 No te pierdas esta
  • 00:04:18
    oportunidad única de aprender sobre los
  • 00:04:20
    últimos avances en la informática
  • 00:04:22
    acelerada y la Inteligencia artificial
  • 00:04:24
    el enlace para registrarse está en la
  • 00:04:26
    descripción te esperamos en la gtc de
  • 00:04:28
    nvidia
  • 00:04:29
    [Música]
  • 00:04:35
    Okay chat gpt chat gpt está basado en
  • 00:04:38
    gpt3 gpt o generative pretrained
  • 00:04:41
    Transformer es un modelo Esto es algo de
  • 00:04:44
    lo que ya hablamos en otros vídeos pero
  • 00:04:46
    a modo de resumen un modelo para que te
  • 00:04:47
    puedas hacer una idea es un programa un
  • 00:04:49
    algoritmo una función que intenta
  • 00:04:51
    replicar el comportamiento de un sistema
  • 00:04:54
    por ejemplo el más clásico vale el
  • 00:04:56
    modelo climático sería un programa un
  • 00:04:58
    software o algún tipo de sistema que te
  • 00:05:00
    permite predecir el clima de la semana
  • 00:05:02
    que viene basándose en datos históricos
  • 00:05:04
    no por ejemplo coges el clima de las
  • 00:05:05
    últimas semanas el viento las nubes la
  • 00:05:07
    humedad coges todo eso lo metes en esta
  • 00:05:09
    máquina y la máquina te predice el clima
  • 00:05:12
    de la próxima semana otro ejemplo de
  • 00:05:14
    esto bueno hace poco en nate Life
  • 00:05:15
    hablamos del amp modeling vale que son
  • 00:05:18
    modelos que imitan amplificadores de
  • 00:05:19
    guitarra imitan toda la parte de
  • 00:05:21
    electrónica la parte de amplificación
  • 00:05:23
    distorsión reverb incluso la acústica de
  • 00:05:26
    una sala y todo esto no ocurre en la
  • 00:05:28
    realidad sino que hay un que tiene una
  • 00:05:30
    serie de instrucciones que lo que hace
  • 00:05:32
    es simular el resultado que tendríamos
  • 00:05:34
    si hiciéramos todo eso y todo esto lo
  • 00:05:35
    hace un software un software que es un
  • 00:05:37
    modelo gpt como te decía es un modelo
  • 00:05:39
    pero un modelo de lenguaje vale el
  • 00:05:41
    modelo de lenguaje es capaz de conocer e
  • 00:05:43
    identificar partes de nuestro idioma Y
  • 00:05:45
    en este caso es un modelo generativo O
  • 00:05:47
    sea que dado un texto genera palabras es
  • 00:05:50
    como ese modelo que predice el clima
  • 00:05:52
    Solo que gpt predice palabras o sea
  • 00:05:55
    literalmente te dice Cuál es la palabra
  • 00:05:57
    más probable que va a haber a
  • 00:05:59
    continuación en un texto si lo piensas
  • 00:06:01
    no es muy distinto del autocompletar del
  • 00:06:03
    móvil no sé si habrás probado alguna vez
  • 00:06:05
    que en el móvil hay un sistema que te
  • 00:06:07
    sugiere palabras intentando predecir lo
  • 00:06:09
    próximo que vas a decir Solo que gpt es
  • 00:06:12
    infinitamente mejor haciendo Ese trabajo
  • 00:06:14
    lo hace tan tan bien que parece que
  • 00:06:16
    entienda perfectamente de lo que estás
  • 00:06:17
    hablando y pueda responder prácticamente
  • 00:06:19
    a cualquier cosa de forma coherente Por
  • 00:06:21
    ejemplo tú le dices voy a trabajar en mí
  • 00:06:24
    y gpt te dice proyecto Y si le pides más
  • 00:06:27
    continúa voy a trabajar en mi proyecto
  • 00:06:29
    de investigación en el laboratorio estoy
  • 00:06:31
    encantado de continuar con mi trabajo y
  • 00:06:33
    espero obtener resultados significativos
  • 00:06:35
    voy a trabajar duro y concentrarme en
  • 00:06:37
    las tareas que tengo por hacer para
  • 00:06:38
    avanzar en mi proyecto Wow es un buen
  • 00:06:41
    autocompletado verdad Ahora en el caso
  • 00:06:43
    de chat gpt que es la página web que
  • 00:06:45
    todo el mundo conoce esta página web usa
  • 00:06:47
    la tercera versión de gpt gpt3 como os
  • 00:06:50
    dije antes no aunque le llaman también
  • 00:06:52
    gpt 3.5 porque tiene unas cuantas
  • 00:06:54
    mejoras Pero bueno Eso lo veremos más
  • 00:06:56
    adelante vale Y una de las cosas
  • 00:06:58
    especiales que tiene chat gpt es que
  • 00:06:59
    está especialmente configurada para
  • 00:07:01
    completar respuestas como si
  • 00:07:03
    estuviéramos en un chat o sea es un
  • 00:07:04
    predictor de palabras pero que está
  • 00:07:06
    condicionado para tener en cuenta que
  • 00:07:08
    nuestro texto es una pregunta o la
  • 00:07:09
    intervención de una persona en un chat y
  • 00:07:11
    la respuesta que nos genera lo que nos
  • 00:07:13
    responde chat gpt es la cadena de
  • 00:07:15
    palabras que más probabilidad tienen
  • 00:07:17
    según su sistema de aparecer a
  • 00:07:19
    continuación o sea predice texto que no
  • 00:07:21
    existe pero bueno a nivel técnico la
  • 00:07:23
    diferencia principal entre gpt pelado y
  • 00:07:25
    chat gpt es que gpt completa textos y
  • 00:07:28
    chat gpt pues responde como si
  • 00:07:29
    estuvieras hablando con alguien o sea
  • 00:07:30
    está configurado de esa manera luego
  • 00:07:32
    veremos que hay muchas más diferencias
  • 00:07:33
    vale Pero a eso llegaremos ahora todo
  • 00:07:36
    esto que estoy diciendo Yo entiendo que
  • 00:07:37
    es que es muy raro vale o sea me estás
  • 00:07:39
    diciendo que a un modelo que predice
  • 00:07:41
    palabras le pregunto Cuál fue el
  • 00:07:43
    emperador Romano más malvado de la
  • 00:07:44
    historia y por qué y me está soltando
  • 00:07:47
    que si hay varios candidatos que
  • 00:07:48
    caligula es el más probable me cuenta
  • 00:07:50
    todo lo que ha hecho Y encima me dice
  • 00:07:52
    que es posible que esto no sea fiable
  • 00:07:54
    porque podría ser propaganda que se
  • 00:07:55
    escribió cuando caligula ya estaba
  • 00:07:57
    muerto aquí hay algo que no cuadra
  • 00:07:59
    verdad parece que este autocompletado
  • 00:08:01
    haya cobrado conciencia sobre todo lo
  • 00:08:04
    más impresionante la primera vez que
  • 00:08:05
    usas una Inteligencia artificial de
  • 00:08:07
    estas Y ves todo este pfote tú lo que
  • 00:08:09
    piensas Es que esto lo ha copiado de
  • 00:08:11
    alguna página web y buscas ese texto
  • 00:08:13
    incluso trozos del texto y no lo vas a
  • 00:08:15
    encontrar porque todo esto ha sido
  • 00:08:16
    generado es un texto único chat gpt
  • 00:08:19
    parece que sepa de lo que habla parece
  • 00:08:20
    que nos entienda y que nos conteste algo
  • 00:08:22
    totalmente relacionado con lo que
  • 00:08:23
    estamos diciendo parece capaz de
  • 00:08:25
    desarrollar sus propias ideas analizar
  • 00:08:27
    datos y sacar conclusiones Pero esto es
  • 00:08:29
    totalmente falso no está haciendo nada
  • 00:08:31
    de esto en realidad Está prediciendo
  • 00:08:33
    palabras y poco más la magia aquí es En
  • 00:08:35
    qué se basa para predecir esas palabras
  • 00:08:37
    y vamos a empezar analizando el problema
  • 00:08:39
    juntos para intentar entender la
  • 00:08:41
    magnitud del asunto la programación es
  • 00:08:43
    la forma más tradicional de hablar con
  • 00:08:45
    los ordenadores Pero bueno entiendo que
  • 00:08:46
    no todo el mundo sabe programar Así que
  • 00:08:47
    no voy a poner un ejemplo de
  • 00:08:49
    programación sino que me voy a ir a algo
  • 00:08:51
    que todo el mundo haya hecho alguna vez
  • 00:08:52
    vale el ejemplo más claro de Cómo hablar
  • 00:08:55
    con una máquina es probablemente el de
  • 00:08:57
    usar una calculadora si yo quiero sumar
  • 00:08:59
    tres números entre ellos con una
  • 00:09:00
    calculadora tengo que seguir un orden
  • 00:09:02
    muy preciso de acciones si cometo un
  • 00:09:04
    error Por ejemplo pongo mal un número
  • 00:09:05
    tengo que borrar o Volver a empezar y
  • 00:09:08
    esto es muy importante porque la máquina
  • 00:09:10
    es estricta es muy estricta a la hora de
  • 00:09:11
    recibir los datos de entrada entender
  • 00:09:13
    las operaciones que tiene que hacer y
  • 00:09:15
    esto es muy distinto a cuando hablamos
  • 00:09:17
    con un humano al que por ejemplo le
  • 00:09:19
    podríamos decir Oye eh tío Si tienes un
  • 00:09:21
    momento quiero que sumes TR más 2 Ay no
  • 00:09:24
    perdona eh cuatro y luego que lo
  • 00:09:26
    multipliques por ocho y nada Cuando
  • 00:09:27
    puedas me dices el resultado vale una
  • 00:09:29
    calculadora no puede entender esto
  • 00:09:31
    porque lo estoy diciendo en lenguaje
  • 00:09:33
    natural lenguaje natural que nosotros
  • 00:09:35
    por algún motivo somos capaces de
  • 00:09:36
    entender muy bien o sea de alguna forma
  • 00:09:39
    yo con toda esa frase entiendo que lo
  • 00:09:40
    que quieres hacer es 3 + 4 y luego
  • 00:09:43
    multiplicado por 8 la calculadora
  • 00:09:45
    necesita un input muy concreto expresado
  • 00:09:47
    de una forma muy concisa con unas reglas
  • 00:09:49
    matemáticas para extraer esa información
  • 00:09:51
    mientras que a un humano le puedo dar
  • 00:09:53
    vueltas y decir muchas cosas que
  • 00:09:55
    generalmente me va a entender Bueno pues
  • 00:09:57
    chat gpt resuelve ese problema Mirad si
  • 00:10:00
    le digo toda esta frase a chat gpt
  • 00:10:02
    parece que está entendiendo
  • 00:10:03
    perfectamente lo que le digo Y además me
  • 00:10:05
    calcula la respuesta de forma correcta
  • 00:10:08
    como te he dicho hace un momento esto se
  • 00:10:10
    llama lenguaje natural el lenguaje
  • 00:10:12
    natural es confuso y necesita que lo
  • 00:10:13
    analicemos para poder extraer
  • 00:10:15
    información los humanos Somos
  • 00:10:16
    increíblemente buenos en hacer esto
  • 00:10:18
    entendemos los conceptos clave que se
  • 00:10:19
    nos quieren transmitir e incluso
  • 00:10:21
    planteamos una estrategia para responder
  • 00:10:23
    a esa pregunta será chat gpt consciente
  • 00:10:25
    de esto
  • 00:10:27
    eh Wow chat gpt parece que sabe
  • 00:10:30
    perfectamente de lo que estoy hablando
  • 00:10:32
    esto cada vez es más surrealista verdad
  • 00:10:34
    cuesta de creer que lo único que está
  • 00:10:35
    haciendo esta máquina es calcular las
  • 00:10:37
    palabras más probables que van a
  • 00:10:39
    aparecer a continuación de mi texto Pero
  • 00:10:41
    bueno esto en realidad no son más que
  • 00:10:42
    trucos el truco de la red neuronal
  • 00:10:45
    veréis gpt que es este modelo de
  • 00:10:47
    lenguaje que usa chat gpt como te dije
  • 00:10:49
    hace un momento está basado en redes
  • 00:10:51
    neuronales hemos explicado por encima
  • 00:10:53
    Cómo funcionan las redes neuronales en
  • 00:10:55
    mis vídeos sobre el Deep fake que por
  • 00:10:57
    cierto si te interesa el tema de
  • 00:10:58
    inteligencias artificial y si quieres
  • 00:11:00
    entender Más a fondo este tema te
  • 00:11:02
    recomiendo que los veas vale Te los
  • 00:11:03
    dejaré linkeados abajo en la descripción
  • 00:11:05
    y por aquí seguramente vale Pero de
  • 00:11:06
    todos modos vamos a repasarlo un poquito
  • 00:11:08
    una red neuronal es un programa que está
  • 00:11:10
    diseñado para aprender a hacer tareas
  • 00:11:12
    normalmente cuando los humanos quieren
  • 00:11:14
    hablar con un ordenador y pedirle que
  • 00:11:15
    haga cosas usamos la programación vale Y
  • 00:11:18
    cuando hacemos un programa le decimos a
  • 00:11:19
    la máquina exactamente paso a paso todo
  • 00:11:21
    lo que tiene que hacer como hacíamos de
  • 00:11:23
    hecho con la calculadora cuando estamos
  • 00:11:25
    escribiendo números en una calculadora
  • 00:11:26
    en realidad estamos
  • 00:11:29
    Lo que pasa que es es muy sencilla esa
  • 00:11:30
    programación Pero hay algunas cosas que
  • 00:11:32
    no sabemos muy bien cómo explicarlas
  • 00:11:34
    como por ejemplo reconocer un número
  • 00:11:36
    escrito a mano vale hay como 1000 formas
  • 00:11:38
    de escribir números a mano o reconocer
  • 00:11:40
    un dibujo por muy deformado que esté no
  • 00:11:42
    imagínate un dibujo de un gato Cuántas
  • 00:11:44
    formas hay de dibujar un gato estas son
  • 00:11:45
    tareas que nosotros como humanos sabemos
  • 00:11:47
    hacer de forma fácil pero que cuesta
  • 00:11:49
    mucho explicarle a un programa Cómo
  • 00:11:51
    puede hacer esto paso a paso para todo
  • 00:11:53
    esto que no sabemos cómo programar hemos
  • 00:11:55
    inventado el aprendizaje automático o
  • 00:11:58
    Machine learning y las redes neuronales
  • 00:12:00
    son una de las tecnologías que se usan
  • 00:12:02
    para el aprendizaje automático la idea
  • 00:12:04
    aquí es muy simple La idea es simple la
  • 00:12:06
    implementación es difícil vale Pero la
  • 00:12:07
    idea es simple quiero que la máquina
  • 00:12:09
    haga algo que no sé muy bien cómo se
  • 00:12:10
    hace así que le voy a mostrar ejemplos a
  • 00:12:13
    mi ordenador voy a preparar mi red
  • 00:12:15
    neuronal para que sepa dónde tiene que
  • 00:12:16
    mirar qué puntos son los interesantes de
  • 00:12:18
    estos datos Qué tipo de operaciones
  • 00:12:20
    tiene que hacer con ellos para intentar
  • 00:12:22
    sacar conclusiones o sea le voy a dar
  • 00:12:24
    una estrategia Pero va a ser ella quien
  • 00:12:26
    va a estudiar muchos casos muchísimos
  • 00:12:28
    datos muchísimos casos para intentar
  • 00:12:30
    entender qué es lo que se tiene que
  • 00:12:31
    hacer en cada uno de ellos con estos
  • 00:12:33
    datos básicamente mi red neuronal va
  • 00:12:35
    sacando conclusiones va encontrando
  • 00:12:36
    patrones incluso hay veces que estas
  • 00:12:39
    inteligencias artificiales encuentran
  • 00:12:41
    detalles que nosotros no somos capaces
  • 00:12:42
    de darnos cuenta que están ahí este
  • 00:12:44
    proceso en el que la Inteligencia
  • 00:12:46
    artificial estudia miles y miles de
  • 00:12:48
    casos se llama entrenamiento por ejemplo
  • 00:12:50
    podemos entrenar una Inteligencia
  • 00:12:52
    artificial para reconocer imágenes de
  • 00:12:54
    gatos o números escritos a mano o jugar
  • 00:12:56
    a un juego de mesa un ejemplo de esto
  • 00:12:58
    que ya vimos en el es el del Deep fake
  • 00:13:00
    que son estos vídeos que te mencioné
  • 00:13:02
    hace nada donde entrenábamos una
  • 00:13:04
    Inteligencia artificial para saber cómo
  • 00:13:05
    es mi cara y cómo es la cara de elon
  • 00:13:08
    musk y meter mi cara encima de un vídeo
  • 00:13:10
    de elon musk generando caras mías que se
  • 00:13:13
    pareciesen a las de elon pero que yo
  • 00:13:14
    nunca hubiese puesto vale o sea
  • 00:13:16
    literalmente generaba caras de la nada
  • 00:13:17
    ahora en el caso del lenguaje natural
  • 00:13:19
    que es como te decía antes el que
  • 00:13:21
    hablamos nosotros hay varios problemas
  • 00:13:23
    bastante graves además a la hora de que
  • 00:13:25
    un ordenador nos pueda entender el
  • 00:13:27
    primero es que los ordenadores no van a
  • 00:13:30
    entender nunca los conceptos que
  • 00:13:31
    representan las palabras por ejemplo si
  • 00:13:33
    yo te digo coche tú te imaginas ese
  • 00:13:35
    vehículo de cuatro ruedas hecho de metal
  • 00:13:37
    te has sentado en un coche sabes cómo
  • 00:13:39
    vibra cuando se conduce o si te digo
  • 00:13:41
    árbol te imaginas un ser vivo de
  • 00:13:43
    celulosa el olor de las hojas color
  • 00:13:45
    marrón y verde un ordenador no tiene ni
  • 00:13:47
    idea de que es nada de esto es más los
  • 00:13:49
    ordenadores solo entienden números ceros
  • 00:13:52
    y uno para hacer más concretos esto ya
  • 00:13:54
    lo vimos Por cierto en el vídeo de
  • 00:13:55
    sistema binario y puertas lógicas que
  • 00:13:57
    también te recomiendo que veas para que
  • 00:13:58
    entiendas esta parte un poco mejor y
  • 00:14:00
    bueno en aquel vídeo vimos que incluso
  • 00:14:02
    el texto el audio o el vídeo que estás
  • 00:14:04
    viendo para tu ordenador no son nada más
  • 00:14:06
    que números con los que hace operaciones
  • 00:14:08
    Matemáticas ahora en el caso concreto
  • 00:14:10
    del texto una de las codificaciones que
  • 00:14:12
    más te va a sonar es el código aci
  • 00:14:15
    Aunque hoy en día se usa más el utf8 por
  • 00:14:17
    ejemplo Pero bueno que al final del día
  • 00:14:19
    las letras que tuves en tu ordenador en
  • 00:14:20
    Word en Wikipedia en cualquiera de estos
  • 00:14:22
    sitios en realidad son números que
  • 00:14:24
    identifican esos caracteres y el
  • 00:14:26
    ordenador los trabaja como números
  • 00:14:27
    incluso los espacios los los mismos los
  • 00:14:29
    interrogantes hasta los emojis Por lo
  • 00:14:32
    cual si quisiéramos entrenar una
  • 00:14:33
    Inteligencia artificial para que nos
  • 00:14:35
    entienda y hable con nosotros primero
  • 00:14:37
    que nada Hay que tener en cuenta que
  • 00:14:38
    nuestra red neuronal no va a haber
  • 00:14:40
    frases ni palabras ni poemas sino
  • 00:14:43
    números y únicamente números y ese
  • 00:14:45
    problema no tiene solución vale Así que
  • 00:14:47
    vamos a trabajar con números Sí o sí
  • 00:14:49
    okay dicho esto tenemos por un lado
  • 00:14:50
    redes neuronales que son capaces de
  • 00:14:52
    aprender en base a patrones y por otro
  • 00:14:55
    lado tenemos texto que este texto en
  • 00:14:56
    realidad son pues nuestras frases
  • 00:14:58
    palabras un montón de lenguaje humano
  • 00:15:00
    pero que para el ordenador al final del
  • 00:15:02
    día y es importante este Matiz son
  • 00:15:04
    números vale él no va a ver árboles ni
  • 00:15:07
    casas ni coches ni caras ni personas Va
  • 00:15:08
    a haber números únicamente Así que
  • 00:15:10
    teniendo en cuenta estos dos detalles
  • 00:15:12
    vamos a hacer juntos el ejercicio de
  • 00:15:14
    crear un programa que entienda el
  • 00:15:15
    lenguaje natural vale va a ser un
  • 00:15:17
    ejercicio mental Okay Vale configuramos
  • 00:15:20
    nuestra red neuronal y le pasamos estos
  • 00:15:22
    números lo primero que va a haber Son un
  • 00:15:23
    montón de números hemos dicho que una de
  • 00:15:26
    las habilidades especiales de nuestra
  • 00:15:27
    red neuronal es entrar patrones dentro
  • 00:15:30
    de datos Así que podemos configurarla
  • 00:15:32
    especialmente para que reconozca tantos
  • 00:15:34
    patrones como pueda y si analiza cientos
  • 00:15:36
    y cientas de estas secuencias de números
  • 00:15:38
    acabaría dándose cuenta de que hay
  • 00:15:41
    patrones que se repiten vale cada vez
  • 00:15:43
    que encuentra esta secuencia de números
  • 00:15:45
    entre estos dos otros números es porque
  • 00:15:47
    hay un término A veces lo encuentra con
  • 00:15:49
    este otro número al final pero lo que
  • 00:15:51
    está claro es que este es un patrón que
  • 00:15:53
    se repite y como ese puede haber
  • 00:15:55
    muchísimos otros Esto es lo que nosotros
  • 00:15:57
    conocemos como palabras pero pero para
  • 00:15:59
    esta red neuronal para este ordenador
  • 00:16:01
    son patrones numéricos únicamente de
  • 00:16:03
    todos modos yo creo que aquí el primer
  • 00:16:04
    paso sería catalogarlos tenerlos en
  • 00:16:06
    alguna lista Cosa que cuando nuestro
  • 00:16:08
    programa se los encuentre Pues los pueda
  • 00:16:10
    identificar mira aquí veo este patrón
  • 00:16:12
    aquí veo este otro etcétera etcétera os
  • 00:16:14
    hacéis una idea no a estos patrones les
  • 00:16:16
    vamos a llamar token un token no es
  • 00:16:19
    necesariamente una palabra depende mucho
  • 00:16:21
    de cómo funcione la red neuronal pero no
  • 00:16:23
    es necesariamente una palabra a veces
  • 00:16:25
    hay palabras compuestas o palabras que
  • 00:16:27
    varían bastante pero que tienen una raíz
  • 00:16:29
    común y el ordenador lo que hace es
  • 00:16:30
    separarlas en varios tokens pero bueno
  • 00:16:33
    normalmente un token es una palabra y
  • 00:16:35
    como nuestra máquina ahora conoce los
  • 00:16:37
    tokens una forma de reducir simplificar
  • 00:16:40
    y comprimir esos datos y hacer el
  • 00:16:41
    trabajo más fácil podría ser la de
  • 00:16:43
    cambiar esos patrones de muchos números
  • 00:16:45
    por una serie de tokens numéricos vale
  • 00:16:47
    vamos a asignar un número a cada token y
  • 00:16:49
    vamos a cambiar todas esas secuencias de
  • 00:16:51
    números por tokens y ahora la red
  • 00:16:54
    neuronal pues tendría un número para
  • 00:16:55
    cada palabra en lugar de todo ese lío
  • 00:16:58
    este proceso es uno de los primeros
  • 00:16:59
    pasos que hacen las redes neuronales
  • 00:17:01
    como gpt y se llama tokenización ahora
  • 00:17:03
    la máquina conoce las palabras vale pero
  • 00:17:06
    no sabe qué significan y nunca lo sabrá
  • 00:17:08
    nunca sabrá que esto es una reina ni que
  • 00:17:10
    esto es un coche y Aunque no pueda
  • 00:17:12
    relacionar estos términos con objetos
  • 00:17:14
    del mundo Real Como hacemos nosotros lo
  • 00:17:16
    que sí puede hacer si presta mucha
  • 00:17:18
    atención es saber qué términos están
  • 00:17:20
    relacionados con Cuáles a alguien se le
  • 00:17:22
    ocurrió que podríamos de alguna forma
  • 00:17:25
    poner marcadores en los tokens o sea
  • 00:17:27
    todos estos tokens y poner como
  • 00:17:28
    pequeñas marquitas cuando detectamos que
  • 00:17:30
    dos son similares un poco como jugar al
  • 00:17:33
    cedo no donde vas marcando tus pistas de
  • 00:17:35
    tu investigación Pues aquí podríamos
  • 00:17:36
    decir que la reina suele estar cerca del
  • 00:17:38
    token la igual que la chica o la
  • 00:17:40
    princesa por lo que estas palabras
  • 00:17:42
    tienen un marcador común también se
  • 00:17:44
    relacionan con el token de vestido Por
  • 00:17:46
    lo cual hay algo común Ahí lo vamos a
  • 00:17:48
    marcar también y se relacionan con el
  • 00:17:50
    token de comer igual que los perros y
  • 00:17:52
    los gatos que por cierto estos dos
  • 00:17:54
    también se usan en patrones similares
  • 00:17:56
    junto con otros tokens al igual que
  • 00:17:57
    kaniche o veterinario o pelota Solo que
  • 00:18:00
    la pelota no come vale Y con un texto lo
  • 00:18:03
    suficientemente grande por ejemplo
  • 00:18:04
    cientos de libros podríamos entrenar un
  • 00:18:06
    modelo para crear una gran clasificación
  • 00:18:08
    de términos y distintos patrones
  • 00:18:11
    similares que va encontrando haciendo
  • 00:18:12
    que los tokens sigue sin saber qué son
  • 00:18:15
    vale Pero de alguna forma están
  • 00:18:16
    ordenaditos y clasificados entre ellos
  • 00:18:18
    con estos marcadores para nosotros
  • 00:18:20
    hacernos una idea por ejemplo el
  • 00:18:22
    marcador que tiene princesa reina y
  • 00:18:24
    mujer en común representaría Lo femenino
  • 00:18:26
    vale Aunque realmente para la máquina
  • 00:18:28
    esto no no tiene ningún sentido
  • 00:18:29
    simplemente es un marcador numérico que
  • 00:18:30
    dice Pues mira yo creo que esto está
  • 00:18:32
    relacionado por el contexto que he leído
  • 00:18:34
    de esta forma cada token tendría un gran
  • 00:18:36
    número de marcadores unos 300 Por
  • 00:18:38
    ejemplo que le dicen Cuáles son las
  • 00:18:40
    cosas que tien común con otras palabras
  • 00:18:42
    A ver no es nada fácil hacerse una
  • 00:18:44
    imagen mental de cómo funciona este
  • 00:18:45
    sistema a mí lo que me gusta pensar es
  • 00:18:47
    que cada palabra tiene como su ADN y
  • 00:18:49
    tiene rasgos comunes con otras palabras
  • 00:18:51
    y de esa forma podemos saber que están
  • 00:18:52
    relacionados Pero hay otra forma que a
  • 00:18:54
    mucha gente le funciona para entender
  • 00:18:55
    mejor este sistema y es imaginarlo como
  • 00:18:58
    una nube tridimensional de ideas repito
  • 00:19:01
    en realidad es bastante más complejo
  • 00:19:03
    porque esto en una nube tenemos solo
  • 00:19:05
    tres dimensiones o sea tenemos arriba
  • 00:19:06
    abajo derecha izquierda atrás y adelante
  • 00:19:09
    no tenemos tres dimensiones Pero antes
  • 00:19:10
    hemos dicho que un token puede tener 300
  • 00:19:12
    marcadores 300 marcadores Serían como
  • 00:19:14
    300 dimensiones distintas vale Pero
  • 00:19:15
    bueno vamos a imaginarlo de forma
  • 00:19:17
    tridimensional como podéis ver en esta
  • 00:19:19
    nube tridimensional hay palabras que
  • 00:19:21
    están más cerca de otras y podemos hacer
  • 00:19:23
    operaciones Matemáticas incluso para
  • 00:19:24
    saber cuál es la distancia entre ellas
  • 00:19:26
    Cuáles son las más cercanas Cuáles son
  • 00:19:28
    las más más lejanas y por ejemplo dada
  • 00:19:30
    una palabra o una posición en el espacio
  • 00:19:32
    x Podríamos sacar la lista de palabras o
  • 00:19:35
    posiciones más parecidas más cercanas a
  • 00:19:37
    la que estamos ahora incluso hacer
  • 00:19:39
    operaciones Matemáticas Como por ejemplo
  • 00:19:41
    reina menos mujer igual a Rey esto si lo
  • 00:19:44
    vemos con el ejemplo del ADN estaríamos
  • 00:19:46
    quitando a la reina esas trazas que
  • 00:19:48
    hacen que se identifique con lo femenino
  • 00:19:50
    no le quitaríamos mujer por lo que
  • 00:19:52
    tendríamos un ADN más parecido al del
  • 00:19:55
    Rey si lo imaginamos con el mapa
  • 00:19:56
    espacial estaríamos alejándonos de el
  • 00:19:59
    término mujer para irnos al opuesto y en
  • 00:20:01
    ese sitio en el opuesto pues estaría Rey
  • 00:20:02
    no sería un poco esta la idea este
  • 00:20:04
    sistema de codificación se conoce como
  • 00:20:06
    embedding es un sistema que permite
  • 00:20:08
    agrupar palabras similares e incluso sus
  • 00:20:10
    tendencias en cuanto a significado y
  • 00:20:13
    este mapa tal y como está sin hacer nada
  • 00:20:14
    más ya no sirve para muchas cosas por
  • 00:20:16
    ejemplo en un buscador como Google
  • 00:20:18
    cuando buscas una palabra podrías
  • 00:20:19
    también tener en cuenta pues sinónimos
  • 00:20:22
    palabras similares o por ejemplo para
  • 00:20:24
    saber si una frase es triste o feliz
  • 00:20:26
    podrías buscar Dentro de este beding y
  • 00:20:27
    ver qué otras hay similares ahora si nos
  • 00:20:30
    vamos a ver el sistema de embeddings que
  • 00:20:31
    usa gpt la cosa es mucho más compleja
  • 00:20:34
    como decíamos una palabra como gato
  • 00:20:37
    dentro de gpt estaría representada por
  • 00:20:39
    un token y dentro de los embeddings
  • 00:20:40
    estaría representada con un vector de
  • 00:20:42
    300 dimensiones o sea una lista de 300
  • 00:20:45
    coordenadas distintas o 300 marcadores
  • 00:20:48
    distintos con distintos niveles pero
  • 00:20:49
    luego gpt también recuerda conjuntos de
  • 00:20:52
    tokens o sea frases por ejemplo el gato
  • 00:20:55
    está durmiendo en el sofá es una
  • 00:20:56
    secuencia que está hecha de varios
  • 00:20:58
    tokens y que también estaría clasificada
  • 00:21:00
    dentro de los embeddings o sea estamos
  • 00:21:02
    hablando de que si bien la idea original
  • 00:21:04
    de embedding era palabras y Buscar
  • 00:21:07
    Qué relación tienen entre ellas y crear
  • 00:21:09
    un sistema complejo de etiquetado para
  • 00:21:11
    saber cuáles van para un lado Cuáles van
  • 00:21:12
    para otro y cuáles están relacionadas Y
  • 00:21:14
    qué tanto están relacionadas pues gpt lo
  • 00:21:16
    lleva a otro nivel porque directamente
  • 00:21:17
    coge secuencias de varios tokens o sea
  • 00:21:20
    frases enteras y hace lo mismo o sea
  • 00:21:22
    coge frases y esas frases también las
  • 00:21:24
    organiza dentro del espacio con sus
  • 00:21:26
    respectivas relaciones y con más de 1000
  • 00:21:28
    marcadores para cada frase o sea como
  • 00:21:30
    puedes imaginar es un sistema bastante
  • 00:21:31
    grande y aquí hay un Matiz muy
  • 00:21:34
    importante vale esto es muy clave y es
  • 00:21:36
    el motivo por el que chat gpt parece que
  • 00:21:38
    invente cosas en lugar de copiar textos
  • 00:21:40
    de otras personas aquí es donde está
  • 00:21:42
    toda la chicha vamos a volver a nuestra
  • 00:21:44
    máquina nuestro algoritmo hasta aquí
  • 00:21:45
    habíamos dicho queb a crear este sistema
  • 00:21:47
    de embeddings que es una técnica muy
  • 00:21:48
    común que se usa para relacionar un poco
  • 00:21:50
    el significado entre palabras y bueno
  • 00:21:53
    ahora haciendo nuestra clasificación nos
  • 00:21:54
    damos cuenta de que hay palabras como el
  • 00:21:57
    la como mismo otros Ojalá y términos
  • 00:22:02
    similares que aportan muy poco valor a
  • 00:22:04
    la frase o sea es como que están en
  • 00:22:05
    tierra de nadie se relacionan con todo y
  • 00:22:08
    con nada al mismo tiempo al igual que
  • 00:22:10
    las mayúsculas las minúsculas y otros
  • 00:22:12
    signos de puntuación que a veces pues
  • 00:22:14
    aportan muy poco una frase no la frase
  • 00:22:16
    se entendería igual si esos términos
  • 00:22:18
    genéricos no estuvieran ahí así que de
  • 00:22:20
    ahora en adelante para simplificar
  • 00:22:21
    todavía más el trabajo que todo vaya más
  • 00:22:23
    rápido y que sea más simple también
  • 00:22:25
    relacionar frases pues vamos a limpiar
  • 00:22:27
    los textos antes de meterlos en nuestro
  • 00:22:29
    sistema esto para que te hagas una idea
  • 00:22:31
    es como cuando te limpian el pescado
  • 00:22:32
    vale te quitan las espinas las escamas
  • 00:22:34
    te lo dejan listo para cocinar y que
  • 00:22:36
    cuando te lo comas te lo comas enterito
  • 00:22:38
    esto sería algo muy parecido te voy a
  • 00:22:39
    poner un ejemplo en la frase el gato
  • 00:22:41
    está durmiendo en el sofá hay varias
  • 00:22:43
    palabras que aportan poco por ejemplo n
  • 00:22:46
    y el si las quitamos nos queda gato está
  • 00:22:49
    durmiendo sofá esto también se entiende
  • 00:22:51
    podríamos simplificarla aún más con un
  • 00:22:53
    proceso que se llama lematización o sea
  • 00:22:56
    Convertir las palabras a sus formas más
  • 00:22:57
    sencillas Como por ejemplo los verbos al
  • 00:22:59
    infinitivo gato es dormir sofá y si lo
  • 00:23:02
    simplificamos aún más gato dormir sofá
  • 00:23:05
    es una frase que está comprimida está
  • 00:23:07
    condensada Y esto es muy útil cuando
  • 00:23:09
    entrenamos el modelo porque Qué pasa que
  • 00:23:12
    gpt guardaría esta secuencia dentro del
  • 00:23:13
    sistema de n bedding relacionando esta
  • 00:23:15
    frase con otras frases parecidas usando
  • 00:23:18
    los marcadores pero en lugar de
  • 00:23:19
    una frase que es super lga con un montón
  • 00:23:21
    de palabras pues la reduce a la mínima
  • 00:23:23
    expresión y aquí viene la gran
  • 00:23:25
    revelación todas las frases que dice gpt
  • 00:23:28
    la saca de su sistema de embeddings vale
  • 00:23:31
    todo lo que gpt dice sale de una
  • 00:23:34
    búsqueda dentro de los embeddings Busca
  • 00:23:36
    términos palabras o incluso frases y
  • 00:23:38
    consigue otras frases que son parecidas
  • 00:23:40
    y están relacionadas de alguna forma no
  • 00:23:42
    con esta Este es el gran truco del
  • 00:23:44
    conocimiento y la gran capacidad de chat
  • 00:23:46
    gpt para poder decir cosas relacionadas
  • 00:23:48
    con lo que nosotros estamos diciendo o
  • 00:23:50
    sea literalmente coge nuestras frases
  • 00:23:51
    las analiza las convierte a su sistema
  • 00:23:54
    de embedding y busca en ese espacio de
  • 00:23:56
    embedding qué más nos puede decir
  • 00:23:59
    antes le pregunté por los emperadores
  • 00:24:00
    romanos no por ejemplo y todo lo que me
  • 00:24:02
    dijo pues es una mezcla de varias
  • 00:24:03
    secuencias de tokens que están
  • 00:24:05
    almacenados y relacionados entre ellos
  • 00:24:06
    dentro de su sistema de meding Pero esto
  • 00:24:09
    es solo el principio vale antes hablé de
  • 00:24:12
    normalización y lematización que es este
  • 00:24:15
    proceso en el que limpias el pescado
  • 00:24:16
    simplificas las frases Por decirlo de
  • 00:24:18
    alguna manera quitas todo eso que no
  • 00:24:20
    aporta y comprimes la información usando
  • 00:24:22
    tokens para representar una frase Y esto
  • 00:24:24
    es clave para entender Por qué chat gpt
  • 00:24:26
    genera textos únicos me explico cuando
  • 00:24:28
    chat gpt genera texto hace consultas a
  • 00:24:30
    su embedding y lo que saca son estas
  • 00:24:32
    secuencias de tokens que son frases
  • 00:24:34
    comprimidas y que las tiene que
  • 00:24:35
    convertir en algo aceptable por parte de
  • 00:24:37
    los humanos por eso lo que hace es
  • 00:24:39
    convertir estos tokens en las palabras
  • 00:24:41
    que están más cercanas en la dentro del
  • 00:24:43
    embedding a veces las palabras son
  • 00:24:44
    ligeramente distintas a las que estaban
  • 00:24:46
    en la frase original y sobre todo usa
  • 00:24:48
    nuestras reglas de sintaxis y gramática
  • 00:24:50
    Para volver a poner esas palabras que
  • 00:24:52
    había quitado al principio convirtiendo
  • 00:24:54
    esa secuencia de números en una frase
  • 00:24:56
    que le suene bien a un ser humano Pero
  • 00:24:57
    qué pasa que de la frase original a la
  • 00:25:00
    final ha habido una pérdida de
  • 00:25:01
    información y luego una reconstrucción
  • 00:25:03
    por eso la frase es distinta a la
  • 00:25:05
    original porque es imposible recordar
  • 00:25:07
    exactamente qué es lo que había en la
  • 00:25:08
    frase original Así que se lo inventa y
  • 00:25:10
    pone cosas que a veces son distintas Y
  • 00:25:11
    esto es bueno es muy bueno porque lo que
  • 00:25:13
    hace es que lo que genera chat gpt no se
  • 00:25:16
    parezca al texto original o sea es una
  • 00:25:18
    creación original porque literalmente
  • 00:25:20
    cuando ha guardado esa información ha
  • 00:25:22
    perdido detalles y los ha tenido que
  • 00:25:23
    reconstruir y cuando los ha reconstruido
  • 00:25:25
    pues ha cambiado cosas es muy parecido a
  • 00:25:27
    lo que hacemos nosotros si lo pensáis eh
  • 00:25:29
    si yo ahora te explico algo Y mañana te
  • 00:25:30
    pregunto qué es lo que te he explicado
  • 00:25:32
    Pues tú seguramente tengas una serie de
  • 00:25:34
    ideas que recuerdes de lo que te
  • 00:25:35
    expliqué pero no me vas a recitar
  • 00:25:37
    exactamente las palabras que te dije
  • 00:25:38
    porque no te vas a acordar sino que me
  • 00:25:40
    vas a decir pues con tus propias
  • 00:25:41
    palabras lo que te dije ayer pues es muy
  • 00:25:43
    parecido a lo que hace gpt reduce y
  • 00:25:45
    comprime al significado básico almacena
  • 00:25:47
    y cuando lo tiene que sacar lo
  • 00:25:48
    reconstruye con sus propias palabras por
  • 00:25:50
    decirlo de alguna manera aparte de esto
  • 00:25:52
    gpt usa otra técnica que se llama
  • 00:25:54
    sampling el sampling básicamente permite
  • 00:25:57
    que chat gpt tenga una cierta
  • 00:25:58
    creatividad lo que hace básicamente es
  • 00:26:00
    que el sistema genere un número
  • 00:26:02
    aleatorio que sería el equivalente Pues
  • 00:26:04
    a tirar un dado vale para que te hagas
  • 00:26:06
    una idea de lo que es un número
  • 00:26:06
    aleatorio y en base a ese número
  • 00:26:08
    aleatorio se mueve ligeramente dentro
  • 00:26:10
    del espacio del embedding para un lado o
  • 00:26:12
    para otro y eso le hace pues moverse
  • 00:26:14
    hacia otra frase Y esa frase no va a
  • 00:26:16
    estar demasiado lejos de la original lo
  • 00:26:18
    suficientemente cerca como para que haga
  • 00:26:19
    parte de la misma conversación y sea
  • 00:26:21
    coherente con lo que estamos hablando
  • 00:26:23
    Así es como chat gpt va inventando
  • 00:26:25
    historias que parecen coherentes pero
  • 00:26:27
    que en realidad son combinaciones de
  • 00:26:28
    otras historias que ha leído antes en su
  • 00:26:30
    fase de entrenamiento o sea todo lo que
  • 00:26:32
    dice y todo lo que suelta viene de la
  • 00:26:34
    fase de
  • 00:26:35
    entrenamiento Okay Hemos llegado a un
  • 00:26:37
    checkpoint Vamos a repasar un momento lo
  • 00:26:39
    que hemos hablado hasta aquí tenemos una
  • 00:26:40
    red neuronal que es un ordenador que
  • 00:26:42
    aprende buscando patrones en datos le
  • 00:26:44
    pasamos un montón de números Random que
  • 00:26:46
    representan las letras de nuestros
  • 00:26:48
    textos y millones de textos para que
  • 00:26:50
    pueda estudiarlos y Buscar patrones
  • 00:26:51
    dentro de ellos de ahí la red saca
  • 00:26:54
    varios patrones que son nuestras
  • 00:26:55
    palabras o partes de palabras y crea los
  • 00:26:57
    tokens ahora teniendo estos tokens los
  • 00:27:00
    usa para crearse un mapa mental con
  • 00:27:01
    cientos de parámetros y usa esos
  • 00:27:03
    parámetros para clasificar por cercanía
  • 00:27:06
    de significado a cada uno de los
  • 00:27:08
    términos y luego gracias a esto Pues
  • 00:27:10
    también analiza combinaciones de varios
  • 00:27:12
    tokens que parece que tienen algún
  • 00:27:13
    sentido entre ellos que son nuestras
  • 00:27:15
    frases y también empieza a memorizarlas
  • 00:27:17
    y a relacionarlas entre ellas con más de
  • 00:27:19
    1000 parámetros y esto le permite Pues
  • 00:27:21
    saber qué frases tienen cosas en común y
  • 00:27:23
    qué cosas en común tienen no con qué
  • 00:27:25
    términos se relacionan ahora Gracias a
  • 00:27:27
    todo esto cuando nosotros le damos un
  • 00:27:28
    término Como por ejemplo gato gpt puede
  • 00:27:31
    buscar dentro de su embedding la
  • 00:27:32
    posición del término gato y soltarnos
  • 00:27:34
    unas cuantas frases sobre los gatos Como
  • 00:27:35
    por ejemplo que es un gato Eh cuántos
  • 00:27:38
    gatos hay en en el mundo Pero además
  • 00:27:40
    como estas frases están guardadas dentro
  • 00:27:42
    del el embedding de gpt de forma super
  • 00:27:44
    primaria las tiene que reconstruir para
  • 00:27:46
    que suenen como si las hubiese escrito
  • 00:27:48
    un humano y haciendo ese proceso de
  • 00:27:50
    reconstrucción genera frases Originales
  • 00:27:53
    por lo que parece que sepa un montón de
  • 00:27:54
    cosas Y gracias al sampling también
  • 00:27:57
    bailando y soltando frases nuevas que
  • 00:27:59
    quedan bien con las anteriores un buen
  • 00:28:00
    truco
  • 00:28:02
    verdad Pero nos estamos dejando una
  • 00:28:04
    parte muy importante el gran problema
  • 00:28:06
    que ha existido durante mucho tiempo y
  • 00:28:08
    para el que hasta hace muy poco no había
  • 00:28:14
    solución Okay primero que nada recordad
  • 00:28:16
    una cosa las redes neuronales tienen dos
  • 00:28:18
    fases una fase en la que la entrenamos
  • 00:28:21
    para hacer algo y otra fase en la que la
  • 00:28:23
    hace no la primera fase se llama
  • 00:28:25
    entrenamiento la segunda se llama
  • 00:28:26
    inferencia cuando cuando nosotros
  • 00:28:28
    hablamos con chat gpt estamos en fase de
  • 00:28:30
    inferencia vale está intentando adivinar
  • 00:28:33
    cosas y cuando la entrenamos que es
  • 00:28:34
    cuando le pasamos la Wikipedia los
  • 00:28:36
    libros y todo lo que le demos para
  • 00:28:37
    aprender es cuando está aprendiendo y el
  • 00:28:39
    problema que te voy a contar ahora
  • 00:28:41
    afecta a las dos fases tanto la de
  • 00:28:42
    entrenamiento como la de inferencia
  • 00:28:44
    cuando nosotros metemos letras y luego
  • 00:28:46
    tokens en la red neuronal vale como lo
  • 00:28:48
    que el ordenador que veníamos haciendo
  • 00:28:50
    hasta ahora la red neuronal tiene una
  • 00:28:51
    entrada un tamaño x vale recoge esa
  • 00:28:53
    entrada la procesa saca conclusiones y y
  • 00:28:56
    ya está ahí hemos terminado nosotros
  • 00:28:58
    hasta aquí por algún motivo hemos dado
  • 00:29:00
    por hecho que el ordenador puede tragar
  • 00:29:02
    cualquier tipo de frase cualquier tamaño
  • 00:29:04
    da igual como sea cualquier texto Pero
  • 00:29:07
    esto no es así vale Y esto es un
  • 00:29:08
    problema mucho más grande de lo que
  • 00:29:09
    parece la red neuronal no Recuerda lo
  • 00:29:12
    que pasa entre paso y paso cada vez que
  • 00:29:14
    entra algo y Sale pues simplemente se le
  • 00:29:16
    olvida Y esto es un gran problema
  • 00:29:18
    primero que nada para la inferencia no
  • 00:29:19
    cuando nosotros hablamos con la
  • 00:29:20
    inteligencia Y Esperamos que nos genere
  • 00:29:22
    texto hombre pues es bastante importante
  • 00:29:24
    que entienda toda la frase que le
  • 00:29:27
    pasamos da igual cuántas cosas
  • 00:29:28
    mencionemos que esto es algo que gpt
  • 00:29:30
    hace muy bien y no solo eso sino que
  • 00:29:32
    recuerde todo lo que vamos hablando a lo
  • 00:29:33
    largo de la conversación que tenga algún
  • 00:29:36
    tipo de memoria no algo que que le
  • 00:29:38
    permita recordar y lo mismo pasa cuando
  • 00:29:40
    esta red está aprendiendo no si la red
  • 00:29:42
    neuronal está leyendo un artículo de
  • 00:29:43
    Wikipedia Es superimportante que para
  • 00:29:45
    poder clasificar las frases y conceptos
  • 00:29:48
    pues sepa Cuál es el contexto No qué es
  • 00:29:50
    lo que está leyendo de qué va la cosa
  • 00:29:52
    por ejemplo antes hablando con ella pues
  • 00:29:54
    me dijo Hay una posibilidad de que estos
  • 00:29:56
    textos sean propaganda esto lo hizo en
  • 00:29:58
    la fase de inferencia porque estaba
  • 00:29:59
    hablando conmigo vale eso significa que
  • 00:30:02
    durante el entrenamiento en algún
  • 00:30:03
    momento leyó esa frase y sabía de que se
  • 00:30:06
    hablaba no sabía que se hablaba de los
  • 00:30:07
    textos antiguos sobre el emperador
  • 00:30:09
    Romano caligula y sabía todo esto porque
  • 00:30:11
    yo le pregunté quién era el peor
  • 00:30:13
    emperador Romano de la historia no pero
  • 00:30:14
    como puedes imaginar sin todo este
  • 00:30:16
    contexto sería prácticamente imposible
  • 00:30:17
    hilar una conversación con sentido esto
  • 00:30:20
    Ahora nos parece Obvio porque vemos que
  • 00:30:22
    funciona y ya está pero no es tan fácil
  • 00:30:24
    No es tan fácil de conseguir porque como
  • 00:30:26
    te decía antes la red neurona tiene un
  • 00:30:28
    tamaño de entrada que es limitado Así
  • 00:30:29
    que necesito algún tipo de sistema para
  • 00:30:31
    poder tener en cuenta el contexto saber
  • 00:30:34
    de qué estamos hablando recordar esos
  • 00:30:35
    detalles que hacen que la conversación y
  • 00:30:37
    la frase tenga algún tipo de sentido
  • 00:30:39
    hasta hace poco lo que se hacía era usar
  • 00:30:41
    redes neuronales recurrentes Bueno pues
  • 00:30:43
    en la red neuronal recurrente lo que se
  • 00:30:45
    hace Es que a cada vez que se procesa un
  • 00:30:47
    token se guarda una parte del resultado
  • 00:30:49
    y ese resultado lo usa como dato de
  • 00:30:51
    entrada para procesar el siguiente token
  • 00:30:53
    y el siguiente y el siguiente y el
  • 00:30:55
    siguiente y cada vez que pasa por un
  • 00:30:57
    paso va guardando un poquito de
  • 00:30:59
    significado de cada token conseguimos
  • 00:31:01
    más o menos que se mantenga el tema del
  • 00:31:02
    que estamos hablando a lo largo de una
  • 00:31:03
    frase Pero hay dos problemas muy grandes
  • 00:31:06
    con este sistema el primero es que
  • 00:31:07
    después de aquí palabras se empieza a
  • 00:31:09
    olvidar de todo vale o sea llega un
  • 00:31:10
    momento que ya el significado de las
  • 00:31:12
    primeras palabras se pierde y ya no es
  • 00:31:14
    capaz de retenerlo Pero hay un segundo
  • 00:31:15
    problema muy importante y es que todo
  • 00:31:17
    esto es un proceso secuencial o sea
  • 00:31:19
    cuando entrenamos el modelo de lenguaje
  • 00:31:21
    lo hacemos en secuencia un término
  • 00:31:23
    detrás de otro vamos poco a poco y esto
  • 00:31:26
    lo que no se puede es paralelizar Qué
  • 00:31:28
    quiere decir esto que si yo por ejemplo
  • 00:31:29
    quiero meter más ordenadores a procesar
  • 00:31:31
    este texto pues literalmente no podría
  • 00:31:33
    porque para procesar una palabra
  • 00:31:34
    necesito tener en cuenta toda las
  • 00:31:36
    anteriores entonces solo un ordenador
  • 00:31:37
    puede hacer ese trabajo o sea imagínate
  • 00:31:39
    que yo soy la red neuronal invito un
  • 00:31:41
    amigo a que venga aquí a echar una mano
  • 00:31:42
    a procesar todo esto y yo pues estoy ahí
  • 00:31:44
    procesando palabra palabra palabra
  • 00:31:47
    palabra pero para cada palabra que
  • 00:31:48
    proceso tengo en cuenta todas las
  • 00:31:50
    anteriores eso significa que mi amigo
  • 00:31:52
    pues no puede hacer nada o sea nos
  • 00:31:53
    podemos ir turnando si él quiere pero es
  • 00:31:55
    que él no puede ir procesando otras
  • 00:31:57
    porque le falta todas las anteriores Y
  • 00:31:59
    por eso es un problema vale o sea
  • 00:32:00
    entrenar este tipo de redes es bastante
  • 00:32:02
    lento Pero bueno Esto funcionó durante
  • 00:32:04
    bastante tiempo era la forma que
  • 00:32:05
    teníamos para hacer este tipo de Bots
  • 00:32:06
    Aunque luego vinieron otro tipo de redes
  • 00:32:08
    que son las long short term Memory que
  • 00:32:11
    son un poco mejores porque hacen
  • 00:32:12
    prácticamente lo mismo pero deciden en
  • 00:32:14
    cada momento Qué es lo más importante y
  • 00:32:16
    solo olvidan lo menos importante pero
  • 00:32:18
    bueno siguen teniendo el mismo problema
  • 00:32:19
    O sea que a medida que nos alejamos del
  • 00:32:21
    texto antiguo se pierde el contexto
  • 00:32:22
    queda lo más importante pero aún así en
  • 00:32:24
    textos de más de 1000 palabras se
  • 00:32:26
    empieza a perder el significado y además
  • 00:32:28
    eso que el entrenamiento no es
  • 00:32:29
    paralelizado así que el gran problema de
  • 00:32:31
    este tipo de inteligencias artificiales
  • 00:32:33
    hasta ahora era que no podían recordar
  • 00:32:35
    bien de lo que estaban hablando o sea
  • 00:32:37
    igual tenían este en bedding tenían todo
  • 00:32:38
    esto tan Guay Pero dentro de una
  • 00:32:41
    conversación muy larga se iban perdiendo
  • 00:32:43
    y empezaban a divagar y esto también les
  • 00:32:45
    impide desarrollar cosas muy largas
  • 00:32:47
    hacer resúmenes o cualquier tipo de
  • 00:32:48
    tarea que requiera analizar un texto muy
  • 00:32:50
    grande y entender cosas complejas no la
  • 00:32:53
    solución a este problema vino en 2017
  • 00:32:55
    cuando se publicó attention is all
  • 00:32:57
    Unique
  • 00:32:58
    que es un paper de unos investigadores
  • 00:33:00
    de Google donde se planteó una solución
  • 00:33:02
    muy buena a este problema una nueva
  • 00:33:04
    forma de organizar las redes neuronales
  • 00:33:06
    llamada Transformers en los Transformers
  • 00:33:08
    lo que se hace es Añadir una nueva capa
  • 00:33:10
    una capa dedicada a lo que los
  • 00:33:12
    investigadores llamaron atención la
  • 00:33:14
    atención hace referencia a cómo los
  • 00:33:16
    humanos vemos vale nosotros cuando vemos
  • 00:33:18
    cosas vemos un montón de información
  • 00:33:20
    pero solo prestamos atención a ciertos
  • 00:33:22
    objetos mientras que todo el resto pues
  • 00:33:23
    lo ignoramos la idea aquí es que nuestra
  • 00:33:26
    red neuronal haga exacta ente lo mismo
  • 00:33:28
    que analice una gran cantidad de texto
  • 00:33:30
    todo de golpe y lo use para extraer el
  • 00:33:33
    contexto de lo que se está hablando
  • 00:33:34
    prestando atención solo a los detalles
  • 00:33:37
    más importantes para hacer esto cogemos
  • 00:33:39
    una parte de nuestro texto la
  • 00:33:41
    normalizamos la codificamos con nuestros
  • 00:33:43
    tokens y de esos tokens vamos a sacar de
  • 00:33:45
    cada uno los vectores de embedding a
  • 00:33:48
    partir de Aquí vamos a cada uno de
  • 00:33:50
    los vectores y vamos a mirar qué tanto
  • 00:33:52
    se parecen a todo el resto de palabras
  • 00:33:54
    que hay dentro de la frase por ejemplo
  • 00:33:56
    en la frase La vida es bella Así que
  • 00:33:58
    vívela cada día aquí haríamos
  • 00:34:00
    operaciones para saber cuál es la
  • 00:34:01
    relación con cada uno de los términos Y
  • 00:34:03
    de esa forma sabríamos qué conceptos son
  • 00:34:05
    más importantes que otros sabríamos Cuál
  • 00:34:08
    es el contexto de la frase sabríamos que
  • 00:34:10
    cuando hablamos de vivir nos referimos a
  • 00:34:12
    la vida y descartarías esas palabras que
  • 00:34:14
    son menos importantes y aquí la idea es
  • 00:34:16
    que la información sobre estos términos
  • 00:34:18
    relevantes no solo se va enriqueciendo
  • 00:34:20
    sino que también se va manteniendo a lo
  • 00:34:21
    largo de todo el proceso y ese vector de
  • 00:34:23
    atención se usa en el procesamiento de
  • 00:34:26
    cada una de las palabras y esto ayuda
  • 00:34:28
    muchísimo al ordenador no solo a saber
  • 00:34:29
    el contexto de cada una de las frases
  • 00:34:31
    por ejemplo cuando lee el token
  • 00:34:32
    propaganda sabe que se hace referencia a
  • 00:34:34
    las escrituras sobre calígula el
  • 00:34:36
    emperador Romano sino que además sabe el
  • 00:34:38
    significado de palabras Como por ejemplo
  • 00:34:40
    gato no gato para un mecánico Es una
  • 00:34:42
    herramienta pero Generalmente pues es un
  • 00:34:44
    animal que para una persona normal puede
  • 00:34:46
    ser una mascota para un veterinario un
  • 00:34:47
    paciente la atención también es la que
  • 00:34:50
    permite a chat gpt extraer los conceptos
  • 00:34:52
    clave de un texto escrito por nosotros
  • 00:34:54
    saber qué términos tienen más peso Qué
  • 00:34:56
    es lo más importante nuestra pregunta
  • 00:34:58
    incluso hacer un resumen de un texto o
  • 00:35:00
    responder tema por tema a todo lo que le
  • 00:35:02
    hemos dicho Pero además hay un poder muy
  • 00:35:04
    grande en la capa de atención este Esto
  • 00:35:05
    es lo mejor que tiene vale Y es que
  • 00:35:07
    permite paralelizar me explico la
  • 00:35:10
    atención no necesita que las palabras se
  • 00:35:12
    procesen de forma secuencial O sea no
  • 00:35:14
    hace falta ir palabra por palabra una
  • 00:35:16
    detrás de la otra sino que podemos
  • 00:35:17
    todas las palabras al mismo tiempo y
  • 00:35:19
    esto nos permite tener decenas de
  • 00:35:20
    tarjetas gráficas trabajando todas a la
  • 00:35:22
    vez entrenando nuestro modelo de
  • 00:35:24
    lenguaje o incluso generando palabras en
  • 00:35:26
    nuestro modelo de lenguaje Así que el
  • 00:35:28
    entrenamiento es mucho más rápido y
  • 00:35:29
    mucho más eficaz que los tipos que vimos
  • 00:35:31
    antes no que necesitabas ir de forma
  • 00:35:33
    secuencial una tras otra una tras otra
  • 00:35:35
    una tras otra aquí coges todo junto se
  • 00:35:37
    lo metes Y es capaz de procesarlo a la
  • 00:35:39
    vez la idea aquí es que los Transformers
  • 00:35:41
    han sido la gran Revolución la pieza que
  • 00:35:43
    faltaba en el mundo de los generadores
  • 00:35:45
    de texto la capa de atención esa capa de
  • 00:35:47
    atención ha hecho que avancemos en dos o
  • 00:35:49
    tres años muchísimo más de lo que se
  • 00:35:51
    avanzó en toda la década pasada
  • 00:35:52
    posiblemente Google de hecho fue la
  • 00:35:54
    primera en publicar acerca de estos
  • 00:35:55
    Transformers y también en usarlos uno de
  • 00:35:58
    los productos más importantes que
  • 00:35:59
    hicieron basándose en esta tecnología
  • 00:36:01
    fue bert en este artículo de Google
  • 00:36:03
    podéis ver como bert es una gran ayuda a
  • 00:36:05
    la hora de mejorar la precisión de las
  • 00:36:07
    búsquedas en Google por ejemplo no la
  • 00:36:09
    mejora es impresionante porque pasamos
  • 00:36:10
    de que Google busque términos
  • 00:36:11
    relacionados con lo que estamos buscando
  • 00:36:13
    a que entienda perfectamente lo que
  • 00:36:15
    estás diciendo y te dé la solución a tu
  • 00:36:16
    problema Por ejemplo aquí podéis ver que
  • 00:36:18
    se pregunta si en 2019 un viajero
  • 00:36:20
    brasileño necesita visa para ir a los
  • 00:36:22
    Estados Unidos antes de usar este
  • 00:36:24
    sistema te decía que bueno un artículo
  • 00:36:26
    ahí del Washington post que está
  • 00:36:28
    relacionado que tiene esas palabras
  • 00:36:29
    clave y ahora directamente te lleva a la
  • 00:36:32
    página de la embajada donde nos explica
  • 00:36:33
    los requisitos de Los viajeros que
  • 00:36:35
    visitan Estados Unidos con nacionalidad
  • 00:36:37
    brasileña o sea mucho más efectivo más
  • 00:36:39
    al grano y te lleva exactamente a la
  • 00:36:41
    página que Necesitas visitar para para
  • 00:36:43
    resolver este problema no Google inventó
  • 00:36:45
    este sistema Pero Open Ai fueron los que
  • 00:36:47
    decidieron llevar esto al siguiente
  • 00:36:49
    nivel en 2015 Se juntaron varios Titanes
  • 00:36:51
    del sector tecnológico estamos hablando
  • 00:36:53
    de Sam altman que era el director de una
  • 00:36:56
    aceleradora de startup muy importante
  • 00:36:58
    Greg brockman que fue uno de los
  • 00:36:59
    primeros empleados de stripe raid
  • 00:37:01
    Hoffman que es el cofundador de linkedin
  • 00:37:03
    Jessica Livingston que también viene de
  • 00:37:04
    la aceleradora de startups era la
  • 00:37:06
    cofundadora Peter thiel que es el
  • 00:37:08
    cofundador de PayPal y elon musk que
  • 00:37:10
    bueno este no necesita presentaciones
  • 00:37:12
    Bueno pues toda esta gente se juntó Y
  • 00:37:13
    montó una organización que al principio
  • 00:37:15
    era sin ánimo de lucro para llevar la
  • 00:37:17
    Inteligencia artificial al siguiente
  • 00:37:19
    nivel y así es como nació Open Ai uno de
  • 00:37:22
    los proyectos estrella de Open Ai es gpt
  • 00:37:24
    no es el único vale tiene cosas muy
  • 00:37:26
    guapas pero Pero bueno gpt es el del que
  • 00:37:28
    va el vídeo de hoy y la idea aquí es muy
  • 00:37:30
    sencilla dijeron Qué pasaría si
  • 00:37:33
    cogiéramos esta arquitectura de
  • 00:37:34
    Transformers que propuso Google y
  • 00:37:36
    hacemos la red neuronal más grande
  • 00:37:38
    enorme gigantesca jamás creada cada red
  • 00:37:41
    neuronal tiene lo que se conocen como
  • 00:37:43
    parámetros puedes imaginar los
  • 00:37:44
    parámetros como si fueran una serie de
  • 00:37:46
    mandos tiradores perillas pesos y una
  • 00:37:49
    serie de ajustes que se configuran para
  • 00:37:51
    que la máquina funcione de una forma
  • 00:37:53
    concreta las redes neuronales de hecho
  • 00:37:55
    lo que van haciendo a medida que
  • 00:37:56
    aprenden es poco a poco ajustar todos
  • 00:37:58
    estos parámetros para que los resultados
  • 00:38:00
    de salida sean los esperados de la
  • 00:38:01
    máquina vale Y como podrás imaginar
  • 00:38:04
    Cuantos más parámetros tiene una máquina
  • 00:38:05
    en teoría más ajustable es más compleja
  • 00:38:08
    y más flexibilidad tiene y para que
  • 00:38:10
    quede claro no en el caso de las redes
  • 00:38:11
    neuronales no es el usuario quien ajusta
  • 00:38:13
    todo esto no sino que es la máquina que
  • 00:38:14
    va cambiando todo esto para producir un
  • 00:38:16
    resultado x no es como una máquina que
  • 00:38:18
    es capaz de aprender Y el aprendizaje
  • 00:38:20
    consiste en ajustar estos parámetros
  • 00:38:21
    ahora dicho esto este tipo de grandes
  • 00:38:23
    modelos de lenguaje Normalmente se
  • 00:38:25
    entrenan con algunos millones de
  • 00:38:26
    parámetros
  • 00:38:27
    pero como te dije hace un momento Open
  • 00:38:29
    Ai quería llevar esto al siguiente nivel
  • 00:38:31
    así que ya cuando entrenaron a gpt2
  • 00:38:33
    usaron 1,5 miles de millones de
  • 00:38:36
    parámetros y ya para gpt3 que es en la
  • 00:38:38
    que se basa chat gpt usaron 175 miles de
  • 00:38:42
    millones de parámetros una locura total
  • 00:38:45
    y qué usaron para entrenar a esta bestia
  • 00:38:47
    de Transformer con esos 175 miles de
  • 00:38:49
    millones de parámetros bueno Pues
  • 00:38:51
    básicamente le pasaron el common crowd
  • 00:38:53
    que es una base de datos que contiene
  • 00:38:55
    muchísimo contenido de internet extraído
  • 00:38:57
    de textos como blogs y todo tipo de
  • 00:38:59
    páginas web entre el año 2016 y 2019
  • 00:39:02
    luego también usaron webtex 2 que
  • 00:39:04
    básicamente es un un texto muy largo que
  • 00:39:07
    contiene todos los posts de redit con un
  • 00:39:10
    mínimo de karma y todo Su contenido de
  • 00:39:11
    links o sea todos los links de esos post
  • 00:39:14
    también en formato de texto aparte de
  • 00:39:16
    eso usaron una gran biblioteca de libros
  • 00:39:18
    Y por último toda la Wikipedia y en fin
  • 00:39:20
    todos estos textos que son miles y miles
  • 00:39:22
    y miles y miles de tokens los usaron
  • 00:39:24
    para que gpt3 aprenda todo lo que sabe y
  • 00:39:27
    clar Claro entre este contenido hay
  • 00:39:28
    cientos de Consejos conocimiento general
  • 00:39:31
    tablaturas de guitarra código de
  • 00:39:33
    programación de todo tipo y muchas más
  • 00:39:35
    cosas esto es gpt3 señores y chat gpt no
  • 00:39:38
    es el primer producto basado en gpt3
  • 00:39:40
    Open Ai creó a mitad de 2021 una
  • 00:39:42
    variante de gpt3 entrenada con todos los
  • 00:39:44
    repositorios de github que básicamente
  • 00:39:46
    github es una plataforma que ahora la
  • 00:39:48
    compró Microsoft donde la mayoría de
  • 00:39:50
    programadores del mundo guardan su
  • 00:39:52
    código y esta Inteligencia artificial
  • 00:39:53
    Pues básicamente se puso a aprender todo
  • 00:39:55
    el código de github y aprendió programar
  • 00:39:58
    esto lo cogieron y lo sacaron como un
  • 00:39:59
    producto comercial llamado github
  • 00:40:01
    copilot que es una Inteligencia
  • 00:40:02
    artificial capaz de ayudarte a programar
  • 00:40:04
    generando código de todo lo que tú le
  • 00:40:06
    pides directamente desde tu editor O sea
  • 00:40:08
    tú estás en el editor y le dices quiero
  • 00:40:09
    que hagas esto plam y te he genera todo
  • 00:40:11
    el código A veces tienes que cambiar
  • 00:40:13
    alguna cosa ajustar cositas modificar
  • 00:40:15
    Pero toda una Revolución en el mundo de
  • 00:40:17
    la programación ahora chat gpt es lo
  • 00:40:20
    último que han sacado y para crear chat
  • 00:40:21
    gpt han tenido que hacer un poco más de
  • 00:40:23
    trabajo vale chat gpt es una versión
  • 00:40:26
    refinada o fine tuned como se dice en
  • 00:40:28
    inglés de gpt3 lo primero que hicieron
  • 00:40:31
    fue empezando ya desde gpt3 entrenado
  • 00:40:33
    con todo esto que os dije antes
  • 00:40:34
    añadieron más entrenamiento pero esta
  • 00:40:36
    vez en lugar de usar textos de internet
  • 00:40:38
    que quedan libres a la interpretación de
  • 00:40:40
    gpt porque una cosa que no mencioné es
  • 00:40:42
    que gpt es un modelo entrenado de forma
  • 00:40:43
    No supervisada o sea los datos que se le
  • 00:40:45
    pasaron no le decimos que son sino que
  • 00:40:48
    tiene que buscarse la vida vale pero en
  • 00:40:50
    este caso sí que le pasaron un nuevo set
  • 00:40:52
    de datos que sí que está etiquetado cómo
  • 00:40:54
    lo hicieron Bueno pues contrataron un
  • 00:40:55
    grupo de humanos para que generen
  • 00:40:56
    respuesta de chat de alta calidad y
  • 00:40:59
    además pues diciendo que es cada cosa
  • 00:41:00
    Esto se conoce como aprendizaje
  • 00:41:02
    supervisado porque la Inteligencia
  • 00:41:03
    artificial ya sabe Cuáles son las
  • 00:41:05
    conclusiones que tiene que sacar o sea
  • 00:41:06
    tiene que buscar los patrones el Por qué
  • 00:41:08
    esas conclusiones son así pero por lo
  • 00:41:09
    menos ya le decimos Mira esto es esto
  • 00:41:12
    Esto es esto Esto es esto Entonces
  • 00:41:13
    cuando entrenas se centra más en
  • 00:41:15
    entender de Por qué las cosas son como
  • 00:41:16
    son este set de datos especialmente
  • 00:41:18
    hecho para gpt es bastante caro porque
  • 00:41:21
    tienes que pagar a la gente para que se
  • 00:41:22
    dedique a escribir y etiquetar pero es
  • 00:41:24
    muy valioso Porque le da datos de
  • 00:41:26
    altísima calidad al Mod Pero además de
  • 00:41:28
    eso hicieron un segundo paso un proceso
  • 00:41:30
    que se llama reinforcement learning from
  • 00:41:32
    human feedback en español aprendizaje
  • 00:41:34
    reforzado de feedback humano aquí lo que
  • 00:41:36
    hicieron fue hacer que gpt genere cuatro
  • 00:41:38
    posibles respuestas para cada pregunta
  • 00:41:40
    no y luego pusieron a un montón de gente
  • 00:41:43
    ahí a trabajar donde tenían que puntuar
  • 00:41:45
    de mejor a peor cada una de las
  • 00:41:47
    respuestas de esta forma el modelo va
  • 00:41:49
    aprendiendo Cuáles respuestas y cuáles
  • 00:41:50
    caminos son mejores o por lo menos más
  • 00:41:52
    satisfactorios para el ser humano en
  • 00:41:54
    base a todo este trabajo crearon una
  • 00:41:56
    página web donde la respuesta está
  • 00:41:58
    generada por este gpt mejorado y ultr
  • 00:42:00
    tuneado y así es como nace chat gpt por
  • 00:42:03
    todo esto chat gpt es tan bueno haciendo
  • 00:42:05
    lo que hace en pocas palabras una
  • 00:42:07
    startup de Inteligencia artificial cogió
  • 00:42:09
    los Transformers y pensó Oye qué pasaría
  • 00:42:11
    si multiplicamos por 1000 los parámetros
  • 00:42:13
    respecto a lo que está haciendo todo el
  • 00:42:15
    mundo y luego lo entrenamos con todo el
  • 00:42:16
    texto de conocimiento humano que podamos
  • 00:42:18
    tener entre manos y luego lo tuneamos aú
  • 00:42:21
    más para terminar de corregir esas cosas
  • 00:42:22
    que hace mal y luego demás le enseñamos
  • 00:42:24
    qué respuestas son buenas y cuáles son
  • 00:42:26
    malas luego lo metemos en una web y lo
  • 00:42:28
    vendemos qué pasaría Bueno pues lo que
  • 00:42:29
    pasa es chat gpt y cuánto más se puede
  • 00:42:32
    mejorar gpt si le metemos por ejemplo
  • 00:42:34
    1000 millones de parámetros O 100
  • 00:42:36
    billones de parámetros Bueno pues eso no
  • 00:42:38
    está claro o sea la tecnología de base
  • 00:42:40
    son los Transformers esta tecnología es
  • 00:42:42
    buena se puede mejorar bastante con
  • 00:42:43
    ajustes manuales guiados por el Humano
  • 00:42:46
    pero posiblemente para que podamos
  • 00:42:48
    competir con el ser humano no va a ser
  • 00:42:50
    suficiente simplemente aumentar estos
  • 00:42:51
    parámetros vamos a tener que mejorar la
  • 00:42:53
    forma en la que aprendemos y analizamos
  • 00:42:55
    los textos ya sea con más capas o con
  • 00:42:57
    otro algoritmo o con otra arquitectura
  • 00:42:59
    pero al ritmo que va esto es cuestión de
  • 00:43:01
    pocos años antes de que descubramos algo
  • 00:43:03
    mejor o quizás no a lo mejor podríamos
  • 00:43:05
    estar delante de un estancamiento no
  • 00:43:07
    todo esto lo dirá el tiempo Pero bueno
  • 00:43:09
    ya veis que con ajustes manuales se
  • 00:43:11
    puede conseguir que gpt haga maravillas
  • 00:43:14
    lo que sí te puedo decir es que entrenar
  • 00:43:16
    una Inteligencia artificial usando 75
  • 00:43:18
    miles de millones de parámetros no es
  • 00:43:19
    algo que puedas hacer en tu casa en una
  • 00:43:21
    tarde simplemente con una tarjeta
  • 00:43:23
    gráfica da igual la Gráfica que tengas
  • 00:43:25
    da igual que tengas un ordenador con
  • 00:43:26
    tres rtx 4090 o sea aún así no podrías
  • 00:43:30
    hacerlo para entrenar a gpt con tantos
  • 00:43:32
    datos y tantísimos parámetros necesitas
  • 00:43:35
    muchísimos ordenadores y mucha Potencia
  • 00:43:37
    de hecho gpt fue entrenado sobre las
  • 00:43:39
    gráficas a 100 de nvidia que son la gama
  • 00:43:41
    más alta y más potente que están pensada
  • 00:43:43
    para cálculo de Inteligencia artificial
  • 00:43:45
    pero no en una ni dos sino que en
  • 00:43:46
    datacenters gigantes de Microsoft Así es
  • 00:43:49
    Microsoft ha puesto su Cloud azure a
  • 00:43:52
    disposición de Open Ai para hacer todo
  • 00:43:54
    este entrenamiento es más Microsoft
  • 00:43:55
    Lleva años aost and por Open Ai y hace
  • 00:43:58
    muy poco ha invertido 10 miles de
  • 00:44:00
    millones de dólares en chat gpt
  • 00:44:02
    recuerdas que hace un momento te hablé
  • 00:44:03
    de github copilot y de cómo gpt entrenó
  • 00:44:06
    con github para aprender sobre
  • 00:44:07
    programación Bueno pues github es de
  • 00:44:09
    Microsoft es más ahora mismo Microsoft
  • 00:44:12
    es propietaria del 4% de Open Ai y no
  • 00:44:15
    solo eso sino que hace unas semanas
  • 00:44:16
    anunciaron algo que nos dejó a todos con
  • 00:44:18
    la boca abierta su buscador Bing Sí ese
  • 00:44:21
    que es competencia de Google que la
  • 00:44:23
    gente usa para buscar Google Chrome y
  • 00:44:25
    descargár selo Bueno pues ahora Bing una
  • 00:44:27
    pestaña que se llama chat esta pestaña
  • 00:44:29
    está en beta y lo que tiene es una
  • 00:44:31
    versión modificada de chat gpt que ahora
  • 00:44:33
    mismo puede buscar en Bing para
  • 00:44:35
    responder a temas de actualidad Claro
  • 00:44:37
    tened en cuenta una cosa como os dije
  • 00:44:38
    antes chat gpt está entrenado en base a
  • 00:44:41
    datos de internet libros y un montón de
  • 00:44:43
    cosas pero su conocimiento se para en
  • 00:44:45
    2019 O sea a partir de 2019 no sabe nada
  • 00:44:48
    porque el set de datos que se usó para
  • 00:44:49
    entrenarlo es ese lo que ha hecho Bing
  • 00:44:52
    es muy distinto lo que ha hecho Bing es
  • 00:44:53
    usar chat gbt tal como viene pero meter
  • 00:44:56
    la información extra en tiempo real de
  • 00:44:58
    búsquedas que hace en internet o sea va
  • 00:44:59
    buscando cosas en bink páginas web
  • 00:45:01
    relacionadas con lo que tú estás
  • 00:45:02
    diciendo se las mete para que chat gpt
  • 00:45:04
    las lea las procese y las resuma y luego
  • 00:45:06
    las integre dentro de su respuesta por
  • 00:45:08
    lo cual Bing chat que sería pues este
  • 00:45:10
    chat gpt con acceso a internet puede
  • 00:45:13
    contestar a cosas de actualidad y lo que
  • 00:45:14
    puede hacer la verdad es muy
  • 00:45:16
    impresionante esto ha dejado bastante
  • 00:45:18
    mal a Google que por cierto es la
  • 00:45:20
    empresa más importante del mundo de
  • 00:45:21
    Inteligencia artificial de hecho como te
  • 00:45:23
    dije antes casi todas las tecnologías
  • 00:45:25
    que están detrás de gpt fueron de
  • 00:45:26
    desarrolladas por investigadores de
  • 00:45:28
    Google y esto nos lleva a otra pregunta
  • 00:45:30
    que probablemente te estés haciendo
  • 00:45:31
    ahora mismo Por qué Google o Apple o
  • 00:45:34
    cualquiera de estas empresas grandes
  • 00:45:36
    tecnológicas no ha sacado algo como gpt
  • 00:45:38
    antes Bueno Google y otras empresas
  • 00:45:41
    tienen grandes modelos de lenguaje como
  • 00:45:43
    gpt lo que no tienen es un servicio Como
  • 00:45:46
    chat gpt vale la respuesta de Google a
  • 00:45:48
    Por qué no tienen eso y que además tiene
  • 00:45:50
    todo el sentido del mundo es que no se
  • 00:45:51
    pueden permitir el lujo de sacar algo
  • 00:45:53
    así O sea pensad que estas inteligencias
  • 00:45:55
    artificiales aprenden por su cuenta y es
  • 00:45:57
    bastante difícil controlarlo no gpt por
  • 00:45:59
    ejemplo fue entrenada con millones de
  • 00:46:01
    datos y evidentemente dentro de esos
  • 00:46:03
    datos no se ha revisado todo no se ha
  • 00:46:04
    revisado uno por uno todos los textos
  • 00:46:06
    mensajes etcétera eso significa que
  • 00:46:08
    fácilmente puede dar respuestas racistas
  • 00:46:11
    que te ayuden a cometer crímenes que
  • 00:46:12
    propongan cosas inmorales o directamente
  • 00:46:14
    ilegales esto en chat gpt ha pasado
  • 00:46:17
    desde el principio de hecho y ahora se
  • 00:46:19
    está controlando mucho o sea día a día
  • 00:46:20
    van Ajustando van bloqueando cosas
  • 00:46:22
    frases respuestas lo van cortando por
  • 00:46:24
    todos lados pero al principio era
  • 00:46:26
    bastante heavy y aún aún hoy en día
  • 00:46:27
    salen noticias sobre cosas raras que
  • 00:46:30
    contesta chat gpt y también sobre todo
  • 00:46:32
    Bing eh Bing está bastante salvaje Open
  • 00:46:34
    Ai Por otra parte es una startup ese
  • 00:46:36
    problema no es tan dramático o polémico
  • 00:46:38
    como Sería para Google al final es una
  • 00:46:39
    startup de Inteligencia artificial y
  • 00:46:41
    está para eso para innovar y para hacer
  • 00:46:43
    una tortilla pues hay que romper algunos
  • 00:46:44
    huevos no tienen realmente tantas
  • 00:46:46
    políticas internas ni tanta imagen que
  • 00:46:48
    cuidar ni tanta burocracia a la hora de
  • 00:46:50
    lanzar un producto y por eso pues muchas
  • 00:46:51
    veces vemos Que empresas muy pequeñas
  • 00:46:53
    hacen cosas que otras empresas mucho más
  • 00:46:55
    grandes y que tienen todos los recursos
  • 00:46:57
    para hacerlas pues no las hacen Pero lo
  • 00:46:59
    que sí está claro es que Microsoft se
  • 00:47:01
    está poniendo mucho las pilas y que
  • 00:47:03
    estos últimos años ha mejorado mucho su
  • 00:47:05
    Cloud ha comprado muchas empresas y ha
  • 00:47:07
    puesto mucho esfuerzo en la Inteligencia
  • 00:47:09
    artificial esta Apuesta por Open Ai es
  • 00:47:11
    una Clara señal de que van a por Google
  • 00:47:13
    y todo este tipo de empresas Apple
  • 00:47:15
    Microsoft Google tesla están invirtiendo
  • 00:47:18
    millones en este tipo de tecnologías de
  • 00:47:20
    Inteligencia artificial porque saben que
  • 00:47:22
    el futuro va por ahí todo esto suena muy
  • 00:47:24
    bien pero todavía no estamos en ese
  • 00:47:27
    punto gpt chat gpt Bing chat y todas sus
  • 00:47:30
    variantes aún están un poco lejos de
  • 00:47:32
    poder sustituir un buscador por qué
  • 00:47:34
    bueno Piénsalo de esta manera hemos
  • 00:47:36
    dicho que gpt funciona con conceptos
  • 00:47:37
    relacionados y cosas que le suenan
  • 00:47:39
    internamente que pueden estar
  • 00:47:41
    relacionadas las unas con las otras
  • 00:47:42
    bueno Pues resulta que por culpa de esto
  • 00:47:45
    la información que nos da chat gpt no
  • 00:47:47
    siempre es verdad es cierto que todos
  • 00:47:49
    los mensajes que nos escribe chat gpt
  • 00:47:50
    son verosímiles o sea se parecen a algo
  • 00:47:53
    que es verdad pero no siempre son verdad
  • 00:47:55
    son agrupaciones de cosas que cree que
  • 00:47:57
    tienen sentido que vayan juntas un
  • 00:47:59
    ejemplo es cuando le pedí que me resuma
  • 00:48:00
    un guion sobre la guerra de los chips en
  • 00:48:02
    el que llevamos meses trabajando en el
  • 00:48:04
    que mencionamos por encima en en una
  • 00:48:06
    frase creo que es la crisis de los
  • 00:48:07
    coches no de que por culpa de que no hay
  • 00:48:09
    chips pues la la industria de los coches
  • 00:48:11
    está h perjudicada y cuando me dio el
  • 00:48:14
    resumen se inventó un montón de cosas
  • 00:48:15
    por ejemplo me contó 40,000 cosas sobre
  • 00:48:17
    los coches o sea nada que ver con nada
  • 00:48:19
    de lo que yo decía en el vídeo o por
  • 00:48:20
    ejemplo le pedí que me escriba un guión
  • 00:48:22
    sobre las Team deck y empezó ahí a
  • 00:48:24
    cruzar datos a decir cosas que no son
  • 00:48:25
    ciertas y Lu hace manera porque al final
  • 00:48:27
    lo que está haciendo son consultas
  • 00:48:28
    dentro del eding o sea está mezclando
  • 00:48:30
    conceptos hay cosas que él cree que
  • 00:48:32
    están relacionadas pero que no sabe
  • 00:48:34
    exactamente si están bien relacionadas
  • 00:48:36
    no es infalible y es una gran fuente de
  • 00:48:39
    desinformación a veces Incluso te dice
  • 00:48:41
    lo que quieres oír es más te acuerdas
  • 00:48:43
    que antes Te dije que Google puso la
  • 00:48:44
    excusa de que no podía permitirse el
  • 00:48:46
    lujo de sacar una Inteligencia
  • 00:48:47
    artificial como lo hizo Open Ai bueno
  • 00:48:49
    Pues resulta que hace nada presentaron a
  • 00:48:51
    bard que es la competencia de Google a
  • 00:48:53
    chat gpt y en su primer vídeo
  • 00:48:55
    promocional ya un error dijo que el
  • 00:48:57
    telescopio James web hizo fotos de
  • 00:49:00
    exoplanetas cosa que es mentira esto
  • 00:49:03
    hizo caer en bolsa a Google un 8% que
  • 00:49:05
    básicamente son 100,000 millones de
  • 00:49:07
    dólares por lo cual como podéis ver pues
  • 00:49:10
    es bastante grave un error de es tipo
  • 00:49:11
    Ahora yo lo que creo Es que este tipo de
  • 00:49:13
    problemas no son tan fáciles de arreglar
  • 00:49:15
    eh o sea tal y como funcionan los
  • 00:49:17
    Transformers si piensas en todo lo que
  • 00:49:19
    hemos visto Este vídeo Es normal que la
  • 00:49:21
    información no sea exacta porque el
  • 00:49:22
    sistema no es exacto no es una forma
  • 00:49:24
    suficiente de guardar información
  • 00:49:26
    consultarla y recibirla sino que es eso
  • 00:49:29
    texto que parece verdad básicamente lo
  • 00:49:31
    que necesitamos ahora mismo Son un
  • 00:49:33
    montón de parches humanos que corrigen
  • 00:49:35
    cosas que cierran cosas que le impiden
  • 00:49:37
    hacer cosas tirar por ciertos caminos y
  • 00:49:39
    esto no es escalable y no es por ser
  • 00:49:40
    agua fiestas Pero puede ser que pasen
  • 00:49:42
    varios años antes de que se pueda
  • 00:49:43
    solucionar este problema en cualquier
  • 00:49:45
    caso lo que está claro es que estamos
  • 00:49:46
    delante de una guerra una guerra entre
  • 00:49:49
    tecnológicas una guerra que va a ganar
  • 00:49:51
    la primera que sea capaz de dominar el
  • 00:49:52
    juego de las inteligencias artificiales
  • 00:49:54
    sobre todo los buscadores semánticos y
  • 00:49:56
    el uso de internet ese día va a llegar
  • 00:49:59
    Qué tan lejos estamos Bueno pues el
  • 00:50:00
    tiempo nos lo dirá de momento yo te
  • 00:50:02
    animo a que pruebes chat gpt vale
  • 00:50:04
    regístrate úsalo para tu trabajo úsalo
  • 00:50:07
    para lo que quieras pero no te fíes de
  • 00:50:09
    la información porque podría estar mal y
  • 00:50:11
    con esto Me despido Espero que te haya
  • 00:50:14
    gustado este vídeo que hayas entendido
  • 00:50:16
    un poco de qué va este tema de dónde
  • 00:50:18
    sale esa información cómo puede existir
  • 00:50:19
    este tipo de Inteligencia artificial que
  • 00:50:21
    parece brujería y si te ha gustado este
  • 00:50:23
    vídeo y quieres ver más como este te
  • 00:50:24
    recomiendo que te suscribas a este canal
  • 00:50:26
    me dejes una manito para arriba y nos
  • 00:50:28
    vemos en el próximo
  • 00:50:32
    [Música]
Etiquetas
  • inteligencia artificial
  • ChatGPT
  • GPT-3
  • transformadores
  • uso del lenguaje
  • técnicas de IA
  • evolución tecnológica
  • programación
  • machine learning
  • creatividad