¿Qué es una Red Neuronal? Parte 2 : La Red | DotCSV

00:11:34
https://www.youtube.com/watch?v=uwbHOpp9xkc

Ringkasan

TLDREste video explora las redes neuronales, comenzando con la función básica de una neurona artificial y cómo se organiza en capas. Se explica que el aprendizaje profundo, o deep learning, requiere múltiples neuronas que se conectan en capas para formar redes capaces de resolver problemas complejos. Además, se introducen las funciones de activación, que son esenciales para incorporar no linealidades en las redes neuronales, permitiendo que estas aprendan a diferenciar patrones en los datos. A través de ejemplos visuales y matemáticos, se demuestra cómo varias neuronas pueden combinarse para desarrollar soluciones más sofisticadas, concluyendo la lección e invitando a los espectadores a la siguiente parte de la serie.

Takeaways

  • 🧠 Las redes neuronales imitan el cerebro humano.
  • 🔄 Las capas permiten jerarquizar el conocimiento.
  • 🔧 Las funciones de activación son clave para agregar no linealidad.
  • 💡 Más neuronas permiten resolver problemas complejos.
  • 📊 La función sigmoide es útil para representar probabilidades.
  • 📈 La arquitectura de la red puede variar en complejidad.
  • 🔍 La interpretación geométrica ayuda en la visualización de datos.
  • 🤖 La combinación de neuronas genera soluciones más sofisticadas.

Garis waktu

  • 00:00:00 - 00:05:00

    En la segunda parte del vídeo, se revisa lo aprendido en la primera parte sobre neuronas artificiales, centrándose en cómo una única neurona no puede separar conjuntos de datos de manera efectiva. Se plantea la solución de añadir más neuronas para permitir separaciones más complejas. A medida que se añaden neuronas, se pueden aprender conceptos jerárquicos complejos, desde lo más básico hasta lo más abstracto, culminando en la idea de aprendizaje profundo. Sin embargo, se menciona que sin activar funciones no lineales, la estructura resultante colapsaría y se comportaría como una sola neurona, lo que limita las capacidades de la red.

  • 00:05:00 - 00:11:34

    La siguiente parte destaca la función de activación, que permite que la salida de una neurona se distorsione de forma no lineal, abriendo las puertas a una mayor complejidad en el aprendizaje y la estructura de la red. Se exponen diferentes funciones de activación, como la escalonada, sigmoide, tangente hiperbólica y ReLU, cada una con sus propiedades y aplicaciones. Utilizando un ejemplo visual de una clasificación, se muestra cómo añadir neuronas y ajustar sus parámetros puede proporcionar la flexibilidad necesaria para crear fronteras de decisión complejas en el espacio de datos, resolviendo así problemas de clasificación en contextos del mundo real.

Peta Pikiran

Video Tanya Jawab

  • ¿Qué es una red neuronal?

    Es un sistema computacional que imita el funcionamiento del cerebro humano para procesar información.

  • ¿Cuáles son las capas de una red neuronal?

    Las capas incluyen la capa de entrada, capas ocultas y la capa de salida.

  • ¿Qué son las funciones de activación?

    Son funciones que introducen no linealidades en el modelo, permitiendo a las redes neuronales aprender patrones complejos.

  • ¿Por qué se necesitan múltiples neuronas?

    Porque permiten manejar y modelar información más compleja mediante la combinación de salidas de varias neuronas.

  • ¿Cuáles son algunos tipos de funciones de activación?

    Funciones comunes incluyen la escalonada, sigmoide y ReLU.

  • ¿Qué problema resuelve la función sigmoide?

    Permite representar probabilidades y añade una deformación no lineal necesaria en la red.

  • ¿Cómo se puede visualizar el funcionamiento de las redes neuronales?

    Mediante gráficos que muestran las fronteras creadas por las neuronas en la clasificación de datos.

  • ¿Cuál es el objetivo del aprendizaje profundo?

    Desarrollar modelos que pueden aprender a partir de grandes cantidades de datos y resolver tareas complejas.

Lihat lebih banyak ringkasan video

Dapatkan akses instan ke ringkasan video YouTube gratis yang didukung oleh AI!
Teks
es
Gulir Otomatis:
  • 00:00:06
    redes neuronales malena les na na na na
  • 00:00:09
    na na les parte 2 ya los celos se que ha
  • 00:00:13
    pasado mucho tiempo entre vídeos vídeos
  • 00:00:15
    como que no te acuerdas de la primera
  • 00:00:17
    parte vale me hago cargo repaso rápido a
  • 00:00:20
    ver recuerda en la primera parte nos
  • 00:00:22
    centramos en entender que era una
  • 00:00:23
    neurona artificial componente básico
  • 00:00:25
    dentro de una red neuronal vimos como
  • 00:00:27
    matemáticamente una neurona se definía
  • 00:00:29
    como una suma ponderada en sus valores
  • 00:00:31
    de entrada y como esto es equivalía al
  • 00:00:32
    modelo de regresión lineal
  • 00:00:34
    hablamos de nacho hits de realidad
  • 00:00:35
    virtual sí en serio y con esto
  • 00:00:38
    planteamos un ejemplo en el que
  • 00:00:39
    comprobamos que el uso de una neurona
  • 00:00:41
    podría modelar la información de una
  • 00:00:43
    puerta
  • 00:00:43
    andy y lo visualizamos e hicimos lo
  • 00:00:45
    mismo con una puerta ahora y con una
  • 00:00:47
    puerta son buenos con la puerta sur no
  • 00:00:49
    pudimos y es que también comprobamos que
  • 00:00:51
    con una sola neurona no se podía separar
  • 00:00:53
    linealmente a una nube de puntos
  • 00:00:55
    distribuidos de esta manera ese será
  • 00:00:57
    nuestro punto de partida en el vídeo de
  • 00:00:59
    hoy para solucionar el problema de la
  • 00:01:01
    puerta sur vimos que la solución venía
  • 00:01:03
    por duplicar a nuestras neuronas para
  • 00:01:05
    así poder tener dos separadores que de
  • 00:01:06
    forma combinada nos separaban
  • 00:01:08
    correctamente ambas clases una
  • 00:01:10
    demostración muy clara de cómo añadiendo
  • 00:01:12
    neuronas
  • 00:01:12
    podíamos empezar a modelar información
  • 00:01:15
    más compleja en el vídeo de hoy vamos a
  • 00:01:17
    desarrollar este concepto y veremos qué
  • 00:01:19
    ventajas podemos obtener de juntar cada
  • 00:01:21
    vez más y más neuronas es decir hoy nos
  • 00:01:24
    centraremos en entender la red de una
  • 00:01:26
    red neuronal
  • 00:01:28
    [Música]
  • 00:01:33
    empecemos a juntar neuronas si te lo
  • 00:01:36
    planteas hay dos formas diferentes de
  • 00:01:37
    organizar a estas neuronas de aquí una
  • 00:01:39
    manera sería colocarlas en la misma
  • 00:01:41
    columna o llamado de forma más correcta
  • 00:01:43
    en la misma capa como se puede ver dos
  • 00:01:45
    neuronas que se encuentran en la misma
  • 00:01:47
    capa recibirán la misma información de
  • 00:01:49
    entrada de la capa anterior y los
  • 00:01:50
    cálculos que realicen los pasarán a la
  • 00:01:52
    capa siguiente a la primera capa donde
  • 00:01:55
    están las variables de entrada se le
  • 00:01:56
    denomina capa de entrada y a la última
  • 00:01:58
    capa de salida a las capas intermedias
  • 00:02:01
    se le denominan capas ocultas vale de
  • 00:02:04
    momento parece sencillo pero no nos
  • 00:02:06
    quedemos sólo con eso como nos gusta
  • 00:02:08
    hacer en este canal vamos a intentar
  • 00:02:09
    entender de forma intuitiva qué es lo
  • 00:02:11
    que ocurre cuando colocamos las neuronas
  • 00:02:12
    de una manera u otra
  • 00:02:15
    como hemos dicho cuando colocamos dos
  • 00:02:16
    neuronas de forma secuencial una de
  • 00:02:19
    ellas recibe la información procesada
  • 00:02:20
    por la neurona anterior y qué ventajas
  • 00:02:23
    nos aporta esto bueno pues con esto lo
  • 00:02:25
    que conseguimos es algo muy importante
  • 00:02:27
    que la red puede aprender conocimientos
  • 00:02:30
    jerarquizado fíjate si recuerdas el
  • 00:02:33
    ejemplo de la primera parte te acordarás
  • 00:02:34
    que teníamos dos variables de entrada
  • 00:02:36
    nachos y realidad virtual y que con una
  • 00:02:39
    sola neurona conseguíamos modelar si
  • 00:02:40
    pasaríamos una noche entretenida o no es
  • 00:02:43
    decir nuestra neurona ha procesado la
  • 00:02:45
    información de entrada y el resultado de
  • 00:02:46
    salida nos aporta una información más
  • 00:02:48
    elaborada y compleja y por qué no
  • 00:02:51
    utilizar esta información para elaborar
  • 00:02:53
    algo más complejo aún a lo mejor lo que
  • 00:02:55
    queremos que aprenda nuestra red no es
  • 00:02:57
    saber si estaremos entretenidos el
  • 00:02:58
    viernes noche sino la nota que sacaremos
  • 00:03:01
    en el examen de la semana que viene a lo
  • 00:03:03
    mejor tenemos otras dos variables de
  • 00:03:05
    entrada que son motivación por la
  • 00:03:07
    asignatura y dificultad del examen
  • 00:03:08
    siendo así ésta podría ser una posible
  • 00:03:11
    arquitectura de nuestra red ahora de
  • 00:03:13
    forma jerarquizada la red neuronal
  • 00:03:15
    podría aprender conocimientos más
  • 00:03:16
    básicos las primeras capas como por
  • 00:03:18
    ejemplo que esta neurona se especializa
  • 00:03:20
    en saber si vas a estar entretenido
  • 00:03:21
    el viernes por la noche y esta otra
  • 00:03:23
    neurona que se especializa en saber cuál
  • 00:03:25
    es tu motivación de cara al examen el
  • 00:03:27
    conocimiento elaborado en esta capa será
  • 00:03:29
    procesado nuevamente por la siguiente
  • 00:03:30
    escapa elaborando cada vez conocimientos
  • 00:03:33
    más complejos abstracto e interesante
  • 00:03:35
    esta neurona de aquí podría descubrir
  • 00:03:37
    que si tu motivación de cara al examen
  • 00:03:39
    es baja y tu noche del viernes
  • 00:03:40
    posiblemente sea entretenida quizás vaya
  • 00:03:42
    a estudiar poco y desempeñar el examen
  • 00:03:44
    sea más bajo no entiendes cómo ves entre
  • 00:03:48
    más capas añadimos más complejo puede
  • 00:03:50
    ser el conocimiento que elaboremos esta
  • 00:03:52
    profundidad en la cantidad de capas es
  • 00:03:53
    lo que da nombre al aprendizaje profundo
  • 00:03:55
    el live learn in pero bueno eso que hay
  • 00:04:00
    un pero pero un pero muy importante para
  • 00:04:03
    alcanzar este aprendizaje profundo hemos
  • 00:04:05
    dicho que queremos conectar múltiples
  • 00:04:06
    neuronas de forma secuencial y si
  • 00:04:09
    recuerdo de la primera parte al final lo
  • 00:04:10
    que hace cada una de estas neuronas es
  • 00:04:12
    un problema de regresión lineal es decir
  • 00:04:14
    que lo que estamos haciendo si lo
  • 00:04:16
    planteamos matemáticamente es concatenar
  • 00:04:18
    diferentes operaciones de regresión
  • 00:04:19
    lineal el problema aquí es que
  • 00:04:21
    matemáticamente se puede comprobar que
  • 00:04:23
    el efecto de sumar muchas operaciones de
  • 00:04:25
    regresión lineal es decir sumar muchas
  • 00:04:27
    líneas rectas
  • 00:04:28
    equivale a solamente haber hecho una
  • 00:04:29
    única operación es decir da como
  • 00:04:32
    resultado otra línea recta o visto de
  • 00:04:34
    otra manera tal y como está planteada la
  • 00:04:36
    red de momento hace que toda la
  • 00:04:38
    estructura que queríamos conseguir
  • 00:04:39
    colapse hasta ser equivalente a tener
  • 00:04:42
    una única neurona para conseguir que
  • 00:04:44
    nuestra red no colapse necesitamos que
  • 00:04:46
    esta suma de aquí dé como resultado algo
  • 00:04:48
    diferente a una línea recta y para eso
  • 00:04:50
    necesitaríamos que cada una de estas
  • 00:04:52
    líneas sufra alguna manipulación no
  • 00:04:54
    lineal que las distorsiones como lo
  • 00:04:56
    conseguimos entran en escena las
  • 00:04:59
    funciones de activación la función de
  • 00:05:02
    activación es la última componente que
  • 00:05:04
    nos faltó ver en la estructura de la
  • 00:05:05
    neurona básicamente si en nuestra
  • 00:05:07
    neurona lo que hacíamos era calcular
  • 00:05:08
    cómo valor de salida una suma ponderada
  • 00:05:10
    de nuestras entradas lo que queremos
  • 00:05:12
    hacer ahora es pasar dicho valor de
  • 00:05:14
    salida por nuestra función de activación
  • 00:05:16
    lo que hará la función de activación
  • 00:05:18
    será distorsionar nuestro valor de
  • 00:05:20
    salida añadiéndole deformaciones no
  • 00:05:22
    lineales para que así podamos encadenar
  • 00:05:24
    de forma efectiva la computación de
  • 00:05:26
    varias neuronas y como son estas
  • 00:05:28
    deformaciones bueno pues depende de la
  • 00:05:30
    función de activación vamos a ver
  • 00:05:32
    algunas de ellas realmente ya en el
  • 00:05:34
    vídeo anterior habíamos visto una
  • 00:05:36
    primera función de activación cuando
  • 00:05:38
    decíamos que una vez hubiéramos obtenido
  • 00:05:39
    el resultado de la suma asignaremos 01
  • 00:05:42
    en función de si el valor era mayor o
  • 00:05:43
    menor que el umbral
  • 00:05:44
    lo que estamos haciendo era transformar
  • 00:05:46
    el valor de salida es decir estamos
  • 00:05:48
    pasando a nuestro resultado por una
  • 00:05:50
    función de activación más concretamente
  • 00:05:52
    esta función es la función escalonada
  • 00:05:54
    esta de aquí como veis lo que nos cuenta
  • 00:05:57
    esta función es que para un valor de
  • 00:05:58
    entrada mayor al umbral el output es 1 y
  • 00:06:01
    si es inferior es igual a 0
  • 00:06:04
    se llama escalonada porque el cambio de
  • 00:06:05
    valor se produce instantáneamente y no
  • 00:06:07
    de forma gradual produciendo así un
  • 00:06:10
    escalón algo que como veremos en el
  • 00:06:11
    próximo vídeo no favorece el aprendizaje
  • 00:06:13
    por tanto esta función de activación no
  • 00:06:15
    nos interesa sin embargo esta función de
  • 00:06:18
    aquí es más interesante esta es la
  • 00:06:20
    función sigmoide y como vemos la
  • 00:06:22
    distorsión que produce hace que los
  • 00:06:23
    valores muy grandes se saturan en uno y
  • 00:06:25
    los valores muy pequeños se saturan en
  • 00:06:27
    cero por tanto con esta función
  • 00:06:29
    sigmoides no sólo conseguimos añadir la
  • 00:06:30
    deformación que estamos buscando sino
  • 00:06:32
    que también nos sirve para representar
  • 00:06:34
    probabilidades que siempre vienen en el
  • 00:06:36
    rango de 0 a 1 similar a esta tenemos
  • 00:06:38
    también la función tangente hiperbólica
  • 00:06:40
    cuya forma similar a la sigmoides pero
  • 00:06:42
    cuyo rango varía de menos uno a uno y
  • 00:06:45
    finalmente otro tipo de función de
  • 00:06:46
    activación muy utilizada es la unidad
  • 00:06:48
    rectificada lineal relu para los colegas
  • 00:06:51
    que básicamente se comporta como una
  • 00:06:53
    función lineal cuando es positiva y
  • 00:06:55
    constante a cero cuando el valor de
  • 00:06:57
    entrada es negativo cada una de estas
  • 00:06:58
    funciones además de aportar la no
  • 00:07:00
    linealidad que estamos buscando también
  • 00:07:02
    ofrecen diferentes beneficios
  • 00:07:04
    dependiendo de cuando las utilicemos
  • 00:07:05
    temario que queda para otro vídeo aparte
  • 00:07:08
    al añadir estas deformaciones no
  • 00:07:10
    lineales damos por solucionado el
  • 00:07:12
    problema de poder encadenar varias
  • 00:07:13
    neuronas como no quiero que me creas
  • 00:07:15
    sino que realmente lo entiendas vamos a
  • 00:07:17
    ver un ejemplo bueno mira realmente ya
  • 00:07:20
    llevo hablando un rato así que mejor lo
  • 00:07:21
    buscas en internet y yo creo que me va a
  • 00:07:24
    echar un rato al sofá a ver qué tiene la
  • 00:07:26
    tele
  • 00:07:32
    dios
  • 00:07:34
    [Música]
  • 00:07:42
    y sigues aquí bueno quizás estés
  • 00:07:46
    comiendo algún spoiler del juego de
  • 00:07:47
    tronos estamos en el punto de este de la
  • 00:07:49
    batalla con nieve en la que están
  • 00:07:51
    rodeados
  • 00:07:53
    pero bueno luego todo al final sale bien
  • 00:07:54
    y se largan volando en águilas para
  • 00:07:56
    destruir al anillo y bueno yo que sé no
  • 00:07:58
    soy dai o script vale pero madre mía que
  • 00:08:02
    batalla es decir están completamente
  • 00:08:04
    rodeados todos estos de aquí son los
  • 00:08:06
    malos y estos de aquí son los buenos
  • 00:08:08
    usos vaya movida por cierto ahora que me
  • 00:08:11
    fijo y si quisiéramos salvarlos usando
  • 00:08:14
    una red neuronal que no me mires así no
  • 00:08:17
    te olvides que esto no deja de ser un
  • 00:08:18
    canal sobre inteligencia artificial mira
  • 00:08:20
    vamos a aplicar toda la teoría que hemos
  • 00:08:22
    visto en el vídeo para intentar separar
  • 00:08:23
    estas dos nubes de puntos quizás este
  • 00:08:26
    ejemplo te parezca muy tonto pero en la
  • 00:08:27
    realidad este mismo problema podría ser
  • 00:08:29
    el de clasificar en una imagen que
  • 00:08:31
    células son cancerígenas y cuáles no
  • 00:08:33
    como lo hacemos para que lo puedas ver
  • 00:08:36
    claro voy a intentar enseñarte a la
  • 00:08:37
    interpretación geométrica de lo que
  • 00:08:39
    ocurre en una red neuronal esto ya lo
  • 00:08:41
    empezamos a ver en el vídeo anterior
  • 00:08:42
    recuerdas esta gráfica de aquí aquí
  • 00:08:44
    podríamos ver el resultado del
  • 00:08:45
    procesamiento de una neurona operando en
  • 00:08:47
    una tarea de clasificación
  • 00:08:49
    pero antes te he dicho que aquí ya
  • 00:08:50
    estábamos haciendo uso de una función de
  • 00:08:51
    activación escalonada cuya forma es esta
  • 00:08:53
    de aquí y como podríamos ver
  • 00:08:55
    geométricamente el efecto de esta
  • 00:08:57
    función de activación en nuestra gráfica
  • 00:08:59
    donde se esconden pues fíjate bien aquí
  • 00:09:03
    está efectivamente el efecto de la
  • 00:09:06
    función de activación es el de
  • 00:09:07
    distorsionar el plano generado por la
  • 00:09:09
    neurona toda la geometría de este plano
  • 00:09:11
    distorsionado que sea superior a este
  • 00:09:13
    plano de aquí pertenecer a un grupo en
  • 00:09:15
    este caso en verde y lo que quede debajo
  • 00:09:17
    pertenecer al otro grupo en rojo y como
  • 00:09:21
    sería esta misma figura si hubiéramos
  • 00:09:22
    utilizado las otras funciones pues aquí
  • 00:09:24
    lo puedes ver cómo ves podemos encontrar
  • 00:09:26
    en la silueta del plano la forma
  • 00:09:28
    original de nuestras funciones de
  • 00:09:29
    activación
  • 00:09:32
    aún así fíjate que de momento en los
  • 00:09:34
    tres casos nuestra frontera no deja de
  • 00:09:35
    ser una línea recta
  • 00:09:37
    debido a la intersección de la figura
  • 00:09:38
    geométrica con el plano entonces si sólo
  • 00:09:41
    conseguimos una línea recta como podemos
  • 00:09:43
    encontrar una frontera curva que pueda
  • 00:09:44
    solucionar este problema esto lo vamos a
  • 00:09:46
    solucionar
  • 00:09:47
    aprovechando que gracias a las funciones
  • 00:09:48
    de activación ahora ya podemos encadenar
  • 00:09:50
    varias neuronas al mismo tiempo
  • 00:09:53
    una posible solución al problema sería
  • 00:09:55
    la siguiente vamos a colocar en la
  • 00:09:57
    primera capa oculta de nuestra red una
  • 00:09:59
    neurona con una función sigmoide como ya
  • 00:10:02
    es capaz de reconocer la función
  • 00:10:03
    sigmoide tiene esta forma de aquí y en
  • 00:10:05
    realidad su forma la podemos ir variando
  • 00:10:07
    según ajustamos los parámetros de
  • 00:10:08
    nuestra red podemos ver que cambiando
  • 00:10:10
    los parámetros podemos conseguir incluso
  • 00:10:12
    cambiar la orientación de la figura y
  • 00:10:14
    esto nos puede servir en vez de una sola
  • 00:10:17
    neurona vamos a colocar cuatro y cada
  • 00:10:19
    una de ellas con una orientación
  • 00:10:20
    diferente
  • 00:10:22
    si te fijas con una nueva neurona
  • 00:10:24
    podemos construir la combinación de
  • 00:10:26
    estas cuatro figuras geométricas de aquí
  • 00:10:27
    obteniendo como resultado una superficie
  • 00:10:29
    plana con un bulto en medio esta figura
  • 00:10:32
    es la solución a nuestro problema porque
  • 00:10:35
    como se puede ver la intersección del
  • 00:10:37
    plano con esta montaña produce la
  • 00:10:39
    frontera circular que estábamos buscando
  • 00:10:41
    nuestro problema de clasificación está
  • 00:10:43
    resuelto y jon nieve y sus amigos están
  • 00:10:45
    salvados con este ejemplo espero haberte
  • 00:10:47
    convencido de que las redes neuronales
  • 00:10:49
    son capaces de desarrollar soluciones
  • 00:10:50
    muy complejas gracias a la unión de
  • 00:10:52
    muchas y muchas neuronas si tras ver
  • 00:10:54
    este vídeo la única duda con la que te
  • 00:10:56
    quedas es porque sigo empeñado en decir
  • 00:10:57
    yo nieves en vez de iones nou entonces
  • 00:11:00
    significa que ya estás preparado para lo
  • 00:11:01
    que nos falta por ver en la tercera
  • 00:11:03
    parte de esta serie porque claro todo
  • 00:11:05
    esto que hemos visto que pueda hacer la
  • 00:11:06
    red neuronal lo tiene que aprender a
  • 00:11:08
    hacer ella por sí sola quieres saber
  • 00:11:10
    cómo te lo cuento en el próximo vídeo
  • 00:11:15
    [Música]
  • 00:11:20
    ah
  • 00:11:21
    [Música]
Tags
  • redes neuronales
  • neuronas artificiales
  • funciones de activación
  • aprendizaje profundo
  • capa de entrada
  • capa oculta
  • capa de salida
  • modelo matemático
  • clasificación de datos
  • teoría de redes neuronales