00:00:06
redes neuronales malena les na na na na
00:00:09
na na les parte 2 ya los celos se que ha
00:00:13
pasado mucho tiempo entre vídeos vídeos
00:00:15
como que no te acuerdas de la primera
00:00:17
parte vale me hago cargo repaso rápido a
00:00:20
ver recuerda en la primera parte nos
00:00:22
centramos en entender que era una
00:00:23
neurona artificial componente básico
00:00:25
dentro de una red neuronal vimos como
00:00:27
matemáticamente una neurona se definía
00:00:29
como una suma ponderada en sus valores
00:00:31
de entrada y como esto es equivalía al
00:00:32
modelo de regresión lineal
00:00:34
hablamos de nacho hits de realidad
00:00:35
virtual sí en serio y con esto
00:00:38
planteamos un ejemplo en el que
00:00:39
comprobamos que el uso de una neurona
00:00:41
podría modelar la información de una
00:00:43
puerta
00:00:43
andy y lo visualizamos e hicimos lo
00:00:45
mismo con una puerta ahora y con una
00:00:47
puerta son buenos con la puerta sur no
00:00:49
pudimos y es que también comprobamos que
00:00:51
con una sola neurona no se podía separar
00:00:53
linealmente a una nube de puntos
00:00:55
distribuidos de esta manera ese será
00:00:57
nuestro punto de partida en el vídeo de
00:00:59
hoy para solucionar el problema de la
00:01:01
puerta sur vimos que la solución venía
00:01:03
por duplicar a nuestras neuronas para
00:01:05
así poder tener dos separadores que de
00:01:06
forma combinada nos separaban
00:01:08
correctamente ambas clases una
00:01:10
demostración muy clara de cómo añadiendo
00:01:12
neuronas
00:01:12
podíamos empezar a modelar información
00:01:15
más compleja en el vídeo de hoy vamos a
00:01:17
desarrollar este concepto y veremos qué
00:01:19
ventajas podemos obtener de juntar cada
00:01:21
vez más y más neuronas es decir hoy nos
00:01:24
centraremos en entender la red de una
00:01:26
red neuronal
00:01:28
[Música]
00:01:33
empecemos a juntar neuronas si te lo
00:01:36
planteas hay dos formas diferentes de
00:01:37
organizar a estas neuronas de aquí una
00:01:39
manera sería colocarlas en la misma
00:01:41
columna o llamado de forma más correcta
00:01:43
en la misma capa como se puede ver dos
00:01:45
neuronas que se encuentran en la misma
00:01:47
capa recibirán la misma información de
00:01:49
entrada de la capa anterior y los
00:01:50
cálculos que realicen los pasarán a la
00:01:52
capa siguiente a la primera capa donde
00:01:55
están las variables de entrada se le
00:01:56
denomina capa de entrada y a la última
00:01:58
capa de salida a las capas intermedias
00:02:01
se le denominan capas ocultas vale de
00:02:04
momento parece sencillo pero no nos
00:02:06
quedemos sólo con eso como nos gusta
00:02:08
hacer en este canal vamos a intentar
00:02:09
entender de forma intuitiva qué es lo
00:02:11
que ocurre cuando colocamos las neuronas
00:02:12
de una manera u otra
00:02:15
como hemos dicho cuando colocamos dos
00:02:16
neuronas de forma secuencial una de
00:02:19
ellas recibe la información procesada
00:02:20
por la neurona anterior y qué ventajas
00:02:23
nos aporta esto bueno pues con esto lo
00:02:25
que conseguimos es algo muy importante
00:02:27
que la red puede aprender conocimientos
00:02:30
jerarquizado fíjate si recuerdas el
00:02:33
ejemplo de la primera parte te acordarás
00:02:34
que teníamos dos variables de entrada
00:02:36
nachos y realidad virtual y que con una
00:02:39
sola neurona conseguíamos modelar si
00:02:40
pasaríamos una noche entretenida o no es
00:02:43
decir nuestra neurona ha procesado la
00:02:45
información de entrada y el resultado de
00:02:46
salida nos aporta una información más
00:02:48
elaborada y compleja y por qué no
00:02:51
utilizar esta información para elaborar
00:02:53
algo más complejo aún a lo mejor lo que
00:02:55
queremos que aprenda nuestra red no es
00:02:57
saber si estaremos entretenidos el
00:02:58
viernes noche sino la nota que sacaremos
00:03:01
en el examen de la semana que viene a lo
00:03:03
mejor tenemos otras dos variables de
00:03:05
entrada que son motivación por la
00:03:07
asignatura y dificultad del examen
00:03:08
siendo así ésta podría ser una posible
00:03:11
arquitectura de nuestra red ahora de
00:03:13
forma jerarquizada la red neuronal
00:03:15
podría aprender conocimientos más
00:03:16
básicos las primeras capas como por
00:03:18
ejemplo que esta neurona se especializa
00:03:20
en saber si vas a estar entretenido
00:03:21
el viernes por la noche y esta otra
00:03:23
neurona que se especializa en saber cuál
00:03:25
es tu motivación de cara al examen el
00:03:27
conocimiento elaborado en esta capa será
00:03:29
procesado nuevamente por la siguiente
00:03:30
escapa elaborando cada vez conocimientos
00:03:33
más complejos abstracto e interesante
00:03:35
esta neurona de aquí podría descubrir
00:03:37
que si tu motivación de cara al examen
00:03:39
es baja y tu noche del viernes
00:03:40
posiblemente sea entretenida quizás vaya
00:03:42
a estudiar poco y desempeñar el examen
00:03:44
sea más bajo no entiendes cómo ves entre
00:03:48
más capas añadimos más complejo puede
00:03:50
ser el conocimiento que elaboremos esta
00:03:52
profundidad en la cantidad de capas es
00:03:53
lo que da nombre al aprendizaje profundo
00:03:55
el live learn in pero bueno eso que hay
00:04:00
un pero pero un pero muy importante para
00:04:03
alcanzar este aprendizaje profundo hemos
00:04:05
dicho que queremos conectar múltiples
00:04:06
neuronas de forma secuencial y si
00:04:09
recuerdo de la primera parte al final lo
00:04:10
que hace cada una de estas neuronas es
00:04:12
un problema de regresión lineal es decir
00:04:14
que lo que estamos haciendo si lo
00:04:16
planteamos matemáticamente es concatenar
00:04:18
diferentes operaciones de regresión
00:04:19
lineal el problema aquí es que
00:04:21
matemáticamente se puede comprobar que
00:04:23
el efecto de sumar muchas operaciones de
00:04:25
regresión lineal es decir sumar muchas
00:04:27
líneas rectas
00:04:28
equivale a solamente haber hecho una
00:04:29
única operación es decir da como
00:04:32
resultado otra línea recta o visto de
00:04:34
otra manera tal y como está planteada la
00:04:36
red de momento hace que toda la
00:04:38
estructura que queríamos conseguir
00:04:39
colapse hasta ser equivalente a tener
00:04:42
una única neurona para conseguir que
00:04:44
nuestra red no colapse necesitamos que
00:04:46
esta suma de aquí dé como resultado algo
00:04:48
diferente a una línea recta y para eso
00:04:50
necesitaríamos que cada una de estas
00:04:52
líneas sufra alguna manipulación no
00:04:54
lineal que las distorsiones como lo
00:04:56
conseguimos entran en escena las
00:04:59
funciones de activación la función de
00:05:02
activación es la última componente que
00:05:04
nos faltó ver en la estructura de la
00:05:05
neurona básicamente si en nuestra
00:05:07
neurona lo que hacíamos era calcular
00:05:08
cómo valor de salida una suma ponderada
00:05:10
de nuestras entradas lo que queremos
00:05:12
hacer ahora es pasar dicho valor de
00:05:14
salida por nuestra función de activación
00:05:16
lo que hará la función de activación
00:05:18
será distorsionar nuestro valor de
00:05:20
salida añadiéndole deformaciones no
00:05:22
lineales para que así podamos encadenar
00:05:24
de forma efectiva la computación de
00:05:26
varias neuronas y como son estas
00:05:28
deformaciones bueno pues depende de la
00:05:30
función de activación vamos a ver
00:05:32
algunas de ellas realmente ya en el
00:05:34
vídeo anterior habíamos visto una
00:05:36
primera función de activación cuando
00:05:38
decíamos que una vez hubiéramos obtenido
00:05:39
el resultado de la suma asignaremos 01
00:05:42
en función de si el valor era mayor o
00:05:43
menor que el umbral
00:05:44
lo que estamos haciendo era transformar
00:05:46
el valor de salida es decir estamos
00:05:48
pasando a nuestro resultado por una
00:05:50
función de activación más concretamente
00:05:52
esta función es la función escalonada
00:05:54
esta de aquí como veis lo que nos cuenta
00:05:57
esta función es que para un valor de
00:05:58
entrada mayor al umbral el output es 1 y
00:06:01
si es inferior es igual a 0
00:06:04
se llama escalonada porque el cambio de
00:06:05
valor se produce instantáneamente y no
00:06:07
de forma gradual produciendo así un
00:06:10
escalón algo que como veremos en el
00:06:11
próximo vídeo no favorece el aprendizaje
00:06:13
por tanto esta función de activación no
00:06:15
nos interesa sin embargo esta función de
00:06:18
aquí es más interesante esta es la
00:06:20
función sigmoide y como vemos la
00:06:22
distorsión que produce hace que los
00:06:23
valores muy grandes se saturan en uno y
00:06:25
los valores muy pequeños se saturan en
00:06:27
cero por tanto con esta función
00:06:29
sigmoides no sólo conseguimos añadir la
00:06:30
deformación que estamos buscando sino
00:06:32
que también nos sirve para representar
00:06:34
probabilidades que siempre vienen en el
00:06:36
rango de 0 a 1 similar a esta tenemos
00:06:38
también la función tangente hiperbólica
00:06:40
cuya forma similar a la sigmoides pero
00:06:42
cuyo rango varía de menos uno a uno y
00:06:45
finalmente otro tipo de función de
00:06:46
activación muy utilizada es la unidad
00:06:48
rectificada lineal relu para los colegas
00:06:51
que básicamente se comporta como una
00:06:53
función lineal cuando es positiva y
00:06:55
constante a cero cuando el valor de
00:06:57
entrada es negativo cada una de estas
00:06:58
funciones además de aportar la no
00:07:00
linealidad que estamos buscando también
00:07:02
ofrecen diferentes beneficios
00:07:04
dependiendo de cuando las utilicemos
00:07:05
temario que queda para otro vídeo aparte
00:07:08
al añadir estas deformaciones no
00:07:10
lineales damos por solucionado el
00:07:12
problema de poder encadenar varias
00:07:13
neuronas como no quiero que me creas
00:07:15
sino que realmente lo entiendas vamos a
00:07:17
ver un ejemplo bueno mira realmente ya
00:07:20
llevo hablando un rato así que mejor lo
00:07:21
buscas en internet y yo creo que me va a
00:07:24
echar un rato al sofá a ver qué tiene la
00:07:26
tele
00:07:32
dios
00:07:34
[Música]
00:07:42
y sigues aquí bueno quizás estés
00:07:46
comiendo algún spoiler del juego de
00:07:47
tronos estamos en el punto de este de la
00:07:49
batalla con nieve en la que están
00:07:51
rodeados
00:07:53
pero bueno luego todo al final sale bien
00:07:54
y se largan volando en águilas para
00:07:56
destruir al anillo y bueno yo que sé no
00:07:58
soy dai o script vale pero madre mía que
00:08:02
batalla es decir están completamente
00:08:04
rodeados todos estos de aquí son los
00:08:06
malos y estos de aquí son los buenos
00:08:08
usos vaya movida por cierto ahora que me
00:08:11
fijo y si quisiéramos salvarlos usando
00:08:14
una red neuronal que no me mires así no
00:08:17
te olvides que esto no deja de ser un
00:08:18
canal sobre inteligencia artificial mira
00:08:20
vamos a aplicar toda la teoría que hemos
00:08:22
visto en el vídeo para intentar separar
00:08:23
estas dos nubes de puntos quizás este
00:08:26
ejemplo te parezca muy tonto pero en la
00:08:27
realidad este mismo problema podría ser
00:08:29
el de clasificar en una imagen que
00:08:31
células son cancerígenas y cuáles no
00:08:33
como lo hacemos para que lo puedas ver
00:08:36
claro voy a intentar enseñarte a la
00:08:37
interpretación geométrica de lo que
00:08:39
ocurre en una red neuronal esto ya lo
00:08:41
empezamos a ver en el vídeo anterior
00:08:42
recuerdas esta gráfica de aquí aquí
00:08:44
podríamos ver el resultado del
00:08:45
procesamiento de una neurona operando en
00:08:47
una tarea de clasificación
00:08:49
pero antes te he dicho que aquí ya
00:08:50
estábamos haciendo uso de una función de
00:08:51
activación escalonada cuya forma es esta
00:08:53
de aquí y como podríamos ver
00:08:55
geométricamente el efecto de esta
00:08:57
función de activación en nuestra gráfica
00:08:59
donde se esconden pues fíjate bien aquí
00:09:03
está efectivamente el efecto de la
00:09:06
función de activación es el de
00:09:07
distorsionar el plano generado por la
00:09:09
neurona toda la geometría de este plano
00:09:11
distorsionado que sea superior a este
00:09:13
plano de aquí pertenecer a un grupo en
00:09:15
este caso en verde y lo que quede debajo
00:09:17
pertenecer al otro grupo en rojo y como
00:09:21
sería esta misma figura si hubiéramos
00:09:22
utilizado las otras funciones pues aquí
00:09:24
lo puedes ver cómo ves podemos encontrar
00:09:26
en la silueta del plano la forma
00:09:28
original de nuestras funciones de
00:09:29
activación
00:09:32
aún así fíjate que de momento en los
00:09:34
tres casos nuestra frontera no deja de
00:09:35
ser una línea recta
00:09:37
debido a la intersección de la figura
00:09:38
geométrica con el plano entonces si sólo
00:09:41
conseguimos una línea recta como podemos
00:09:43
encontrar una frontera curva que pueda
00:09:44
solucionar este problema esto lo vamos a
00:09:46
solucionar
00:09:47
aprovechando que gracias a las funciones
00:09:48
de activación ahora ya podemos encadenar
00:09:50
varias neuronas al mismo tiempo
00:09:53
una posible solución al problema sería
00:09:55
la siguiente vamos a colocar en la
00:09:57
primera capa oculta de nuestra red una
00:09:59
neurona con una función sigmoide como ya
00:10:02
es capaz de reconocer la función
00:10:03
sigmoide tiene esta forma de aquí y en
00:10:05
realidad su forma la podemos ir variando
00:10:07
según ajustamos los parámetros de
00:10:08
nuestra red podemos ver que cambiando
00:10:10
los parámetros podemos conseguir incluso
00:10:12
cambiar la orientación de la figura y
00:10:14
esto nos puede servir en vez de una sola
00:10:17
neurona vamos a colocar cuatro y cada
00:10:19
una de ellas con una orientación
00:10:20
diferente
00:10:22
si te fijas con una nueva neurona
00:10:24
podemos construir la combinación de
00:10:26
estas cuatro figuras geométricas de aquí
00:10:27
obteniendo como resultado una superficie
00:10:29
plana con un bulto en medio esta figura
00:10:32
es la solución a nuestro problema porque
00:10:35
como se puede ver la intersección del
00:10:37
plano con esta montaña produce la
00:10:39
frontera circular que estábamos buscando
00:10:41
nuestro problema de clasificación está
00:10:43
resuelto y jon nieve y sus amigos están
00:10:45
salvados con este ejemplo espero haberte
00:10:47
convencido de que las redes neuronales
00:10:49
son capaces de desarrollar soluciones
00:10:50
muy complejas gracias a la unión de
00:10:52
muchas y muchas neuronas si tras ver
00:10:54
este vídeo la única duda con la que te
00:10:56
quedas es porque sigo empeñado en decir
00:10:57
yo nieves en vez de iones nou entonces
00:11:00
significa que ya estás preparado para lo
00:11:01
que nos falta por ver en la tercera
00:11:03
parte de esta serie porque claro todo
00:11:05
esto que hemos visto que pueda hacer la
00:11:06
red neuronal lo tiene que aprender a
00:11:08
hacer ella por sí sola quieres saber
00:11:10
cómo te lo cuento en el próximo vídeo
00:11:15
[Música]
00:11:20
ah
00:11:21
[Música]