Introduzione Alle Reti Neurali 02: La Funzione di Costo

00:06:19
https://www.youtube.com/watch?v=BXCxQZ8HylI

摘要

TLDRIl video discute l'addestramento delle reti neurali attraverso l'utilizzo della funzione di costo, la quale confronta le previsioni della rete con i risultati desiderati, fornendo un valore che indica l'accuratezza delle stesse. Viene spiegata la funzione di costo degli errori quadratici e come questa possa essere minimizzata cambiando il valore di un parametro, b. Attraverso grafici, viene mostrato come la pendenza della curva possa guidare le modifiche a b, e viene introdotto il concetto di tasso di apprendimento, che determina l'ampiezza dei cambiamenti. La derivata della funzione di costo è necessaria per calcolare la pendenza e ottimizzare il processo di apprendimento della rete neurale.

心得

  • 🧠 Per addestrare una rete neurale, si utilizza una funzione di costo.
  • 🔍 La funzione di costo misura l'accuratezza delle previsioni rispetto ai risultati desiderati.
  • ➗ Gli errori quadratici aiutano a quantificare l'errore delle previsioni.
  • 📈 La pendenza della curva indica come modificare i parametri per migliorare le previsioni.
  • ⚖️ Un tasso di apprendimento adeguato è cruciale per un apprendimento efficace.
  • 📉 Se la pendenza è zero, abbiamo raggiunto l'ottimizzazione.
  • 📊 Grafici aiutano a visualizzare come cambiare i parametri.
  • 📏 La derivata della funzione di costo è necessaria per calcolare la pendenza.
  • ⚙️ È importante non modificare direttamente i dati per mantenere l'integrità del dataset.
  • 👉 La funzione di costo deve tendere a zero per ottenere previsioni accurate.

时间轴

  • 00:00:00 - 00:06:19

    Nel video viene spiegato come addestrare una rete neurale utilizzando la funzione di costo, che calcola quanto la previsione della rete si discosta dal risultato desiderato. La funzione di costo, definita come errore quadratico, restituisce un valore vicino a zero quando la previsione è corretta. Si utilizza l'esempio di un gatto delle sabbie e di un gatto della giungla per dimostrare il funzionamento della funzione di costo e l'importanza di modificare i pesi e i bias della rete invece dei dati. Inoltre, viene mostrato come la modifica di un parametro b, rispetto a un obiettivo prestabilito, influisce sul valore della funzione di costo, illustrando graficamente il concetto di pendenza della curva e la ricerca della soluzione ottimale attraverso il tasso di apprendimento. Infine, si introduce il concetto di derivata della funzione di costo per determinare la pendenza in un determinato punto.

思维导图

视频问答

  • Che cos'è una funzione di costo?

    La funzione di costo misura quanto vicino è il risultato predetto dalla rete neurale al risultato desiderato.

  • Cosa rappresenta un valore vicino a zero nella funzione di costo?

    Un valore vicino a zero indica che la previsione della rete neurale si avvicina all'obiettivo desiderato.

  • Cosa sono gli errori quadratici?

    Gli errori quadratici sono calcolati come la differenza tra il valore previsto e quello reale elevato al quadrato.

  • Cos'è la pendenza della curva nella funzione di costo?

    La pendenza indica la direzione in cui b deve essere modificato per minimizzare la funzione di costo.

  • Che cos'è il tasso di apprendimento?

    Il tasso di apprendimento determina l'ampiezza del salto quando si modifica il valore di b.

  • Qual è l'obiettivo dell'addestramento di una rete neurale?

    L'obiettivo è minimizzare la funzione di costo affinché le previsioni siano il più accurate possibile.

  • Come si calcola la pendenza della funzione di costo?

    La pendenza si calcola tramite la derivata della funzione di costo al punto specifico.

  • Cosa succede se il tasso di apprendimento è troppo basso?

    Il processo di apprendimento diventa molto lento e potrebbe non raggiungere l'obiettivo.

  • Cosa rappresentano gli esponenti nella funzione di costo?

    Gli esponenti nella funzione di costo indicano come il valore dell'errore influisce sul risultato finale.

查看更多视频摘要

即时访问由人工智能支持的免费 YouTube 视频摘要!
字幕
it
自动滚动:
  • 00:00:00
    nel video precedente abbiamo visto cos'è
  • 00:00:02
    una rete neurale ora cercheremo di
  • 00:00:04
    capire come si faccia ad addestrare
  • 00:00:06
    affinché non dia risultati a caso per
  • 00:00:09
    farlo ci serviremo della funzione di
  • 00:00:10
    costo che si mangia i dati e le
  • 00:00:12
    previsioni della nostra rete e ci sputa
  • 00:00:14
    fuori un numero questo numero ci dice
  • 00:00:17
    quanto la previsione della rete neurale
  • 00:00:19
    sia distante dal risultato che dovrebbe
  • 00:00:21
    darci quindi siccome sono un po tirchio
  • 00:00:24
    voglio che la funzione di costa mi
  • 00:00:26
    restituiscono numero vicino a 0
  • 00:00:28
    così che la previsione si avvicini il
  • 00:00:30
    più possibile al risultato desiderato
  • 00:00:33
    ora per cambiare l'auto di una funzione
  • 00:00:35
    bisogna cambiare gli input
  • 00:00:38
    ma che cosa possiamo modificare i dati
  • 00:00:41
    beh direi di no altrimenti avremmo un
  • 00:00:42
    dataset differente e non avrebbe senso
  • 00:00:45
    quindi se non è zuppa dovremmo
  • 00:00:47
    modificare le previsioni perché queste
  • 00:00:50
    non dipendono solo dai dati ma anche dai
  • 00:00:52
    pesi e dal buyers della rete vediamo
  • 00:00:55
    come definire questa particolare
  • 00:00:57
    funzione di costo abbiamo visto che
  • 00:00:59
    inserendo i dati del primo gatto la rete
  • 00:01:01
    neurale ci restituisce un numero 0.9
  • 00:01:04
    mentre noi vorremmo che fosse zero
  • 00:01:06
    perché abbiamo detto che rappresentiamo
  • 00:01:08
    con uno il gatto delle sabbie e con zero
  • 00:01:11
    il gatto della giungla mettiamo quindi
  • 00:01:14
    il valore reale vicino a quello previsto
  • 00:01:16
    la nostra funzione di costo prende come
  • 00:01:18
    abbiamo detto questi due numeri e ce ne
  • 00:01:20
    restituisce un terzo questo salta fuori
  • 00:01:23
    dalla differenza tra la previsione è il
  • 00:01:25
    valore obiettivo elevato al quadrato
  • 00:01:28
    quindi 0.9 meno 0.9 che al quadrato fa
  • 00:01:33
    0.81
  • 00:01:35
    questa particolare funzione di costo
  • 00:01:37
    prende il nome di errori quadratico o
  • 00:01:39
    square e roll cost function
  • 00:01:42
    e voi direte oh mio dio matematica ma
  • 00:01:44
    perché devi dare nomi così alle cose ma
  • 00:01:47
    se ci pensate ha senso questa parte ci
  • 00:01:49
    dice quanto stiamo sbagliando quanto è
  • 00:01:52
    grosso l'errore commesso
  • 00:01:54
    e questa parte ci dice che è levato
  • 00:01:56
    tutto al quadrato
  • 00:01:57
    quindi errore quadratico vediamo un
  • 00:02:01
    esempio
  • 00:02:02
    una rete neurale semplicissima definita
  • 00:02:04
    così come vedete non ha input è solo un
  • 00:02:08
    parametro b quindi qualsiasi cosa accada
  • 00:02:11
    restituirà sempre il valore b come
  • 00:02:13
    risultato allora la previsione che andrà
  • 00:02:16
    all'interno della funzione di costo sarà
  • 00:02:17
    b ora assegniamo un valore casuale ad
  • 00:02:21
    obiettivo diciamo 3 e questa sarà la
  • 00:02:25
    funzione di costo sulla quale
  • 00:02:26
    ragioneremo ora vogliamo provare a
  • 00:02:29
    minimizzarla cambiando il valore di b
  • 00:02:31
    adesso so cosa starete pensando potremo
  • 00:02:34
    dare a bill valore di 3 così tre meno 3
  • 00:02:37
    a 0 e 0 al quadrato e zero sarebbe
  • 00:02:40
    giusto ma cerchiamo di portare il valore
  • 00:02:43
    a zero e strand delle informazioni della
  • 00:02:45
    funzione di costo stessa perché con
  • 00:02:47
    esempi più complessi non sarà così ovvio
  • 00:02:49
    capire quale valore assegnare a b quindi
  • 00:02:52
    vediamo graficamente che aspetto a
  • 00:02:54
    questa funzione di costo al variare di b
  • 00:03:00
    sull'asse orizzontale ci sono i valori
  • 00:03:01
    di b e su quello verticale i valori
  • 00:03:04
    della funzione è una parabola centrata
  • 00:03:08
    nel punto in cui di è uguale a tre
  • 00:03:10
    quindi con b uguale a 3 la funzione di
  • 00:03:13
    costo è uguale a zero mentre il costo è
  • 00:03:17
    un numero positivo quando b non è uguale
  • 00:03:19
    al nostro valore obiettivo e diventa
  • 00:03:21
    sempre maggiore più ci si allontana da
  • 00:03:23
    tre ora ci sarebbe qualcosa per capire
  • 00:03:26
    come cambiare b se aumentarla o
  • 00:03:29
    diminuirla a seconda del caso
  • 00:03:31
    quelli di voi un pò più bravi in
  • 00:03:33
    matematica provino e di indovinare avete
  • 00:03:35
    10 secondi ok va bene la pendenza della
  • 00:03:39
    curva quella che è apparsa ora si chiama
  • 00:03:42
    retta tangente quando i valori di b sono
  • 00:03:45
    maggiori dell'obiettivo la retta punta
  • 00:03:47
    verso l'alto
  • 00:03:48
    quindi a tendenza positiva mentre quando
  • 00:03:51
    i valori sono minori dell'obiettivo la
  • 00:03:53
    retta punta verso il basso e ha quindi
  • 00:03:55
    pendenza negativa per finire se la retta
  • 00:03:58
    si trova sul valore obiettivo la
  • 00:04:00
    pendenza e zero abbiamo trovato la
  • 00:04:03
    soluzione del problema retta con
  • 00:04:05
    pendenza negativa dobbiamo far crescere
  • 00:04:07
    b retta con pendenza 0 siamo arrivati
  • 00:04:10
    alla soluzione retta
  • 00:04:12
    senza positiva dobbiamo far diminuire b
  • 00:04:14
    ma di quanto è del valore della pendenza
  • 00:04:18
    della retta se b si trova qui per
  • 00:04:21
    esempio sottraendo la pendenza che è
  • 00:04:23
    negativa e come se sommassimo un numero
  • 00:04:26
    positivo e quindi b aumenterà se li si
  • 00:04:29
    trova qui
  • 00:04:30
    sottraendo il valore della tendenza
  • 00:04:31
    positiva b diminuirà poco fa però
  • 00:04:35
    mentito se infatti soppressi mo il
  • 00:04:37
    valore intero della pendenza
  • 00:04:39
    succederebbe questo l'espressione che ci
  • 00:04:42
    dice dove si trovi il prossimo b è la
  • 00:04:44
    seguente il numero rosso e l'attuale
  • 00:04:47
    valore di b mentre il numero arancione
  • 00:04:49
    ci dice il valore della pendenza del
  • 00:04:52
    nostro b uguale a 1 il nostro prossimo b
  • 00:04:54
    sarà uguale a 5
  • 00:04:57
    allora spostiamo ba5 e leggiamo il
  • 00:04:59
    prossimo valore 1 direi che così non ci
  • 00:05:04
    siamo quindi vogliamo sottrarre ogni
  • 00:05:06
    volta una frazione della pendenza questa
  • 00:05:10
    fazione però non deve essere nemmeno
  • 00:05:11
    troppo piccola perché altrimenti ci
  • 00:05:13
    metterebbe una vita e andrebbe sempre
  • 00:05:15
    più lentamente senza mai raggiungere
  • 00:05:16
    l'obiettivo
  • 00:05:19
    questa frazione della pendenza si chiama
  • 00:05:21
    tasso di apprendimento laurent in great
  • 00:05:23
    ma approfondiremo più avanti questo
  • 00:05:26
    argomento ci basti capire che ci dà un
  • 00:05:28
    indicazione dell'ampiezza del salto che
  • 00:05:30
    vogliamo fare se volete giocare con il
  • 00:05:33
    grafico che ho fatto per questo video
  • 00:05:34
    cambiando un po i parametri mi lascio il
  • 00:05:36
    link in descrizione però a pensarci bene
  • 00:05:41
    non abbiamo definito ancora la funzione
  • 00:05:43
    che ci dica quanto valga la pendenza
  • 00:05:45
    della curva in un determinato punto b
  • 00:05:47
    beh questa è semplicemente la derivata
  • 00:05:49
    della funzione di costo nel punto in
  • 00:05:53
    particolare ricordando le regole delle
  • 00:05:55
    derivate di una potenza si porta all
  • 00:05:58
    esponente davanti come fattore
  • 00:05:59
    moltiplicativo e si riduce l'esponente
  • 00:06:01
    precedente di uno quindi la nostra
  • 00:06:04
    funzione pendenza nel punto b sarà la
  • 00:06:06
    seguente dove b e la nostra variabile
  • 00:06:10
    grazie per aver guardato
标签
  • rete neurale
  • funzione di costo
  • errori quadratici
  • pendenza
  • tasso di apprendimento
  • ottimizzazione
  • derivata
  • formazione
  • previsione
  • risultato