Week 11 - Deep Learning

00:57:14
https://www.youtube.com/watch?v=kqJCeV0rYr8

الملخص

TLDRBu kuliahda Deep Learning, Machine Learningning ilgariqi usullari bilen solishtirilip, murakkab ma'lumotlarni qayta ishlash uchun ko'p qatlamli neyron tarmoqlari ishlatilishi ta'kidlangan. Deep Learning, katta hajmdagi ma'lumotlar bilan ishlashda samarali bo'lib, tasvirni tanish va tabiiy tilni qayta ishlash kabi ko'plab amaliyotlarda qo'llaniladi. Shuningdek, ma'lumotlar ko'pligi va kuchli infratuzilma zarurligi, shuningdek, Deep Learning tarixiy rivojlanishi va mashhur modellar, masalan, CNN va GAN haqida ma'lumot berilgan.

الوجبات الجاهزة

  • 🧠 Deep Learning - murakkab ma'lumotlarni qayta ishlash uchun ko'p qatlamli neyron tarmoqlari.
  • 📊 Data ko'pligi - Deep Learning uchun muhim.
  • 🖼️ CNN - tasvirni tanish uchun ishlatiladi.
  • 🎨 GAN - yangi ma'lumotlarni yaratish uchun ishlatiladi.
  • 🔄 Transfer Learning - oldindan o'qitilgan modellarni qayta ishlatish.
  • 📈 Deep Learning - ko'plab amaliyotlarda qo'llaniladi.
  • 💻 Kuchli infratuzilma zarur.
  • 📚 Tarixiy rivojlanish - Deep Learningning rivojlanishi haqida ma'lumot.
  • 🔍 Backpropagation - neyron tarmoqlarda og'irliklarni yangilash usuli.
  • 🌐 AI - sun'iy intellektning asosiy qismi.

الجدول الزمني

  • 00:00:00 - 00:05:00

    بۇ دەرسنىڭ باشلىنىشىدا، بىز چوڭ سانلىق مەلۇمات ۋە سانلىق مەلۇمات تەتقىقاتىغا كىرىشتىك، بۈگۈنكى دەرسنىڭ مەزمۇنى 11-ھەپتىگە ئائىت بولۇپ، بىز 'تېخنىكىلىق ئۆگىنىش' (Deep Learning) توغرىسىدا سۆزلەيمىز. بىز ئالدىنقى ھەپتىدە قۇرۇلما بولمىغان سانلىق مەلۇماتلار توغرىسىدا سۆزلەپ ئۆتتۇق، بۈگۈن بىز تېخنىكىلىق ئۆگىنىشنىڭ قانداق تەرەققىي قىلغانلىقىغا ۋە ئۇنىڭ ماشىنا ئۆگىنىش بىلەن بولغان ئالاقىسىغا توختىلىمىز.

  • 00:05:00 - 00:10:00

    تېخنىكىلىق ئۆگىنىش، ماشىنا ئۆگىنىشنىڭ بىرى بولغان، بىز بۇرۇنقى ھەپتىلەردە ئۆگىنىش، سىناش، ۋە مودېلنىڭ توغرا بولۇشنى ئۆلچەش توغرىسىدا سۆزلەپ ئۆتتۇق. تېخنىكىلىق ئۆگىنىش، ماشىنا ئۆگىنىشنىڭ يېڭى بىر تۈرى بولۇپ، ئۇنىڭدا بىز سانلىق مەلۇماتلارنى قانداق قۇرۇلما قىلىش ۋە قانداق قۇرۇلما بويىچە ئۆگىنىشنى ئۆگىنىمىز.

  • 00:10:00 - 00:15:00

    بۇ دەرسنىڭ مەزمۇنىدا، بىز تېخنىكىلىق ئۆگىنىشنىڭ تەسىرچانلىقى، ئۇنىڭ ماشىنا ئۆگىنىش بىلەن بولغان پەرقلىرى، ۋە ئۇنىڭ قانداق ئىشلىتىلىشى توغرىسىدا سۆزلەيمىز. بىز تېخنىكىلىق ئۆگىنىشنىڭ قانداق قۇرۇلما قىلىش، قانداق قۇرۇلما بويىچە ئۆگىنىش، ۋە قانداق قۇرۇلما بويىچە سىناش توغرىسىدا سۆزلەيمىز.

  • 00:15:00 - 00:20:00

    تېخنىكىلىق ئۆگىنىش، بىزنىڭ سانلىق مەلۇماتلارنى قانداق قۇرۇلما قىلىش ۋە قانداق قۇرۇلما بويىچە ئۆگىنىشنى ئۆگىنىمىز. بىز بۇرۇنقى ھەپتىلەردە ماشىنا ئۆگىنىشنىڭ قانداق قۇرۇلما قىلىش، قانداق قۇرۇلما بويىچە سىناش، ۋە قانداق قۇرۇلما بويىچە توغرا بولۇشنى ئۆلچەش توغرىسىدا سۆزلەپ ئۆتتۇق.

  • 00:20:00 - 00:25:00

    تېخنىكىلىق ئۆگىنىش، بىزنىڭ سانلىق مەلۇماتلارنى قانداق قۇرۇلما قىلىش ۋە قانداق قۇرۇلما بويىچە سىناش توغرىسىدا سۆزلەيمىز. بىز بۇرۇنقى ھەپتىلەردە ماشىنا ئۆگىنىشنىڭ قانداق قۇرۇلما قىلىش، قانداق قۇرۇلما بويىچە سىناش، ۋە قانداق قۇرۇلما بويىچە توغرا بولۇشنى ئۆلچەش توغرىسىدا سۆزلەپ ئۆتتۇق.

  • 00:25:00 - 00:30:00

    تېخنىكىلىق ئۆگىنىش، بىزنىڭ سانلىق مەلۇماتلارنى قانداق قۇرۇلما قىلىش ۋە قانداق قۇرۇلما بويىچە سىناش توغرىسىدا سۆزلەيمىز. بىز بۇرۇنقى ھەپتىلەردە ماشىنا ئۆگىنىشنىڭ قانداق قۇرۇلما قىلىش، قانداق قۇرۇلما بويىچە سىناش، ۋە قانداق قۇرۇلما بويىچە توغرا بولۇشنى ئۆلچەش توغرىسىدا سۆزلەپ ئۆتتۇق.

  • 00:30:00 - 00:35:00

    تېخنىكىلىق ئۆگىنىش، بىزنىڭ سانلىق مەلۇماتلارنى قانداق قۇرۇلما قىلىش ۋە قانداق قۇرۇلما بويىچە سىناش توغرىسىدا سۆزلەيمىز. بىز بۇرۇنقى ھەپتىلەردە ماشىنا ئۆگىنىشنىڭ قانداق قۇرۇلما قىلىش، قانداق قۇرۇلما بويىچە سىناش، ۋە قانداق قۇرۇلما بويىچە توغرا بولۇشنى ئۆلچەش توغرىسىدا سۆزلەپ ئۆتتۇق.

  • 00:35:00 - 00:40:00

    تېخنىكىلىق ئۆگىنىش، بىزنىڭ سانلىق مەلۇماتلارنى قانداق قۇرۇلما قىلىش ۋە قانداق قۇرۇلما بويىچە سىناش توغرىسىدا سۆزلەيمىز. بىز بۇرۇنقى ھەپتىلەردە ماشىنا ئۆگىنىشنىڭ قانداق قۇرۇلما قىلىش، قانداق قۇرۇلما بويىچە سىناش، ۋە قانداق قۇرۇلما بويىچە توغرا بولۇشنى ئۆلچەش توغرىسىدا سۆزلەپ ئۆتتۇق.

  • 00:40:00 - 00:45:00

    تېخنىكىلىق ئۆگىنىش، بىزنىڭ سانلىق مەلۇماتلارنى قانداق قۇرۇلما قىلىش ۋە قانداق قۇرۇلما بويىچە سىناش توغرىسىدا سۆزلەيمىز. بىز بۇرۇنقى ھەپتىلەردە ماشىنا ئۆگىنىشنىڭ قانداق قۇرۇلما قىلىش، قانداق قۇرۇلما بويىچە سىناش، ۋە قانداق قۇرۇلما بويىچە توغرا بولۇشنى ئۆلچەش توغرىسىدا سۆزلەپ ئۆتتۇق.

  • 00:45:00 - 00:57:14

    تېخنىكىلىق ئۆگىنىش، بىزنىڭ سانلىق مەلۇماتلارنى قانداق قۇرۇلما قىلىش ۋە قانداق قۇرۇلما بويىچە سىناش توغرىسىدا سۆزلەيمىز. بىز بۇرۇنقى ھەپتىلەردە ماشىنا ئۆگىنىشنىڭ قانداق قۇرۇلما قىلىش، قانداق قۇرۇلما بويىچە سىناش، ۋە قانداق قۇرۇلما بويىچە توغرا بولۇشنى ئۆلچەش توغرىسىدا سۆزلەپ ئۆتتۇق.

اعرض المزيد

الخريطة الذهنية

فيديو أسئلة وأجوبة

  • Apa itu Deep Learning?

    Deep Learning adalah metode lanjutan dari Machine Learning yang menggunakan jaringan saraf dengan banyak lapisan untuk memproses data yang kompleks.

  • Apa perbedaan antara Deep Learning dan Machine Learning klasik?

    Deep Learning menggunakan struktur jaringan saraf yang lebih dalam dan kompleks, sedangkan Machine Learning klasik biasanya menggunakan algoritma yang lebih sederhana.

  • Apa saja aplikasi Deep Learning?

    Aplikasi Deep Learning termasuk pengenalan gambar, pemrosesan bahasa alami, dan pengenalan suara.

  • Mengapa data yang banyak penting untuk Deep Learning?

    Data yang banyak diperlukan untuk melatih model Deep Learning agar dapat menangkap pola yang kompleks dan meningkatkan akurasi.

  • Apa itu CNN?

    CNN (Convolutional Neural Network) adalah jenis jaringan saraf yang digunakan untuk pengolahan citra.

  • Apa itu GAN?

    GAN (Generative Adversarial Network) adalah model yang digunakan untuk menghasilkan data baru yang mirip dengan data asli.

  • Apa itu Transfer Learning?

    Transfer Learning adalah teknik di mana model yang sudah dilatih untuk satu masalah dapat digunakan kembali untuk masalah lain.

  • Apa saja tantangan dalam Deep Learning?

    Tantangan dalam Deep Learning termasuk kebutuhan akan data besar, infrastruktur yang kuat, dan risiko overfitting.

  • Siapa yang berkontribusi besar dalam pengembangan Deep Learning?

    Beberapa peneliti kunci dalam pengembangan Deep Learning adalah Yoshua Bengio, Geoffrey Hinton, dan Yann LeCun.

  • Apa itu backpropagation?

    Backpropagation adalah metode untuk mengupdate bobot dalam jaringan saraf dengan cara menghitung gradien dari fungsi loss.

عرض المزيد من ملخصات الفيديو

احصل على وصول فوري إلى ملخصات فيديو YouTube المجانية المدعومة بالذكاء الاصطناعي!
الترجمات
id
التمرير التلقائي:
  • 00:00:00
    Oke Baik Eh ketemu lagi di materi kuliah
  • 00:00:05
    big data and data analytic kali ini kita
  • 00:00:08
    akan masuk ke materi Minggu ke-11 yaitu
  • 00:00:11
    mengenai materi ee yang sangat populer
  • 00:00:15
    akhir-akhir ini yaitu Deep learning Ya
  • 00:00:18
    saya share screen dulu
  • 00:00:23
    oke
  • 00:00:24
    Em
  • 00:00:26
    Oke baik jadi em ee setelah Minggu
  • 00:00:31
    sebelumnya kita bicara mengenai eh data
  • 00:00:34
    tidak terstruktur kali ini kita fokus ke
  • 00:00:36
    area di mana Eh yang menjadi eh tren
  • 00:00:40
    akhir-akhir ini yaitu Deep learning Deep
  • 00:00:42
    learning eh adalah implementasi yang
  • 00:00:45
    lebih Advance dari
  • 00:00:47
    eh machine learning Ya kita sudah
  • 00:00:50
    belajar di beberapa minggu sebelumnya
  • 00:00:52
    mengenai machine learning eh apa namanya
  • 00:00:55
    eh eh ada training data ada testing data
  • 00:00:59
    ada validasi kemudian ada pengukuran
  • 00:01:02
    ee kevalidan model ya Eh akurasi dan
  • 00:01:05
    lain sebagainya ya Deep learning ini
  • 00:01:08
    adalah metodologi yang di
  • 00:01:10
    eh baru digali beberapa akhir Tun
  • 00:01:13
    beberapa tahun terakhir ini
  • 00:01:15
    ya saya akan teruskan jadi
  • 00:01:19
    eh Sebagai tambahan jadi ini
  • 00:01:22
    mengingatkan kembali ini adalah mata
  • 00:01:23
    kuliah untuk mahasiswa eh fakultas
  • 00:01:26
    ekonomi dan bisnis di Prodi eh manajemen
  • 00:01:30
    bisnis telekomunikasi dan Informatika eh
  • 00:01:32
    Telkom University kita sekarang ada di
  • 00:01:35
    minggu ke-11 ya Eh jadi kita sudah
  • 00:01:37
    melalui rangkaian yang panjang mengenai
  • 00:01:39
    big data and data analytic
  • 00:01:41
    eh menggunakan proses penemuan pola
  • 00:01:44
    dengan eh pendekatan eh eh konvensional
  • 00:01:48
    sampai akhirnya kita sekarang Eh menuju
  • 00:01:51
    ke pendekatan yang lebih eh Advance atau
  • 00:01:53
    modern yang berkaitan dengan eh Deep
  • 00:01:55
    learning Ya kemudian eh saya lanjutkan
  • 00:02:00
    eh outline dari mata kuliah kita adalah
  • 00:02:02
    yang pertama definisi Deep learning dan
  • 00:02:05
    motivasi Kenapa Deep learning itu muncul
  • 00:02:07
    ya kemudian
  • 00:02:08
    eh apa komparasinya dengan machine
  • 00:02:11
    learning artinya machine learning yang
  • 00:02:13
    klasik ya karena Deep learning sendiri
  • 00:02:15
    itu adalah salah satu metodologi di
  • 00:02:16
    machine learning yang yang yang saat ini
  • 00:02:19
    atau disebut juga machine learning
  • 00:02:20
    modern ya Kemudian beberapa case Dar
  • 00:02:23
    learning dan bagaimana Deep learning ini
  • 00:02:25
    Eh pada akhirnya mendorong eh ASI lebih
  • 00:02:30
    luas dari eh pembelajaran mesin atau
  • 00:02:33
    machine learning yang kita sebut sebagai
  • 00:02:35
    eh fondasi dari eh artificial
  • 00:02:38
    intelligence atau kecerdasan
  • 00:02:40
    artifisial Kemudian beberapa history ya
  • 00:02:43
    perjalanan sejarah dari Deep learning
  • 00:02:46
    dan karakteristiknya kemudian eh kita
  • 00:02:49
    ambil contoh e penggunaan deep learning
  • 00:02:51
    di Image Processing atau eh metode yang
  • 00:02:54
    sangat terkenal yang disebut CNN atau
  • 00:02:57
    convoluional neural networ sebenarnya
  • 00:02:59
    pada minggu sebelumnya kita juga sudah
  • 00:03:00
    bicara mengenai eh eh beberapa model
  • 00:03:03
    Deep learning di teks analiti yaitu
  • 00:03:07
    ingat lagi gpt3 ya Ada Bird ya Itu
  • 00:03:10
    adalah eh pendekatan-pendekatan
  • 00:03:13
    menggunakan De learning di teks eh
  • 00:03:15
    analytic atau Tex mining ya di
  • 00:03:18
    sebelumnya kita juga di t eh t analtic
  • 00:03:21
    pada umumnya kita menggunakan apa
  • 00:03:23
    namanya menggunakan eh machine learning
  • 00:03:26
    atau eh apa namanya domain knowledge
  • 00:03:28
    seperti ontologi Ya tapi akhir-akhir ini
  • 00:03:31
    hampir semuanya ee karena tipikal atau
  • 00:03:35
    jenis problemnya sangat kompleks
  • 00:03:36
    sehingga lebih akurat diselesaikan
  • 00:03:38
    dengan eh model-model yang seperti eh
  • 00:03:41
    gbt eh ataupun Bird ya oke nah Ini
  • 00:03:47
    gambaran sedikit mengenai eh Deep
  • 00:03:49
    learning ya Eh kalau kita lihat
  • 00:03:53
    eh eh algoritma machine learning eh yang
  • 00:03:57
    berbasis pada eh pembelajaran dari
  • 00:04:00
    dengan level yang bertingkat Jadi bukan
  • 00:04:02
    hanya satu level terus selesai jadi
  • 00:04:05
    pembahasan mengenai variabel yang
  • 00:04:08
    membentuk suatu e Keputusan itu ada eh
  • 00:04:12
    beberapa level jadi ini ingat pada saat
  • 00:04:14
    kita belajar mengenai artificial neural
  • 00:04:16
    Network di mana kita punya hidden layer
  • 00:04:19
    nah layer ini yang kita sebut sebagai
  • 00:04:20
    level Ya ada satu hidden layer ada dua
  • 00:04:23
    hidden layer waktu itu e mungkin ee
  • 00:04:25
    rekan-rekan masih ingat bahwa itu ee ee
  • 00:04:28
    apa ee eh mempengaruhi keakurasi eh
  • 00:04:31
    keakuratan dari model ya Nah tujuannya
  • 00:04:34
    itu untuk merepresentasi mengabstraksi
  • 00:04:36
    kekompleksan dari suatu masalah beberapa
  • 00:04:38
    masalah itu eh sangat kompleks sehingga
  • 00:04:41
    kita memisahkan atau classifier
  • 00:04:44
    memisahkan antar satu fitur dengan fitur
  • 00:04:46
    atau anara variabel satu dengan yang
  • 00:04:48
    lain itu tidak mudah terjadi ya Sehingga
  • 00:04:51
    perlu ee pembelajaran lebih dalam
  • 00:04:53
    makanya kita sebut sebagai Deep learning
  • 00:04:55
    atau multiple level ya Eh learning
  • 00:04:58
    algoritthm eh eh artinya
  • 00:05:02
    mengambilive the meaning out of data by
  • 00:05:04
    using hierar dari multiple layer jadi e
  • 00:05:08
    pembagian tadi itu diambil secara
  • 00:05:10
    hierarki di eh layer yang lebih dalam
  • 00:05:13
    atau sebut multiple layer atau eh hidden
  • 00:05:16
    layer ya atau layer yang bersama-sama
  • 00:05:19
    yang banyak tadi ya setiap eh neuron ya
  • 00:05:24
    kumpulan neuron ya kemudian itu
  • 00:05:27
    dijumlahkan ya dari input kemudian
  • 00:05:30
    eh akumulasi atau penjumlahan dari eh
  • 00:05:34
    neuron-neuron itu akan diteruskan dengan
  • 00:05:37
    menggunakan suatu fungsi nonlineier ya
  • 00:05:39
    kita ingat ke activation function yang
  • 00:05:41
    di Ann ya dan setiap eh layer itu
  • 00:05:44
    mentransformasikan input menjadi eh
  • 00:05:47
    abstraksi dari problem sebelumnya ya
  • 00:05:50
    Jadi kalau kita ingat lagi di di apa
  • 00:05:53
    namanya di eh Ann kita punya banyak
  • 00:05:56
    sekali input kemudian inputnya itu kita
  • 00:05:58
    rubah-rubah weight-nya ya kemudian kita
  • 00:06:01
    masukkan kalau dalam satu layer Nah dari
  • 00:06:03
    layer itu biasanya langsung output tapi
  • 00:06:05
    dari satu layer bisa lagi dikalikan
  • 00:06:08
    dimasukkan ke layer yang lain dan
  • 00:06:10
    seterusnya itu yang kita sebut sebagai
  • 00:06:11
    diepnya ya nah eh kalau di mesin
  • 00:06:15
    learning cllasic Ya learning itu artinya
  • 00:06:18
    mencari
  • 00:06:19
    eh apa namanya mencari
  • 00:06:21
    eh pembeda ya kalau kita ingat eh
  • 00:06:24
    classification metodologi kemarin eh
  • 00:06:27
    beberapa minggu mungkin Minggu kelima
  • 00:06:28
    atau keen kita ingat Eh ada eh learning
  • 00:06:32
    by eh apa eh information ada learning by
  • 00:06:36
    probability ada learning by eh apa
  • 00:06:39
    namanya error dan lain sebagainya Nah di
  • 00:06:42
    sini dengan menggunakan Deep learning
  • 00:06:44
    itu learning itu mencari eh weight yang
  • 00:06:47
    optimal dari data sehingga hasilnya
  • 00:06:49
    nanti akurat ya Jadi tetap nanti dari
  • 00:06:52
    hasil itu akan ada back propagation
  • 00:06:54
    seperti proses di Ann untuk
  • 00:06:57
    eh mencari melakukan iterasi atau
  • 00:07:00
    kemarin itu kita sebut sebagai proses ee
  • 00:07:04
    eh bolak-baliknya ya iterasi dan di situ
  • 00:07:07
    eh akan setiap iterasi akan mengadjust
  • 00:07:11
    weight ya sampai ketemu weight yang
  • 00:07:12
    optimal ya Nah itu eh gambaran umum ya
  • 00:07:15
    eah di di eh bagannya ya kalau kita tahu
  • 00:07:20
    namanya kecerdasan artifisial ya Yang
  • 00:07:22
    yang tujuannya adalah program yang mampu
  • 00:07:26
    ee mempunya kemampuan untuk belajar dan
  • 00:07:30
    berpikir atau mempunyai reasoning kayak
  • 00:07:33
    manusia ya termasuk melakukan otomasi ya
  • 00:07:36
    di situ ya Ee salah satu pendukung dari
  • 00:07:39
    eh kemampuan tersebut adalah machine
  • 00:07:41
    learning Ya algoritma with the ability
  • 00:07:43
    to learn without being explicit
  • 00:07:45
    explicitly program tapi di machine
  • 00:07:48
    learning ada lagi yang lebih dalam lagi
  • 00:07:49
    yang kita sebut Deep learning Ya subset
  • 00:07:51
    dari machine learning yang yang mana
  • 00:07:53
    menggunakan eh pendekatan Ann dengan eh
  • 00:07:57
    dengan layer yang lebih banyak ya eh eh
  • 00:08:01
    dengan eh setiap layer itu melakukan
  • 00:08:04
    adaptasi dan mempelajari
  • 00:08:06
    eh konfigurasi ya optimalisasi dari
  • 00:08:10
    variabel dari datanya yang banyak jadi
  • 00:08:12
    salah satu kuncinya datanya harus banyak
  • 00:08:14
    ya Deep learning itu eh karena eh apa
  • 00:08:19
    namanya eh variabelnya Kompleks ya
  • 00:08:22
    hubungan antara variabelnya nonlinear
  • 00:08:24
    ingat Ann ya kita hubungan ter
  • 00:08:25
    variabelnya kita tidak bisa deteksi atau
  • 00:08:28
    Kompleks maka kita butuh data yang
  • 00:08:30
    banyak supaya ee akurat mewakili ee apa
  • 00:08:34
    masalah ya jadi em dipl ini muncul eh
  • 00:08:39
    sampai akhirnya ini sangat populer
  • 00:08:41
    akhir-akhir ini ya di tahun e
  • 00:08:44
    eh 2018 ya ada disebut tiga orang ini
  • 00:08:48
    namanya benjio ya hinton dan Yan lekun
  • 00:08:51
    eh ini tiga orang peneliti yang yang
  • 00:08:56
    sendiri dan bersama-sama pada era tahun
  • 00:08:59
    0-an sampai 2000-an itu rajin ya rajin
  • 00:09:02
    mengekplore mengenai eh neural Network
  • 00:09:05
    Di mana akhirnya eh dengan melakukan
  • 00:09:08
    beberapa kombinasi daribook mereka
  • 00:09:10
    membentuk Eh dasar pengembangan dari
  • 00:09:13
    Deep leting itu sehingga mereka
  • 00:09:15
    mendapatkan touring Award ya touring
  • 00:09:18
    Award Ya seperti Nobel prize untuk
  • 00:09:20
    orang-orang komputer ini cukup luar
  • 00:09:22
    biasa karena touring Award ya
  • 00:09:24
    sebelum-sebelumnya biasanya banyakan ke
  • 00:09:25
    area security tapi ini eh menuju ke area
  • 00:09:29
    Ai ya
  • 00:09:31
    Oke
  • 00:09:32
    Eh ini gambaran umum ya eh dari Deep
  • 00:09:36
    learning dan machine learning gambar ini
  • 00:09:38
    menunjukkan Eh kalau kita mengerjakan
  • 00:09:41
    suatu eh membuat model berdasarkan
  • 00:09:44
    machine Learning Kita selalu akan
  • 00:09:45
    memilih fitur ya memilih fitur itu kita
  • 00:09:48
    sebut sebagai fitur Extraction Apakah
  • 00:09:49
    fitur extractionnya dilakukan otomatis
  • 00:09:52
    menggunakan pce contohnya atau secara
  • 00:09:56
    ee secara ee ee apa eh secara manual Ya
  • 00:10:01
    seperti waktu itu saya cerita bagaimana
  • 00:10:04
    kita memilih mahasiswa untuk mendapatkan
  • 00:10:06
    e beasiswa ya mungkin kita akan pilih ya
  • 00:10:11
    datanya yang penting adalah data IP data
  • 00:10:13
    penghasilan orang tua gitu ya misalkan
  • 00:10:15
    tapi data-data yang lain mungkin seperti
  • 00:10:17
    jenis kelamin itu enggak enggak relevan
  • 00:10:19
    jadi enggak kita hilang eh perlu e
  • 00:10:22
    enggak perlu kita masukkan bisa kita
  • 00:10:24
    hilangkan jadi fitur Extraction bisa
  • 00:10:25
    menggunakan eh manusia bisa menggunakan
  • 00:10:28
    mesin baru Setelah itu kita fitur-fitur
  • 00:10:31
    yang sudah ekstrak yang kita ambil kita
  • 00:10:32
    lakukan klasifikasi sehingga kita perlu
  • 00:10:34
    eh eh kita ketemu model Apakah dia
  • 00:10:39
    eh outputnya eh kelas A apa kelas B atau
  • 00:10:42
    kelas A kelas B atau kelas C dan
  • 00:10:44
    sebagainya sedangkan di Deep learning
  • 00:10:46
    itu enggak eh contohnya Ini adalah
  • 00:10:48
    gambaran dari CNN confoluation neural
  • 00:10:50
    Network kita punya data banyak kemudian
  • 00:10:53
    fitter Extraction dan proses
  • 00:10:55
    classification itu ada di dalam neural
  • 00:10:58
    Network itu sendiri ya jadi menjadi satu
  • 00:11:01
    di sini ya tentunya ini sangat sangat
  • 00:11:04
    kompleks ya kita enggak tahu mana ee
  • 00:11:07
    variabel yang e atau fitur atau variabel
  • 00:11:09
    mana Yang yang yang dominan mana yang
  • 00:11:12
    tidak ya pokoknya kita rubah-rubah aja
  • 00:11:14
    di sininya di e bobot yang ada di eh apa
  • 00:11:18
    namanya neuronnya sini ya Nah baru kita
  • 00:11:20
    akan Eh ketemu yang penting hasilnya eh
  • 00:11:24
    akurat gitu ya tapi E reaseningnya ini
  • 00:11:27
    kita sering sekali tidak tahu ya kita
  • 00:11:29
    tidak mengerti bagaimana itu bisa
  • 00:11:31
    terjadi ya Dan ini mesin yang melakukan
  • 00:11:34
    eh proses eh optimalisasi eh apa bobot
  • 00:11:38
    itu makanya eh di Ai suka ada eh suatu
  • 00:11:42
    isu disebut Ai
  • 00:11:44
    explainability kemampuan kita untuk
  • 00:11:46
    menjelaskan Ai contohnya e eh dokter
  • 00:11:51
    kalau menjelaskan seseorang sakit eh
  • 00:11:54
    misalkan Cancer atau eh Cancer itu
  • 00:11:58
    mungkin ada dia tahu Oh alasannya begini
  • 00:12:01
    begini begini tapi mesin mungkin tidak
  • 00:12:03
    bisa menjelaskan tapi mesin itu jauh
  • 00:12:05
    lebih akurat ya dengan kombinasi banyak
  • 00:12:08
    variabel eh mungkin coverage dia akan
  • 00:12:11
    jauh lebih kompleks daripada manusia ya
  • 00:12:13
    itu itu
  • 00:12:15
    dipl nah di classicalaring Most of
  • 00:12:17
    feature ususe require identification of
  • 00:12:20
    domain expert ya Saya bilang tadi bisa
  • 00:12:22
    domain expert bisa juga otomatis pakai
  • 00:12:24
    eh metode di statistik seperti pce ya
  • 00:12:27
    princiipal komonen analisis atau yang
  • 00:12:28
    lain lain ya Eh dan kemudian kedua Deep
  • 00:12:32
    Network ya Network yang Deep ya Yang
  • 00:12:34
    banyak layernya itu eh scale much better
  • 00:12:36
    with more data dan classical ML algoritm
  • 00:12:38
    ya jadi eh analoginya kalau kita membuat
  • 00:12:43
    model di classical ML kita akan melihat
  • 00:12:47
    eh domain yang kita pahami atau yang
  • 00:12:50
    manusia pahami sedangkan kalau Deep
  • 00:12:52
    learning itu eh
  • 00:12:54
    eh Tanpa Batas ya jadi manusia mungkin
  • 00:12:58
    enggak perlu memahami tinggal masukkan
  • 00:12:59
    data saja dan sebenarnya di kondisi di
  • 00:13:02
    dunia nyata yang kita anggap Kita paham
  • 00:13:05
    suatu domain belum tentu kita paham ya
  • 00:13:07
    jadi banyak sekali eh apa Data yang
  • 00:13:10
    tersedia dan kita tidak tahu hubungan
  • 00:13:12
    satu data dengan data lain yang kita ee
  • 00:13:14
    biasanya manusia melakukan hipotesa atau
  • 00:13:16
    dugaan atau asumsi ya tapi di sini
  • 00:13:19
    tinggal dicemplungin aja datanya ya
  • 00:13:21
    seperti itu ya sehingga eh kemampuan
  • 00:13:23
    mengambil data yang sangat besar itu
  • 00:13:25
    yang disebut sebagai scale much better
  • 00:13:26
    dengan data yang besar maka dia Dia
  • 00:13:29
    tidak punya masalah untuk eh
  • 00:13:31
    performance-nya sedangkan classical
  • 00:13:33
    machine learning mungkin tidak akan
  • 00:13:35
    scale ya Eh datanya banyak mungkin juga
  • 00:13:38
    dia tidak mampu eh beroperasi gitu
  • 00:13:40
    contohnya ya Eh Deep learning teknik
  • 00:13:43
    Deep learning dapat diadaptasi ke domain
  • 00:13:46
    yang berbeda-beda karena ini sangat
  • 00:13:47
    fundamental ya di aplikasi yang juga
  • 00:13:50
    berbeda-beda dan jauh lebih mudah dari
  • 00:13:52
    eh model klasik machine learning karena
  • 00:13:55
    biasanya di model klasik machine
  • 00:13:56
    Learning Kita perlu paham domainnya
  • 00:13:57
    sedangkan di sini kita jemplungin aja
  • 00:13:59
    seperti itu ya gambaran kasarnya seperti
  • 00:14:01
    itu ya Nah apa eh kondisi apa yang kita
  • 00:14:04
    perlu eh gunakan dilening ya pada saat
  • 00:14:08
    Eh kalau kita datanya besar ya kalau
  • 00:14:11
    datanya besar ya enggak bisa diparning
  • 00:14:13
    cukup yang clasical aja ya kemudian eh
  • 00:14:16
    kita punya kita punya mesin yang canggih
  • 00:14:18
    ya atau high end infrastructure kalau
  • 00:14:21
    kita mesinnya eh biasa-biasa aja aja Eh
  • 00:14:23
    saya rasa ya tidak perlu juga G ya
  • 00:14:26
    karena nanti bisa lama itu ee menyelesai
  • 00:14:29
    Ya seperti saya ceritakan kemarin GPT
  • 00:14:31
    itu butuh waktu 355 tahun di single
  • 00:14:34
    machine ya tapi itu selesai dalam waktu
  • 00:14:37
    eh kurang dari itu karena memang eh apa
  • 00:14:39
    pengembangnya atau eh pembuatnya itu
  • 00:14:42
    mempunyai mesin atau mempunyai
  • 00:14:43
    infrastruktur yang sangat eh canggih ya
  • 00:14:46
    Eh fiturnya Kompleks kita enggak bisa eh
  • 00:14:50
    lihat hubungan antar fitur ya tidak bisa
  • 00:14:52
    memahaminya ya
  • 00:14:53
    Eh kemudian eh problemnya seperti apa
  • 00:14:57
    contohnya image classification ya Eh
  • 00:15:00
    mengklasifikasikan gambar kemudian
  • 00:15:02
    natural language processing dan juga eh
  • 00:15:05
    speech eh recognition ya Jadi ini eh
  • 00:15:08
    beberapa eh contoh dari Eh De Deep
  • 00:15:12
    learning ya
  • 00:15:14
    Nah kenapa kita eh penting belajar Deep
  • 00:15:17
    learning atau paham atau mengikuti
  • 00:15:19
    perkembangan dari Deep learning ini yang
  • 00:15:22
    pertama adalah kalau kita mendesain
  • 00:15:24
    fitur itu ee sesuai dengan pemahaman
  • 00:15:28
    kita ya kadang-kadang kita itu salah ya
  • 00:15:31
    memahami kadang-kadang bisa jadi over
  • 00:15:34
    specifyed kita terlalu melebih-lebihkan
  • 00:15:36
    fitur tersebut atau informasinya sendiri
  • 00:15:39
    kurang komplit atau kita memang datanya
  • 00:15:41
    tidak ada tidak komplit ya Eh kemudian
  • 00:15:44
    kita mempunya kesulitan untuk mendesain
  • 00:15:46
    dan mvalidasi eh fitur-fitur tersebut eh
  • 00:15:49
    yang yang yang bisa diadaptasikan dengan
  • 00:15:52
    mudah atau di dipelajari ee apa namanya
  • 00:15:56
    karakternya dengan mudah ya Jadi kalau
  • 00:15:58
    kita desain manual ya Bisa saja tapi eh
  • 00:16:01
    untuk eh kondisi data yang kompleks
  • 00:16:04
    mungkin kita akan jadi eh sulit ya
  • 00:16:06
    kemudian eh Deep learning menyediakan eh
  • 00:16:10
    fleksibel ya metode yang sangat
  • 00:16:12
    fleksibel ya Eh universal ya hampir
  • 00:16:15
    semua problem bisa diselesaikan ya
  • 00:16:18
    Eh kemudian framework-nya itu sudah ada
  • 00:16:22
    sudah jelas bisa untuk merepresentasikan
  • 00:16:24
    eh kompleksitas dari dunia contohnya
  • 00:16:27
    untuk visual atau eh computer Vision
  • 00:16:30
    untuk melihat mendeteksi gambar
  • 00:16:32
    eh seperti saya suka cerita Bagaimana
  • 00:16:34
    komputer mendeteksi membedakan untuk
  • 00:16:37
    gambar anjing dan kucing anjing atau
  • 00:16:39
    kucing gitu ya Atau eh problem di bahasa
  • 00:16:42
    ya Dan ini eh apa namanya contoh-contoh
  • 00:16:46
    yang sulit ya karena bahasa juga ee
  • 00:16:48
    memahami bahasa itu kita
  • 00:16:51
    ee menggunakan machine learning biasa
  • 00:16:54
    seperti svm dan apa namanya Naif bias
  • 00:16:57
    yang yang kita sebutkan sebelumnya itu
  • 00:17:01
    ternyata enggak scalable ya jadi perlu
  • 00:17:04
    eh perlu metodologi yang lebih lebih
  • 00:17:07
    kompleks ya
  • 00:17:10
    Jadi kalau kita insufficiently Deep
  • 00:17:13
    arsitecture can be exponentially
  • 00:17:14
    inefisien jadi beberapa kondisi eh eh
  • 00:17:18
    representasi yang tidak eh
  • 00:17:20
    direpresentasikan secara diep ya Secara
  • 00:17:22
    beberapa layer maka e model kita enggak
  • 00:17:25
    efisien ya tidak efisien merepresentasi
  • 00:17:29
    kondisi e real world ya oke kemudian ada
  • 00:17:32
    kondisi di mana e
  • 00:17:35
    eh mungkin saja ya ini di sini
  • 00:17:39
    distribedesentation areary to acheve
  • 00:17:41
    nonal generalization ya karena datanya
  • 00:17:45
    sedikit ya karena datanya spesifik maka
  • 00:17:48
    kita menggambarkan kondisi-kondisi e
  • 00:17:52
    lokal ya untuk Suatu kondisi tertentu ya
  • 00:17:55
    itu enggak salah juga tapi kita juga
  • 00:17:57
    perlu suatu model yang merepresentasikan
  • 00:18:00
    kondisi yang lebih umum yang lebih
  • 00:18:01
    general bukan kondisi-kondisi khusus ya
  • 00:18:03
    contohnya
  • 00:18:05
    em memodelkan orang
  • 00:18:08
    ee orang Indonesia gitu ya eh bahasa
  • 00:18:13
    atau bukan bahasa lah orang Indonesia
  • 00:18:15
    kelakuan orang Indonesia gitu ya tapi eh
  • 00:18:17
    model itu berbeda untuk orang misalkan
  • 00:18:20
    orang ee Jepang gitu ya Nah kita perlu
  • 00:18:23
    juga model yang bisa menggambarkan
  • 00:18:26
    bagaimana orang Indonesia dan orang
  • 00:18:27
    Jepang menjadi satu ya berarti kan e
  • 00:18:30
    datanya kompleks dan fiturnya sangat
  • 00:18:32
    kompleks ya Nah itu perlu model yang
  • 00:18:34
    lebih kompleks lagi ya seperti itu ya
  • 00:18:37
    kemudian
  • 00:18:39
    eh yang lain motivasi yang lain eh data
  • 00:18:43
    kita sudah punya banyak e kita sudah
  • 00:18:45
    mampu memproses atau menganalisa data
  • 00:18:48
    structure dan unstructure ya
  • 00:18:51
    Eh beberapa metode sangat matang ya
  • 00:18:54
    kemudian kita juga punya sistem yang
  • 00:18:56
    matang terutama di hadub ya hadub
  • 00:18:59
    ekosistem ada Spark dan ada juga di
  • 00:19:01
    Python kita punya library transfer flow
  • 00:19:04
    untuk Deep learning Ya kemudian kita
  • 00:19:07
    juga mesin yang canggih multiore bahkan
  • 00:19:11
    CPU GPU kita bisa eh peroleh dengan
  • 00:19:14
    gratis untuk coba-coba tentunya ya di
  • 00:19:17
    Google colab dan beberapa platform eh
  • 00:19:20
    cloud computing lain ya Nah kemudian eh
  • 00:19:24
    kita punya model-model yang baru
  • 00:19:26
    algoritma-algoritma yang baru dan
  • 00:19:28
    ide-ide pendekatan masalah yang baru ya
  • 00:19:30
    contohnya eh better more flexible
  • 00:19:32
    learning of intermediate representation
  • 00:19:35
    jadi kita
  • 00:19:36
    bisa sekarang saat ini banyak sekali
  • 00:19:38
    model contohnya gpt3 kemarin itu adalah
  • 00:19:41
    salah satu model representasi dari
  • 00:19:43
    bahasa manusia ya jadi itu sudah Ee
  • 00:19:47
    sangat canggih ya bisa kita gunakan
  • 00:19:50
    bahkan itu ee apa membuat tulisan ya
  • 00:19:53
    membuat e puisi menulis lagu dan lain
  • 00:19:56
    sebagainya ya kemudian eh effective
  • 00:20:00
    andend to join system learning jadi eh
  • 00:20:03
    sistem Deep learning as a system itu
  • 00:20:04
    akan
  • 00:20:05
    e membantu manusia untuk melakukan
  • 00:20:08
    proses yang efektif dari awal sampai
  • 00:20:10
    belakang ya to end ya kemudian yang
  • 00:20:13
    terakhir eh yang penting juga effective
  • 00:20:16
    learning method for using context and
  • 00:20:18
    transfering bas ya nanti ada satu fungsi
  • 00:20:23
    namanya transfer learning di mana model
  • 00:20:24
    yang bisa jadi itu bisa kita kita
  • 00:20:27
    gunakan kembali jadi kita enggak perlu
  • 00:20:29
    training lagi karena mentraining itu di
  • 00:20:31
    Deep learning itu mahal ya butuh
  • 00:20:33
    infrastruktur yang kuat dan butuh data
  • 00:20:35
    yang banyak dan tentunya butuh biaya
  • 00:20:39
    yang mahal ya Nah di Deep learning kalau
  • 00:20:42
    ada seseorang yang sudah membuat model
  • 00:20:44
    maka kita tidak perlu membuat model lagi
  • 00:20:47
    e model yang selesai itu bisa kita
  • 00:20:49
    ditransfer kita kita adjust aja di
  • 00:20:51
    bagian belakangnya pakai bukan bagian
  • 00:20:53
    modelnya itu disebut sebagai
  • 00:20:56
    transf theal of lear is that the Rocket
  • 00:20:59
    ini dari Andre ya Salah satu tokoh ai eh
  • 00:21:02
    terkenal saat ini ya analogy of De
  • 00:21:04
    learning is that Rocket engine is Deep
  • 00:21:06
    learning model ya and the fuel the fuel
  • 00:21:09
    is the huge amount of data at big data
  • 00:21:12
    yang dimasukkan ke algoritma tbut ya ini
  • 00:21:14
    ini sesuai dengan konteks kuliah kita
  • 00:21:17
    big data Jadi kita punya big data
  • 00:21:18
    dimasukkan ke Rocket engine membuat
  • 00:21:22
    roketnya melesat jauh artinya di sini
  • 00:21:24
    membuat modelnya performance-nya jauh
  • 00:21:27
    lebih bagus dari classical dan jauh
  • 00:21:28
    lebih ee dalam konteks jauh lebih akurat
  • 00:21:31
    ya di sini
  • 00:21:33
    oke ee ini beberapa history dari sejarah
  • 00:21:37
    dari Deep learning itu sendiri ya kalau
  • 00:21:39
    kita lihat ini kita mulai eh dari era
  • 00:21:42
    yang disebut eh ee Bagaimana manusia
  • 00:21:45
    waktu itu mencoba meniru ee ee otak ya
  • 00:21:49
    jaringan saraf otak ya jaringan saraf
  • 00:21:51
    tiruan ya untuk mengenali objek atau
  • 00:21:55
    memahami objek ya Ini mulai dari tahun
  • 00:21:58
    40 ya 43 kita pertama kali Eh mengenal
  • 00:22:02
    neuralnet ya neuralnet apa yang sebut
  • 00:22:04
    neuralnet kemudian eh Alan touring tahun
  • 00:22:07
    50 keluar
  • 00:22:09
    eh eh touring touring test computation
  • 00:22:13
    complexity di sini ya kemudian kita Peru
  • 00:22:17
    perseptron dan lain sebagainya break
  • 00:22:18
    propagation kita sudah ada dari tahun '4
  • 00:22:21
    ya kemudian
  • 00:22:25
    STM ini ser juga digunakan tapi saya
  • 00:22:27
    Kami tidak kita tidak bahas di sini ya
  • 00:22:29
    kemudian lenet lenet itu tahun 90 ya Ee
  • 00:22:33
    90 ee Bagaimana
  • 00:22:36
    ee lecun ya membuat model untuk
  • 00:22:39
    mengenali tulisan tangan ya kalau saya
  • 00:22:42
    nulis angka berapa maka komputer akan
  • 00:22:45
    mengenali dia itu Angka berapa gitu ya
  • 00:22:47
    Sampai akhirnya
  • 00:22:48
    em di sini ee oh di sini cnr enggak ada
  • 00:22:52
    ya enggak kelihatan salah satunya di
  • 00:22:55
    sini Jadi ini perkembangan yang sangat
  • 00:22:57
    panjang ya ya dan sebenarnya Ee kita
  • 00:23:02
    ee banyak berhutang contohnya Ini dari
  • 00:23:04
    satu penemuan di sini ini berkembang
  • 00:23:06
    tahun 2006 kemudian eh Deep bolsment
  • 00:23:10
    machine sampai ke akhirnya menjadi 2014
  • 00:23:12
    Gun ya nanti kita Jelaskan sedikit
  • 00:23:15
    tentang Gan sampai ksul network Nah ini
  • 00:23:17
    salah satu
  • 00:23:18
    eh mahasiswa leb membuat ksule Network
  • 00:23:21
    ya
  • 00:23:22
    mengenali makanan ya mengenali foto-foto
  • 00:23:25
    makanan di Instagram ya jadi ee
  • 00:23:29
    contohnya di bisnis itu ada dua di e
  • 00:23:32
    mahasiswa lab yang satu tahun 2015
  • 00:23:36
    angkatan 2015 maksudnya Eh membuat eh
  • 00:23:40
    CNN Ya convolal netw nanti saya jelaskan
  • 00:23:44
    juga untuk mengenali eh di suatu gambar
  • 00:23:48
    di Instagram itu
  • 00:23:50
    e foto cewek itu eh menggunakan hijab
  • 00:23:55
    menggunakan topi atau kacamata untuk
  • 00:23:58
    melihat bagaimana
  • 00:24:00
    ee kepopuleran tiga barang fashion di
  • 00:24:04
    suatu kota tertentu ya maka eh
  • 00:24:07
    instagram-nya di ee ee dicroll ya
  • 00:24:11
    kemudian dideteksi Apakah ada hijab
  • 00:24:13
    Apakah ada topi Apakah ada
  • 00:24:17
    ee kacamata ya kacamata hitam atau
  • 00:24:20
    kacamata apapun ya Nah yang kemudian ee
  • 00:24:23
    dilanjutkan mahasiswa angkatan 2000 ya
  • 00:24:26
    berapa ya 18 ya eh 2016 Sori 2016
  • 00:24:31
    mengenai kapsul jadi kapsul Network itu
  • 00:24:33
    Eh pada saat kita menerima foto belum
  • 00:24:36
    tentu fotonya itu align ada yang miring
  • 00:24:39
    ada yang mungkin rotasinya salah jadi
  • 00:24:41
    kapsul Network itu bisa mendeteksi
  • 00:24:44
    gambar yang rotasinya berbeda ya dan itu
  • 00:24:46
    digunakan juga untuk mendeteksi makanan
  • 00:24:48
    di di apa makanan yang populer ya di
  • 00:24:51
    Instagram dan sebagainya jadi itu
  • 00:24:53
    contoh-contoh sederhana Bagaimana E
  • 00:24:55
    image recognition kita gunakan
  • 00:24:57
    sehari-hari hanya yang berkaitan dengan
  • 00:25:00
    bahasa itu belum dan mungkin nanti akan
  • 00:25:02
    kita kembangkan juga di nah ini beberapa
  • 00:25:05
    contoh ya Eh yang paling kiri Ini gambar
  • 00:25:08
    Bagaimana eh self driving car ya
  • 00:25:11
    mengenali mobil ya mengenali eh apa
  • 00:25:14
    namanya eh biasanya ditaruh di sini ya
  • 00:25:16
    Uber dan lain sebagainya Tesla itu
  • 00:25:19
    driving car Dia menggunakan
  • 00:25:21
    eh image detection mengenali ini mobil
  • 00:25:24
    ini orang ini sepeda ini tiang listrik
  • 00:25:27
    dan sebagainya kemudian ada juga
  • 00:25:29
    digunakan di bahasa di mana kita lihat
  • 00:25:31
    Deep learning eh mentranslasikan bahasa
  • 00:25:34
    jauh lebih akurat dibandingkan eh yang
  • 00:25:37
    enggak pakaiedep learning Ya ada Google
  • 00:25:38
    Translate Microsoft translator Facebook
  • 00:25:41
    yang sudah lama sebelumnya Tapi saat ini
  • 00:25:43
    hampir semua sudah move ke Deep learning
  • 00:25:45
    Ya dan yang terakhir cukup menarik ini
  • 00:25:47
    adalah Gun generative Network Bagaimana
  • 00:25:50
    kalau ini adalah eh mendeteksi ini mobil
  • 00:25:53
    bukan ini ini melakukan proses eh
  • 00:25:56
    translasi kalau ini membuat gambar
  • 00:25:59
    dari gambar lain ya Ini gambar aslinya
  • 00:26:02
    ya ini e gambar kemudian dikasih gambar
  • 00:26:06
    wajahnya eh niolas Cage ini ya Nah ini
  • 00:26:10
    kita disebut sebagai generative advers
  • 00:26:12
    Network eh bukan hanya gambar di juga
  • 00:26:16
    mampu membuat lukisan ya membuat tulisan
  • 00:26:18
    ya yang tadi seperti saya ceritakan E
  • 00:26:21
    dan ini yang lebih bahaya karena kita
  • 00:26:22
    kadang-kadang eh yang kita sebut sebagai
  • 00:26:24
    Deep fake ya kita tidak tahu mana gambar
  • 00:26:28
    asli apa gambar yang bukan asli gitu ya
  • 00:26:30
    ya kita bisa create seseorang dengan
  • 00:26:35
    badannya dan wajahnya yang berbeda ya
  • 00:26:37
    itu
  • 00:26:38
    eh adalah salah satu karya dari Deep
  • 00:26:42
    learning dan eh banyak sekali eh apa
  • 00:26:45
    namanya eh model atau coding yang
  • 00:26:47
    tersedia di internet ya ini beberapa
  • 00:26:51
    kegunaan dan Eh bagaimana eh Deep
  • 00:26:54
    learning itu bekerja Ini adalah gambar
  • 00:26:56
    mengenai lenet ya lenet itu yang tadi e
  • 00:26:58
    ee Profesor lecun ya dia mengembangkan
  • 00:27:02
    program ini dan lenet ini kita lihat
  • 00:27:04
    bagaimana
  • 00:27:05
    dia mengimplementasikan eh artificial
  • 00:27:09
    neural Network dalam skala besar ya ini
  • 00:27:11
    gambarnya saya ambil dari e YouTube ya
  • 00:27:14
    Coba kita
  • 00:27:16
    lihat
  • 00:27:20
    ya Jadi ini ada e apa namanya tulisan
  • 00:27:25
    tangan kemudian dideteksi
  • 00:27:28
    menjadi itu ee Angka berapa tulisan
  • 00:27:32
    tangan berapa menjadi Angka berapa ya
  • 00:27:34
    karena tulisan tangan itu bisa
  • 00:27:36
    macam-macam variasinya sangat
  • 00:27:37
    macam-macam tapi komputer dengan akurat
  • 00:27:41
    itu bisa mendeteksi ini kelompok angka 0
  • 00:27:44
    1 2 3 4 5 6 7 8 9 gitu Misalkan ya ini
  • 00:27:50
    kelihatan neuronnya ada 2000 sinapsisnya
  • 00:27:52
    itu ee ee hubungannya ada berapa
  • 00:27:56
    ya dan eh ditunjukkan juga beberapa
  • 00:28:00
    metode komparasinya jadi ini
  • 00:28:02
    ee apa
  • 00:28:05
    em salah satu breakthrough ya di ini
  • 00:28:08
    adalah teknologi tahun 90-an ya Jadi
  • 00:28:11
    bisa dibayang nah ini ada beberapa layer
  • 00:28:14
    yang berbeda ya ini ada tiga layer
  • 00:28:19
    ya dengan akurasi yang cukup tinggi ini
  • 00:28:22
    datasetnya adalah MN ee rekan-rekan bisa
  • 00:28:25
    nyari ya di internet dataset tersebut
  • 00:28:28
    dan mungkin bisa mencoba juga kodenya ya
  • 00:28:30
    untuk bermain-main dan mengira-ngira
  • 00:28:33
    bagaimana performance dari suatu ee Deep
  • 00:28:37
    learning
  • 00:28:38
    nah ini CNN ini yang lebih canggih lagi
  • 00:28:41
    yang Nanti akan saya jelaskan
  • 00:28:44
    ya Jadi ini ada suatu layer yang
  • 00:28:47
    eh apa fiturnya besar ya kemudian
  • 00:28:51
    direduksi menjadi fitur-fitur kecil
  • 00:28:52
    kemudian dideteksi langsung di sini ya
  • 00:29:02
    neuronnya adalah
  • 00:29:04
    19.794 ya sinapsisnya Ada
  • 00:29:07
    r.600 lebih
  • 00:29:15
    ya spiking neural Network ini jadi eh eh
  • 00:29:19
    apa
  • 00:29:21
    E variasi dari neural network at itu
  • 00:29:25
    sangat banyak ya jadi ee eh satu variasi
  • 00:29:29
    metodologi berguna untuk satu eh problem
  • 00:29:32
    tertentu ya makanya juga Kenapa metode
  • 00:29:35
    yang ada di eh computer Vision mengenali
  • 00:29:38
    gambar atau di bahasa itu Totally
  • 00:29:41
    different karena hanya applicable untuk
  • 00:29:43
    suatu domain tertentu di sini saat ini
  • 00:29:46
    ya ya oke saya saya teruskan ya itu jadi
  • 00:29:50
    contohnya tadi ya Nah Eh kalau kita
  • 00:29:53
    balik lagi ke
  • 00:29:55
    eh kuliah minggu ke berapa ya keen atau
  • 00:29:59
    keetu mengenai Ann kita masih ingat ya
  • 00:30:01
    Ann itu ada input ya input kemudian
  • 00:30:05
    dimasukkan ke dalam eh eh layer di sini
  • 00:30:08
    kemudian
  • 00:30:10
    dimmarykan summarykan Kemudian kita
  • 00:30:12
    lakukan activation function ada beberapa
  • 00:30:14
    jenis activation function kemudian eh
  • 00:30:17
    dikeluarkan ya kemudian dicek Apakah
  • 00:30:19
    outputnya
  • 00:30:21
    eh e sesuai enggak kalau enggak sesuai
  • 00:30:24
    maka error ya eror Mak dibalikin lagi
  • 00:30:26
    diulangi lagi kita sebut sebagai eh kita
  • 00:30:28
    ulangi berulang-ulang kita sebut sebagai
  • 00:30:30
    iterasi atau epok ya waktu itu kita
  • 00:30:32
    ingat ya epok kemudian kita punya juga
  • 00:30:35
    learning rate seberapa apa namanya
  • 00:30:37
    seberapa cepat perubahan atau
  • 00:30:39
    learning-nya kemudian jenis activation
  • 00:30:42
    function atau transfer function-nya apa
  • 00:30:44
    ya kita ingat juga regularization untuk
  • 00:30:47
    eh mengurangi overfitting ya kemudian
  • 00:30:50
    kita ingat gradien desain ya di sini eh
  • 00:30:52
    gradient Desen sangat sangat digunakan
  • 00:30:54
    di Deep learning eh eh apa mencari eh e
  • 00:30:58
    apa
  • 00:30:58
    e kemiringan ya Eh kemiringan sehingga
  • 00:31:02
    mencari optimal nilai atau optimal
  • 00:31:04
    configuration sehingga modelnya
  • 00:31:06
    memberikan hasil yang eh paling akurat
  • 00:31:08
    di sini ya Jadi ini adalah
  • 00:31:10
    parameter-parameter yang eh digunakan
  • 00:31:12
    juga di Deep learning karena basicnya
  • 00:31:14
    adalah dari eh Ann juga ya oke
  • 00:31:19
    selanjutkan nah ini ada beberapa jenis e
  • 00:31:22
    neural Network ya Mulai dari eh yang
  • 00:31:26
    sederhana Ya hanya perseptrom yang
  • 00:31:28
    kuning itu adalah input kemudian merah
  • 00:31:30
    itu adalah output ya sampai yang
  • 00:31:33
    kompleks ya ini ada beberapa namanya
  • 00:31:37
    tapi di sini Saya bahas
  • 00:31:39
    adalah nanti di ini
  • 00:31:43
    ee convolation neural Network ya Ada
  • 00:31:46
    convolation neural Network di mana ya ya
  • 00:31:49
    salah satu di sini ya deep deep
  • 00:31:51
    confolational Network ya ya ini adalah
  • 00:31:54
    inputnya kemudian ini proses
  • 00:31:56
    convolution-nya mereduksi
  • 00:31:58
    mereduksi eh fitur atau atribut kemudian
  • 00:32:01
    nih proses eh apa eh fully connected
  • 00:32:05
    layer seperti di Ann ya proses e ada
  • 00:32:09
    layer apa hidden layer dan kemudian kita
  • 00:32:12
    dapatkan e output yang warna merah ya
  • 00:32:14
    ini Gan juga ada di sini ya nanti kita
  • 00:32:17
    lihat juga ya Oke jadi ada dua
  • 00:32:21
    eh yang
  • 00:32:23
    yang yang apa namanya yang yang di
  • 00:32:27
    dijelaskan atau ditunjukkan di sini ya
  • 00:32:30
    tapi kita fokus di tadi convolutional
  • 00:32:33
    Network ya kita punya input ya inputnya
  • 00:32:36
    banyak ya Fiturnya banyak Kemudian dari
  • 00:32:38
    input banyak itu akan direduksi ya
  • 00:32:41
    setelah kita lakukan reduksi ya fiturnya
  • 00:32:44
    ya kemudian
  • 00:32:45
    eh kita lakukan proses neural Network di
  • 00:32:48
    sini mau dua mau mau terserah nanti sama
  • 00:32:51
    dengan e neural Network biasa tapi
  • 00:32:53
    proses di depan ini yang membedakan
  • 00:32:55
    mereduksi gambar yang besar menjadi
  • 00:32:57
    gambar dengan fitur yang kecil tapi
  • 00:33:00
    representatif terhadap gambar yang besar
  • 00:33:02
    jadi proses samplingnya proses reduksi
  • 00:33:05
    fiturnya itu dilakukan secara e di
  • 00:33:08
    netwook itu sendiri kemudian kita ketemu
  • 00:33:11
    output ya Nah kalau yang ini adalah
  • 00:33:13
    generative adverser Network ini sangat
  • 00:33:15
    menarik ya Ini ada dua bagian dari
  • 00:33:18
    komputer ya tadi ingat generative advers
  • 00:33:22
    itu membuat membuat gambar baru ya
  • 00:33:24
    membuat gambar atau membuat apunlah ya
  • 00:33:26
    model baru eh misalkan bahasa-bahasa
  • 00:33:30
    yang apa memalsukan lah intinya
  • 00:33:32
    memalsukan ya Nah ini ada ada eh bagian
  • 00:33:36
    eh yang produksi ya memproduksi gambar
  • 00:33:39
    ya memproduksi gambar contohnya tadi
  • 00:33:41
    yang gambar ncolasage tadi maka eh
  • 00:33:44
    gambar yang dia produksi itu
  • 00:33:45
    diverifikasi ya diverifikasi kalau eh
  • 00:33:50
    diverifikasi oleh komputer jadi dua
  • 00:33:51
    komputer dua dua dua Core komputer yang
  • 00:33:54
    bekerja yang satu memproduksi yang satu
  • 00:33:56
    di sebelah sini adalah verifikasi ya
  • 00:33:59
    setelah diproduksi kemudian
  • 00:34:01
    ee kalau diverifikasi Oh masih Kelihatan
  • 00:34:03
    nih ee ee error atau jeleknya masih
  • 00:34:06
    belum bisa menipu manusia gitu maka
  • 00:34:09
    diproduksi lagi prosesnya diulangi lagi
  • 00:34:11
    sampai
  • 00:34:12
    ee si E verifikator ini tidak bisa
  • 00:34:16
    mendeteksi Apakah gambarnya itu ee asli
  • 00:34:19
    apa palsu ya ini dua proses yang
  • 00:34:22
    berjalan sangat kecepatan tinggi tanpa
  • 00:34:24
    kena lelah ya Sehingga Ee tidak heran
  • 00:34:27
    bak eh produksi dari Gan Ya itu eh
  • 00:34:31
    memproduksi eh apa gambar atau video
  • 00:34:34
    atau something ya yang lain yang bisa
  • 00:34:37
    menipu manusia karena mirip dengan
  • 00:34:39
    aslinya ya Nah ini semakin canggih ya
  • 00:34:43
    kan Makanya tadi problemnya salah
  • 00:34:44
    satunya ad apa Deep fake tadi ya
  • 00:34:48
    Oke kita lanjutkan E ini contoh Eh
  • 00:34:52
    bagaimana kita melakukan Processing
  • 00:34:53
    image ya dengan menggunakan Ann dan
  • 00:34:57
    dengan menggunakan eh CNN ya jadi eh
  • 00:35:01
    conv netw Nah kalau kita gunakan Ann ini
  • 00:35:06
    kita tunjukkan problemnya kalau kita
  • 00:35:07
    gunakan Ann biasa ya neural Network
  • 00:35:09
    biasa kita punya gambar gambar misalkan
  • 00:35:13
    ukurannya 32* 32 ya dan tentunya Kita
  • 00:35:17
    akan punya eh apa pikel seperti ini di
  • 00:35:20
    komputer 32 * 32 * 3 karena kita RGB ya
  • 00:35:23
    Ada ada layer red ada layer Green dan
  • 00:35:26
    ada layer blue ya red rgp ya kemudian
  • 00:35:30
    dia proses semua fiturnya ke dalam
  • 00:35:32
    hidden layer ya kemudian kita ketemu
  • 00:35:34
    output layer kan eh harusnya seperti itu
  • 00:35:37
    ya ya itu kalau gambarnya kecil Ya
  • 00:35:40
    seperti ini contohnya kita punya dataset
  • 00:35:42
    yang namanya sifar 10 ya ukurannya 32 32
  • 00:35:46
    * 3 ya
  • 00:35:47
    Ee maka kita butuh
  • 00:35:50
    30.72 weight hanya 32 piksel itu
  • 00:35:54
    sangat-sangat kecil ya gambar kita untuk
  • 00:35:56
    foto eh di Avatar aja paling tidak 150
  • 00:36:00
    piksel atau 200 piksel ya 32 piksel itu
  • 00:36:03
    sangat-sangat kecil ya mungkin
  • 00:36:04
    informasinya akan sangat-sangat terbatas
  • 00:36:07
    itu aja sudah butuh 30.72 wiight ya
  • 00:36:10
    misalkan kita ambil 200 piksel itu sudah
  • 00:36:13
    120.000 weight nah ini maka disebut
  • 00:36:16
    neural Network yang di Ann ya regular
  • 00:36:19
    neural Network don't scale well to full
  • 00:36:21
    image ya kalau kita punya gambar eh 500
  • 00:36:24
    piksel atau 1000 piksel Wah weight-nya
  • 00:36:29
    akan banyak begitu weight-nya banyak
  • 00:36:30
    maka komputasinya akan sangat mahal dan
  • 00:36:34
    itu Impossible kita mendeteksi gambar
  • 00:36:37
    dengan
  • 00:36:38
    eh apa namanya eh eh eh dengan eh
  • 00:36:43
    beratnya komputasi yang seperti itu ya
  • 00:36:46
    jadi eh disimpulkan Bah parameter itu
  • 00:36:49
    dapat bertambah secara luar biasa
  • 00:36:52
    eksponensial ya sehingga akan jadi
  • 00:36:55
    overfitting ya di sini modelnya juga
  • 00:36:57
    terlalu overfitting jadi harus ada
  • 00:36:59
    metodologi untuk mereduksi eh fitur
  • 00:37:01
    tersebut ya in order to reduce number
  • 00:37:04
    parameter using convolution method Apa
  • 00:37:06
    itu convolution method ya Eh convolution
  • 00:37:09
    method atau CNN ya contohnya Ini CNN di
  • 00:37:12
    eh lenet 5 ya tahun 98 eh berisi satu
  • 00:37:18
    atau lebih convolution layer yang
  • 00:37:20
    eh yang kita sebut juga sebagai langkah
  • 00:37:23
    untuk melakukan subsampling mereduksi eh
  • 00:37:26
    data atau atau mereduksi fitur Ya
  • 00:37:29
    intinya seperti itu mereduksi data atau
  • 00:37:31
    mereduksi fitur ya kemudian eh setelah
  • 00:37:34
    kita berhasil mereduksi kita lakukan
  • 00:37:36
    proses yang fully connected ini tapi ya
  • 00:37:40
    dengan eh eh jumlah ee filter eh jumlah
  • 00:37:45
    e variabel yang jauh lebih kecil ya se
  • 00:37:49
    sehingga tidak memerlukan memproses eh
  • 00:37:53
    full scale eh pikel dari gambar ya ya J
  • 00:37:57
    gambarnya seperti ini kita punya gambar
  • 00:37:59
    ya kita lakukan proses Eh confion ya ada
  • 00:38:03
    proses pooling ya ini adalah e apa
  • 00:38:05
    eh
  • 00:38:07
    eh langkahusion di dalamnya ping poing
  • 00:38:11
    itu mengecek area-area kemudian
  • 00:38:14
    mereduksikan ya kemudian dilakukan lagi
  • 00:38:17
    convoltion kalau kita masih butuh lebih
  • 00:38:19
    ya setelah itu setelah beberapa kali
  • 00:38:22
    prosesolion denganing itu untuk mengcek
  • 00:38:25
    area yang akan kita reduksi
  • 00:38:28
    sampai ke area terakhir untuk mengambil
  • 00:38:30
    keputusan ya atau disebut sebagai fully
  • 00:38:32
    connected yang warna biru ini fully
  • 00:38:34
    connected ya itu yang terjadi ya kita
  • 00:38:36
    makanya solusinya adalah instead of
  • 00:38:38
    using Inn kita gunakan CNN jadi kita
  • 00:38:41
    akan bahas lebih dalam di cnnn salah
  • 00:38:43
    satu contoh Bagaimana Deep learning
  • 00:38:45
    bekerja jadi Eh ini gambaran CNN tadi Eh
  • 00:38:50
    jadi ada ada arsitekturnya itu ada gini
  • 00:38:54
    ada gambar ini ada suatu angka gitu ya
  • 00:38:57
    ya Eh suatu gambar gitu ya E proses eh
  • 00:39:00
    di convoluion layer ya Eh convoluion ler
  • 00:39:03
    kita sebut sebagai proses fiture
  • 00:39:04
    Extraction kemudian eh fully connected
  • 00:39:07
    ini kita sebut sebagai classification
  • 00:39:09
    pres classification ya di dalam eh
  • 00:39:12
    fiture exraction ada ada keseluruhan
  • 00:39:15
    proses yang kita sebut sebagai
  • 00:39:16
    convolution dan
  • 00:39:18
    eh atau layer convolution eh dan eh
  • 00:39:22
    proses eh eh apa namanya eh filtering
  • 00:39:26
    atau ambil fitur yang penting atau
  • 00:39:29
    mereduksi fitur kita sebut sebagai e
  • 00:39:31
    proses yang pooling ya di sini
  • 00:39:34
    dituliskan confion layer adalah inti
  • 00:39:37
    yang melakukan komputasi yang sangat
  • 00:39:40
    besar jadi eh eh proses mereduksi fitur
  • 00:39:44
    ini adalah proses komputasi yang sangat
  • 00:39:46
    besar ya yang mengambil most of the time
  • 00:39:49
    eh Most of the energy lah dari proses eh
  • 00:39:53
    klasifikasi gambar ya kemudian eh poing
  • 00:39:57
    ler ya Eh melakukan proses yang disebut
  • 00:39:59
    dimensionality reduction atau mereduksi
  • 00:40:03
    fitur untuk mengkontrol eh overfitting
  • 00:40:06
    ya terlalu terlalu detail lah modelnya
  • 00:40:09
    overfitting ya
  • 00:40:10
    Eh biasanya diletakkan di antara
  • 00:40:14
    convolution layer ini dan eh dan
  • 00:40:16
    convolution layer Selanjutnya ya Bisa
  • 00:40:18
    juga dengan langsung dengan eh fully
  • 00:40:21
    connected atau classification layer ya
  • 00:40:24
    oke itu yang terjadi seperti itu ya Nah
  • 00:40:26
    gambar ini eh ee
  • 00:40:28
    apa ilustrasinya ya kita punya ee 32 *
  • 00:40:33
    32 * 3 ya ya kemudian kita kasih filter
  • 00:40:37
    ya filter itu yang berjalan ya filter
  • 00:40:41
    ini akan berjalan ya
  • 00:40:42
    Eh filter itu ak berjalan dari sini ya
  • 00:40:46
    kemudian ke sini ke sini ke sini ya
  • 00:40:49
    gesergeser sampai
  • 00:40:51
    ee semua area itu di selesai dicek oleh
  • 00:40:57
    filter nah setiap kali proses filter ini
  • 00:41:00
    berjalan akan menghasilkan ee
  • 00:41:03
    ee apa
  • 00:41:05
    ee gambar yang ukurannya lebih kecil
  • 00:41:09
    dari sebelumnya ya itu gambarnya seperti
  • 00:41:12
    itu ya
  • 00:41:13
    Em contohnya
  • 00:41:16
    ee di sini ee
  • 00:41:20
    oke ini mungkin ini mungkin Ee kita cek
  • 00:41:23
    dulu di next ya coba nah Contohnya
  • 00:41:26
    seperti ini eh kita punya parameter ya
  • 00:41:30
    di di CNN itu kita sebut sebagai CNN
  • 00:41:33
    hyper parameter ya kita punya gambar
  • 00:41:35
    yang ukurannya m * n * c ya m * n ya ini
  • 00:41:39
    m itu apa tinggi eh eh eh panjang atau
  • 00:41:45
    lebar ya m * n kemudian dengan filter
  • 00:41:47
    yang ukurnya f * g * c tentunya f * g
  • 00:41:50
    Itu F itu lebih kecil dari M dan G itu
  • 00:41:53
    lebih kecil dari n ya maka nanti
  • 00:41:57
    hasilnya kita akan punya filter yang
  • 00:41:59
    jauh lebih kecil ya yang ukurannya
  • 00:42:01
    adalah seperti ini ya m di-uri f + 1 ya
  • 00:42:05
    Dik n - g + 1 Jadi tapi ini enggak usah
  • 00:42:09
    enggak usah dihafal ya rekan-rekan ya
  • 00:42:11
    cuman menunjukkan bahwa ada proses eh
  • 00:42:13
    reduksi ya
  • 00:42:15
    Eh parameternya ada tiga ya
  • 00:42:19
    Ukuran filter ya Ukuran filter itu ini
  • 00:42:20
    ya Ee pukuran filter yang berjalan untuk
  • 00:42:23
    mengecek semua area ya kemudian
  • 00:42:26
    filternya berapa banyak ya bisa satu
  • 00:42:28
    bisa lebih ya dan dua lagi ada dua lagi
  • 00:42:31
    Eh yang akan kita Jelaskan nanti ya ituu
  • 00:42:33
    stripe and padding ya itu istilah di CNN
  • 00:42:37
    ya Nah Contohnya bagaimana dengan yang
  • 00:42:40
    eh filter ya contohnya kita punya input
  • 00:42:44
    eh 32 * 32 * 3 ya 32 * 32 * 3 maka jika
  • 00:42:53
    kita gunakan filter yang besarnya ini ya
  • 00:42:57
    5 * 5 * 3 ya maka kita akan punya gambar
  • 00:43:01
    produksi hasil dari sini yang dari 32 *
  • 00:43:04
    32 * 3 menjadi seperti ini 28 * 28 * 6
  • 00:43:09
    ya jadi di sini akan nanti eh di sini
  • 00:43:12
    m-nya itu adalah 32 ya dikurangi eh
  • 00:43:16
    filternya itu adalah 5 ya 32* dikurang 5
  • 00:43:19
    itu berapa eh 27 ya 27 terus kemudian
  • 00:43:23
    ditambah 1 jadi dia hasil akhirnya akan
  • 00:43:25
    28 ya dikali 2 28 juga karena ini sama
  • 00:43:28
    ya ee apa ee apa panjang dan lebarnya
  • 00:43:31
    sama kemudian ada 6 filter jadi dia
  • 00:43:34
    kalikan 6 di sini ya Jadi ini kita
  • 00:43:37
    tunjukkan dari dari sebesar ini dengan
  • 00:43:39
    besarnya filter tertentu dengan jumlah
  • 00:43:41
    filter tertentu Maka hasilnya akan
  • 00:43:43
    sebesar ini dan ini tentunya akan ee
  • 00:43:47
    lebih kecil dari ini ya ini proses basic
  • 00:43:50
    Bagaimana mereduksi ee fitur di eh cnr
  • 00:43:54
    ya Nah ee di sini eh dicek juga we may
  • 00:43:59
    have multiple filter for setiap eh
  • 00:44:02
    setiap layer eh mempelajari different
  • 00:44:05
    fitur ya ya jadi k filter banyak itu
  • 00:44:07
    tujuannya apa sih bukan hanya masalah
  • 00:44:08
    angka tapi ada yang mempelajari e
  • 00:44:10
    bagaimana ee ketajaman pinggir gambar
  • 00:44:13
    Bagaimana dengan jenis data blobs
  • 00:44:15
    Bagaimana dengan warna Bagaimana dengan
  • 00:44:18
    lengkungan Ya itu bisa diwakili dengan
  • 00:44:21
    eh masing-masing filter ya nah eh
  • 00:44:27
    salah satu dari hper parameter tadi
  • 00:44:29
    stride ya stride itu seberapa banyak
  • 00:44:32
    filter itu bergeser sepanjang waktu ya
  • 00:44:35
    Eh semakin besar gesernya Maka hasilnya
  • 00:44:38
    itu akan semakin kecil ya gambar
  • 00:44:41
    contohnya di sini adalah kita cek ya
  • 00:44:44
    kita punya awal ini kan di sini satu ada
  • 00:44:48
    filternya 3* 3 ya Eh nah 3 * 3 dibaca
  • 00:44:54
    maka representasinya adalah di sini
  • 00:44:55
    kemudian di sini geser 1 3 * 3 dibaca
  • 00:44:59
    adalah ini nah ini hasil dari
  • 00:45:01
    stride-nya hasil dari filternya dibaca
  • 00:45:03
    ya di sini dan lain sebagainya Oke dan
  • 00:45:06
    em apa namanya formulanya sama tadi B
  • 00:45:09
    dikurangi F eh apa W itu adalah
  • 00:45:13
    eh apa eh filter besar ya dikurangi eh
  • 00:45:18
    filter kecil ya Eh apa gambar Besar 2 W
  • 00:45:21
    ya panjang gambar besar f itu Adah ee
  • 00:45:26
    panjangnya eh eh filternya ya dibagi S
  • 00:45:31
    eh stright-nya berapa kemudian ditambah
  • 00:45:34
    1 ya hasilnya itu adalah seperti itu
  • 00:45:37
    gambar besarnya gambar akhir itu seperti
  • 00:45:39
    itu contohnya misalkan di
  • 00:45:42
    sini kalau straight-nya itu ee 3 ya
  • 00:45:47
    untuk gambar yang besarnya 32 * 32 tadi
  • 00:45:51
    dengan filter besarnya 5 * 5 ya 30 * 2
  • 00:45:56
    dikurang eh 5 kan tadi 27 ya di sini
  • 00:46:00
    kita cek e
  • 00:46:01
    27 ya 27 dibagi dibagi 3 ya 1 ya jadi
  • 00:46:09
    dia hasil hasil gambar akhirnya adalah
  • 00:46:12
    10 itu 10 Kal di sini adalah 10 * 10 ya
  • 00:46:16
    in adalah gambar akhir hasil dari stri e
  • 00:46:21
    sebanyak 3 tadi ya Nah contohnya gambar
  • 00:46:24
    ini 5* 5 gambar 5* 5 ya eh kemudian eh
  • 00:46:29
    inputnya adalah 3* 3 ya ini layeran di
  • 00:46:33
    seperti itu gambaran Nah itu kalau kita
  • 00:46:36
    mau mereduksi kita pakai stri Nah kalau
  • 00:46:40
    kita mauerbesar kita pakai Pading ya
  • 00:46:43
    Jadi kalau dari kecil membesar atau
  • 00:46:44
    menjadikan e habis kita lakukan proses
  • 00:46:48
    TR Ternyata kita peroleh gambar yang
  • 00:46:50
    kecil ya tapi kemudian kita ingin
  • 00:46:53
    Kembalikan ke yang awal maka kita
  • 00:46:55
    gunakanalading
  • 00:46:57
    ada beberapa kondisi di mana kita ingin
  • 00:46:59
    ke gambar yang eh besarnya sama di awal
  • 00:47:04
    karena biar mungkin kita samakan dengan
  • 00:47:07
    fitur-fitur yang lain besarnya sama gitu
  • 00:47:09
    ya itu dan Pading bisa kita
  • 00:47:13
    Oke
  • 00:47:15
    E dan setelah kita proses confation itu
  • 00:47:19
    kita masuk ke proses yanging and
  • 00:47:22
    connected
  • 00:47:24
    yaing tadi kita sebut sampling layer
  • 00:47:28
    mereduksi ukuran ukuran eh apa namanya
  • 00:47:31
    pikel tadi ya Eh mereduksi
  • 00:47:34
    eh size eh spal ya spal size to reduce
  • 00:47:39
    the amount of parameter mereduksi jumlah
  • 00:47:41
    parameter dan tentunya akan mereduksi
  • 00:47:43
    juga eh proses komputasi ya dan juga
  • 00:47:46
    yang terakhir control overfitting
  • 00:47:48
    Seperti yang saya ceritakan ya Dan Dia
  • 00:47:51
    Eh beroperasi secara independen pada
  • 00:47:55
    setiap layernya atau Dep SL of the input
  • 00:47:58
    ya Jadi tidak bergantung dari yang lain
  • 00:48:01
    ya contohnya
  • 00:48:02
    E ini contohnya Ini yang paling sering
  • 00:48:06
    adalah ya most commonnya menggunakan Max
  • 00:48:08
    pooling ya ini contoh Max pooling di
  • 00:48:10
    sini ya other l common kita pakai
  • 00:48:12
    average poing ya contohnya begini
  • 00:48:14
    misalkan ini 1 5 6 ya kita pakai Max
  • 00:48:17
    pooling maka dari dari 4 pikselnya kita
  • 00:48:20
    ambil angka 6 di sini ya 24 78 kita
  • 00:48:24
    ambil angka 8 ya 32 1 kita ambil angka
  • 00:48:27
    tig di sini 1034 kita ambil angka 4 nah
  • 00:48:31
    ini contohnya e pulling tadi merubah
  • 00:48:33
    dari sini ke sini
  • 00:48:34
    ya ya Nah kalau sudah jadi sini baru
  • 00:48:37
    kita masukkan ke fully connected layer
  • 00:48:39
    di sini yang seperti neural eh networop
  • 00:48:42
    biasanya ya pakai pakai apa namanya eh
  • 00:48:47
    back propagation pakai eh apa eh apa apa
  • 00:48:51
    eh forward propagation dan dan lain
  • 00:48:54
    sebagainya ya
  • 00:48:55
    ee Eh tapi e CNN yang lebih baru nanti
  • 00:48:58
    ada beberapa jenis CNN tidak gunakan
  • 00:49:00
    coing dan fully connected layer Ya ya
  • 00:49:02
    nanti kita cek
  • 00:49:04
    lagi nah ini contoh implementasi CNN ke
  • 00:49:08
    civar 10 dataset ya suatu dataset yang
  • 00:49:10
    jumlahnya itu adalah 60.000 gambar ya
  • 00:49:14
    masing-masing itu 32* 32 eh piksel ya
  • 00:49:19
    dengan kelasnya 10 ada kelas gambar
  • 00:49:22
    orang gambar binatang gambar pesawat
  • 00:49:24
    gambar mobil ya terus dari gambar itu
  • 00:49:27
    ini untuk pembelajaran Sebenarnya ya
  • 00:49:29
    dari gambar itu kita kasih gambar baru
  • 00:49:31
    terus ee ee ee dengan menggunakan CNN
  • 00:49:35
    kita deteksi gambar itu Gambar masuk
  • 00:49:37
    kelompok mana Dari dari dataset yang
  • 00:49:40
    tersebut ya ini problem eh image
  • 00:49:42
    classification ya Eh inputnya eh 32 * 30
  • 00:49:48
    * 3 RGB ya ya atau 32 outputnya
  • 00:49:52
    probability the image being on certain
  • 00:49:55
    class Apa contohnya Kemungkinan dia 80%
  • 00:49:59
    kucing 50% anjing atau 0 0,5% burung ya
  • 00:50:04
    misalkan
  • 00:50:05
    jadi yang kita lihat tadi sepertinya
  • 00:50:09
    canggih melihat gambar sebenarnya yang
  • 00:50:11
    kita lihat tuh loh seperti ini yang
  • 00:50:12
    dilihat komputer jadi dia lihat ee
  • 00:50:15
    konfigurasi dari angka-angka yang ada di
  • 00:50:17
    sini ya seperti itu ya jadi eh kesannya
  • 00:50:22
    seperti ee canggih padahal sebenarnya ee
  • 00:50:25
    prosesnya adalah proses eh numerik di
  • 00:50:28
    dalam
  • 00:50:29
    ya Nah ada proses eh menarik yang perlu
  • 00:50:33
    di
  • 00:50:34
    eh sampaikan di keunggulan dari Deep
  • 00:50:37
    learning itu yang kita sebut sebagai
  • 00:50:39
    transfer learning Ya ini sangat menarik
  • 00:50:41
    karena Eh kalau kita melakukan training
  • 00:50:45
    ya training training suatu model kita
  • 00:50:48
    selalu punya input ya kita
  • 00:50:51
    punyaation tadi kita punya conected
  • 00:50:55
    layerification ya nah proses ini kalau
  • 00:50:58
    kita melakukan sendiri dari awal sampai
  • 00:51:00
    akhir maka ini kita butuh dataaset yang
  • 00:51:02
    sangat besar ya tentunya harus e
  • 00:51:05
    semuanya dimasukkan dan proses komputasi
  • 00:51:07
    yang besar kemudian kita juga harus
  • 00:51:09
    melakukan proses namanya customiz Sof ya
  • 00:51:12
    softmax itu adalah
  • 00:51:14
    eh output yang akan kita
  • 00:51:17
    eh propose ya Apakah kalau seperti ini
  • 00:51:22
    dia pengaturan ataunya dia kapan dia eh
  • 00:51:27
    burung kapan dia 30% dia anjing dan lain
  • 00:51:32
    sebagainya jadi ini adalah namanya soft
  • 00:51:34
    yang kita
  • 00:51:35
    eh apa Atur ya Yang yang kita atur
  • 00:51:39
    supaya e e apa namanya mesinnya itu eh
  • 00:51:43
    sesuai dengan eh ekspektasi yang kita
  • 00:51:45
    inginkan ya Nah kalau kita ada kesalahan
  • 00:51:48
    contohnya di eh klasifikasi ini kita
  • 00:51:50
    harus meretrain semuanya kita harus
  • 00:51:52
    melakukan proses retraining semuanya ya
  • 00:51:54
    dan ini akan jadi sangat mahal ya
  • 00:51:56
    kemudian ada ada kondisi di mana kita
  • 00:51:58
    ggak perlu meretrain semua ini sudah
  • 00:52:00
    dilakukan orang ya Eh convolutionnya
  • 00:52:03
    sudah apa beberapa proses convolusionnya
  • 00:52:06
    sudah dilakukan orang kita ambil aja
  • 00:52:07
    setengah di situ kita customiz lagi
  • 00:52:11
    Apakah kita mau melakukan proses reduksi
  • 00:52:14
    lebih dalam atau tidak kalau lebih dalam
  • 00:52:17
    ya kita lakukan lagi di sini kemudian
  • 00:52:18
    fully connected layer dan softnya kita
  • 00:52:22
    atur kita hanya sibuk di area sini saja
  • 00:52:25
    ya kita hanuk di are
  • 00:52:27
    itu tetap ini dataasnya besar ya karena
  • 00:52:30
    modelnya hasilnya kan besar ya seperti
  • 00:52:32
    kemarin itu eh untuk gpt3 itu juga
  • 00:52:35
    sangat besar kan datetnya ya kemudian
  • 00:52:38
    customiz effect tetap kita lakukan
  • 00:52:40
    kemudian
  • 00:52:41
    retraining layer clification layer atly
  • 00:52:44
    connected layer yang layer yang ini kita
  • 00:52:48
    freeze jadi kita engak lakukan proses
  • 00:52:50
    apa-apa kita langsung Pak Nah ini
  • 00:52:52
    keunggulan dari Deep learning seperti
  • 00:52:54
    itu atau yang akhir yang lebih menarik
  • 00:52:57
    lagi
  • 00:52:59
    kita semuanya dilakukan oleh mesin Ya
  • 00:53:02
    sudah selesai tapi kita hanya perlu ee
  • 00:53:05
    melakukan ee apa konfigurasi di bagian
  • 00:53:10
    akhir aja ya di klasifikasinya aja ini
  • 00:53:13
    namanya train Top Model ya datasetnya
  • 00:53:15
    jadi kecil kita perlu softm-nya juga
  • 00:53:18
    masih perlu karena kita yang paling
  • 00:53:19
    penting adalah membuat batas Kapan ee
  • 00:53:23
    suatu ee model ee suatu gambar itu masuk
  • 00:53:27
    kelompok mana kelas mana dan la
  • 00:53:29
    sebagainya ini kita customiz ya kemudian
  • 00:53:32
    fitur-fitur yang lain tentunya kita akan
  • 00:53:33
    ee freeze di sini ya kita akan freeze eh
  • 00:53:37
    tidak kita proses apa-apa lagi ya yang
  • 00:53:41
    kita lakukan pengulangan adalah retin
  • 00:53:44
    klasifikasi yang di area sini ya seperti
  • 00:53:47
    itu ya Oke jadi eh apa makna dari
  • 00:53:51
    transfer learning Yang Pertama eh suatu
  • 00:53:54
    teknik Mine learning di mana model yang
  • 00:53:56
    sudah ditrain untuk suatu ee problem
  • 00:53:59
    tertentu itu digunakan kembali untuk
  • 00:54:02
    problem yang lain ya kita sebut sebagai
  • 00:54:05
    using preetrain model ya Eh kenapa kita
  • 00:54:08
    perlu melakukan itu karena eh kita
  • 00:54:11
    Em eh hanya perlu eh dataset yang lebih
  • 00:54:16
    kecil ya kita perlu senangnya yang lebih
  • 00:54:17
    kecil ya tidak tidak perlu yang
  • 00:54:19
    besar-besar sehingga kita avoid e
  • 00:54:21
    overfitting di sini ya kemudian proses
  • 00:54:24
    trainingnya juga jauh lebih cepat ya
  • 00:54:26
    langsung bisa dipakai ya dan ternyata
  • 00:54:29
    saat ini banyak sekali open source model
  • 00:54:31
    yang sudah hampir setengah jadi tinggal
  • 00:54:34
    kita trade bagian akhir atau bagian
  • 00:54:36
    mulai dari tengah atau mulai dari akhir
  • 00:54:38
    aja ya contohnya ada imagenet ada Coco
  • 00:54:41
    ada Kil ini Bisa dicek di internet ya
  • 00:54:45
    Kita juga bisa download eh open source
  • 00:54:47
    implementation dari neural network bukan
  • 00:54:50
    hanya kodenya bukan kode tapi juga model
  • 00:54:53
    dan weight yang sudah ditrain jadi
  • 00:54:57
    segini ini ini sudah bisa kita gunakan
  • 00:55:00
    terus kita tinggal customize saja
  • 00:55:02
    belakang ya ini sangat-sangat
  • 00:55:03
    menguntungkan ya eh next jadi
  • 00:55:07
    contohnya untuk CNN sendiri CNN sendiri
  • 00:55:09
    itu perkembangannya sudah sangat luar
  • 00:55:11
    biasa ya yang dijelaskan tadi itu adalah
  • 00:55:14
    eh penjelasan umum saja jadi proses di
  • 00:55:17
    dalamnya itu sebenarnya ee Kompleks ya
  • 00:55:20
    dan banyak sekali eh apa variasinya dari
  • 00:55:24
    setiap jenis CNN yang ada ya ya
  • 00:55:26
    contohnya dari cnn-cnn sendiri ini
  • 00:55:28
    sudahudah banyak sekali ya dan
  • 00:55:31
    EE saling bertanding untuk menunjukkan
  • 00:55:33
    mana yang paling akurat ya ini ada
  • 00:55:36
    nama-namanya dan ini adalah akurasinya
  • 00:55:38
    ya Nah contohnya pun eh itu yang vgg ya
  • 00:55:42
    ini bentuknya juga jauh lebih kompleks
  • 00:55:44
    dari yang punya kita tadi ya yang saya
  • 00:55:47
    jelaskan tadi ya kemudian ada resnet
  • 00:55:49
    kemudian ada insception ya yang EE
  • 00:55:52
    paling tinggi ini akurasinya ya dan ada
  • 00:55:55
    juga untuk yang mobile interet ya jadi
  • 00:55:57
    ee
  • 00:55:59
    ee perkembangan ini sangat eh luar biasa
  • 00:56:02
    Dan saya tidak expect juga supaya
  • 00:56:06
    rekan-rekan itu
  • 00:56:07
    eh selalu update atau selalu paham
  • 00:56:11
    sampai kondisi terakhir namun
  • 00:56:14
    Eh tapi eh ngerti gitu ya ngerti bahwa
  • 00:56:18
    arah perkembangan untuk eh data analtik
  • 00:56:22
    itu saat ini ke arah mana dan Bagaimana
  • 00:56:24
    peran big data di eh data analtik yang
  • 00:56:27
    saat ini dan ke depannya Bagaimana eh
  • 00:56:30
    kecenderungan kita untuk menuju ke
  • 00:56:32
    kecerdasan artifisial yang menggunakan
  • 00:56:34
    model-model dari Deep learning ini Ya
  • 00:56:37
    baik begitu kuliah kita hari ini eh eh
  • 00:56:41
    untuk assignment ya Saya ingin eh
  • 00:56:44
    rekan-rekan untuk mencari real use case
  • 00:56:46
    atau Real use case dari implementasi
  • 00:56:49
    dari use case atau implementasi dari
  • 00:56:52
    Deep learning kemudian Tolong dijelaskan
  • 00:56:56
    metodologinya ya tolong jelaskan
  • 00:56:58
    metodologi karena metodologinya sangat
  • 00:56:59
    banyak luar itu aja yang bisa ee saya
  • 00:57:03
    sampaikan untuk kuliah Minggu 11 kali
  • 00:57:05
    ini ee Sampai ketemu di kelas ya
الوسوم
  • Deep Learning
  • Machine Learning
  • CNN
  • GAN
  • Transfer Learning
  • Data
  • Artificial Intelligence
  • Neural Networks
  • Image Processing
  • Natural Language Processing