Kehebatan dan Kekurangan AI di Kehidupan Masyarakat Sekarang #KICKANDY

00:11:25
https://www.youtube.com/watch?v=7AssyN0GLYo

Resumen

TLDRDiskusi ini membahas ketakutan terhadap perkembangan teknologi, khususnya kecerdasan buatan (AI) di Indonesia. Pembicara menyoroti bahaya hoaks yang dapat disebarkan melalui AI dan pentingnya literasi AI untuk masyarakat. Mereka juga membahas bias dalam data yang digunakan oleh AI, yang dapat mempengaruhi keputusan hukum dan menciptakan ketidakadilan. Selain itu, ada kekhawatiran tentang pengangguran akibat otomatisasi pekerjaan, meskipun ada juga peluang pekerjaan baru yang muncul. Penekanan pada pentingnya pemikiran kritis dan analisis manusia dalam penggunaan teknologi menjadi fokus utama.

Para llevar

  • 🤖 Pentingnya literasi AI untuk memahami batasan dan kekurangan.
  • ⚠️ Hoaks yang disebarkan melalui AI dapat menimbulkan kekacauan.
  • 📊 Data yang digunakan oleh AI seringkali memiliki bias.
  • 👥 Pengangguran akibat otomatisasi menjadi perhatian serius.
  • 💡 Perlu pemikiran kritis dalam penggunaan teknologi.
  • 📈 AI dapat menciptakan peluang pekerjaan baru.
  • ⚖️ Keputusan hukum harus mempertimbangkan bias data.
  • 📝 Penulisan dan kreativitas manusia tetap diperlukan.
  • 🚗 Tanggung jawab hukum dalam teknologi harus jelas.
  • 🔍 Edukasi masyarakat tentang AI sangat penting.

Cronología

  • 00:00:00 - 00:05:00

    Perbincangan mengenai ketakutan terhadap perkembangan teknologi, khususnya kecerdasan buatan (AI), di Indonesia. Ditekankan bahwa banyak orang, terutama di daerah, mungkin terpengaruh oleh informasi yang salah atau hoax yang disebarkan melalui AI. Pentingnya literasi AI dijelaskan, di mana masyarakat perlu memahami batasan dan kekurangan AI, serta masalah yang dapat dan tidak dapat diselesaikan oleh teknologi ini. Penekanan pada perlunya edukasi tentang hoax dan bias dalam data yang digunakan oleh AI.

  • 00:05:00 - 00:11:25

    Diskusi berlanjut mengenai dampak AI terhadap pekerjaan, di mana banyak pekerjaan seperti kasir, jurnalis, dan penulis lagu mulai hilang akibat kemampuan AI. Meskipun ada pekerjaan baru yang tercipta, kekhawatiran tentang pengangguran meningkat. Ditekankan bahwa meskipun AI dapat menghasilkan tulisan yang baik, kreativitas dan pemikiran manusia tetap diperlukan. Peran manusia dalam menentukan batasan dan tanggung jawab hukum terkait AI juga dibahas, menunjukkan bahwa meskipun teknologi berkembang, peran manusia dalam pengambilan keputusan tetap penting.

Mapa mental

Vídeo de preguntas y respuestas

  • Apa yang menjadi ketakutan utama terkait perkembangan teknologi di Indonesia?

    Ketakutan utama adalah penyebaran hoaks melalui teknologi AI dan dampaknya terhadap masyarakat.

  • Mengapa literasi AI penting?

    Literasi AI penting untuk memahami batasan dan kekurangan AI, serta untuk mengedukasi masyarakat tentang potensi bahaya.

  • Apa contoh bias dalam data yang digunakan oleh AI?

    Contoh bias adalah perbedaan penilaian terhadap kalimat dalam bahasa Inggris biasa dan African American English.

  • Bagaimana AI mempengaruhi pekerjaan?

    AI dapat menghilangkan beberapa pekerjaan, tetapi juga menciptakan peluang baru.

  • Apa yang harus dilakukan untuk mengatasi masalah pengangguran akibat AI?

    Penting untuk mengembangkan keterampilan baru dan memahami peran manusia dalam proses yang didukung AI.

Ver más resúmenes de vídeos

Obtén acceso instantáneo a resúmenes gratuitos de vídeos de YouTube gracias a la IA.
Subtítulos
id
Desplazamiento automático:
  • 00:00:05
    kembali ke soal ketakutan tentang
  • 00:00:07
    perkembangan teknologi beberapa waktu
  • 00:00:09
    kalau di Indonesia ini beberapa waktu
  • 00:00:11
    yang lalu kan bahkan ada Menteri
  • 00:00:13
    Keuangan Sri Mulyani yang di videonya
  • 00:00:16
    yang sangat meyakinkan itu dia
  • 00:00:19
    menjanjikan orang-orang dapat R juta
  • 00:00:22
    untuk modal gitu kan jadi bagi
  • 00:00:26
    orang-orang dengan pendidikan yang baik
  • 00:00:28
    ya dan juga menggun akan ee kemampuan
  • 00:00:32
    akal Budinya tahu bahwa itu Hoa itu
  • 00:00:35
    bohong dan itu adalah permainan dari Ai
  • 00:00:38
    Iya tapi Berapa banyak orang yang
  • 00:00:41
    percaya di daerah-daerah terutama
  • 00:00:44
    artinya kan ini juga akan menimbulkan
  • 00:00:45
    kekacauan di masa depan kalau itu
  • 00:00:47
    semakin sempurna semakin mudah
  • 00:00:50
    dimanfaatkan Jadi kalau sampai di sini
  • 00:00:53
    ketakutannya Bagaimana ini itu sangat
  • 00:00:55
    perlu ditakuti dan itulah yang menurut
  • 00:00:58
    saya adalah bagian Dar dari yang saya
  • 00:01:01
    katakan literasi artificial intelligence
  • 00:01:04
    sampai saat ini menurut saya Kebanyakan
  • 00:01:06
    kalau kita berbicara tentang literasi
  • 00:01:08
    artificial intelligence itu kita selalu
  • 00:01:10
    berbicara Oh kita itu cukup
  • 00:01:12
    eh kenal dengan artificial intelligence
  • 00:01:15
    tetapi banyaknya itu saya rasa kita
  • 00:01:17
    kenal Kita pernah dengar atau kita
  • 00:01:20
    menggunakan tapi kita tidak tahu pertama
  • 00:01:23
    batas dari artificial intelligence
  • 00:01:26
    kekurangan-kekurangan artificial
  • 00:01:28
    intelligence dan yang paling penting
  • 00:01:31
    sekali kita juga tidak tahu apa yang
  • 00:01:34
    bisa dipecahkan oleh artificial
  • 00:01:35
    intelligence masalah apa yang bisa
  • 00:01:37
    dipecahkan oleh artificial intelligence
  • 00:01:39
    dan masalah apa yang tidak bisa
  • 00:01:40
    dipecahkan oleh artificial intelligence
  • 00:01:43
    Jadi sebenarnya kalau saya boleh usul
  • 00:01:46
    Bang Andi perlu juga di media itu selalu
  • 00:01:49
    kebanyakan tentang begitu hebatnya
  • 00:01:51
    artificial intelligence tapi sebenarnya
  • 00:01:54
    kekurangan-kekurangan artificial
  • 00:01:55
    intelligence itu juga banyak Bang Andi
  • 00:01:58
    dan kalau itu lebih banyak
  • 00:02:00
    dipublikasikan kita lebih mungkin kita
  • 00:02:03
    lebih bisa mengedukasikan masyakarat
  • 00:02:05
    kita artificial intelligence itu ada
  • 00:02:07
    banyak batasannya satu hoax itu ya Jadi
  • 00:02:10
    kalau kita bisa eh lebih banyak lagi
  • 00:02:12
    membilang ini loh Ternyata banyak hoax
  • 00:02:15
    eh itu itu akan mendukung saya orang
  • 00:02:18
    jadi lebih waspada orang jadi lebih
  • 00:02:20
    waspada satu lagi ee kalau saya boleh
  • 00:02:23
    angkat ini adalah suatu masalah yang
  • 00:02:26
    sangat penting apa itu sebenarnya
  • 00:02:28
    artificial intelligence saya baru baca
  • 00:02:30
    saya lupa statistik dari mana sekitar 78
  • 00:02:33
    orang Indonesia waktu disurvei Apakah
  • 00:02:35
    kalian mengerti tentang artificial
  • 00:02:37
    intelligence Ya saya sangat tahu
  • 00:02:38
    artificial intelligence tetapi terus
  • 00:02:41
    terang saja saya rasa tahunya itu karena
  • 00:02:43
    sering mendengar kata-kata artificial
  • 00:02:45
    intelligence tapi kalau ditanya apa itu
  • 00:02:47
    sebenarnya artificial intelligence
  • 00:02:49
    mungkin kita semua belum terlalu yakin
  • 00:02:52
    kalau saya boleh eh cerita secara
  • 00:02:56
    gampangannya ya artificial intelligence
  • 00:02:59
    itu yang sekarang yang kita banyak
  • 00:03:01
    omongkan itu
  • 00:03:02
    adalah
  • 00:03:05
    menggunakan
  • 00:03:06
    statistik untuk melihat pola-pola dari
  • 00:03:10
    data yang sudah ada
  • 00:03:12
    sehingga mungkin bisa statistik itu
  • 00:03:15
    pertama itu sangat bergantung kepada
  • 00:03:18
    datanya Nah namanya juga statistik jadi
  • 00:03:23
    Itulah data-datanya itu bisa dikumpulkan
  • 00:03:25
    dan bisa dibuat untuk sesuatu yang tidak
  • 00:03:27
    benar karena
  • 00:03:30
    dari kecil dari situ kecil dari sini
  • 00:03:32
    kecil dari sini Jadi maksudnya se Tadi
  • 00:03:33
    yang contohnya e Ibu Sri Mulyani ya kan
  • 00:03:36
    fotonya ibu sriam sudah banyak datanya
  • 00:03:38
    ee videonya sudah banyak terus yang
  • 00:03:41
    bilang tentang R juta juga ada suaranya
  • 00:03:44
    juga ada nah itu jadi bisa satu-satusatu
  • 00:03:46
    dikumpulkan hinggalah menjadi eh menjadi
  • 00:03:49
    satu yang sebenarnya eh secara ini eh eh
  • 00:03:52
    adalah hoax tapi secara statistik itu
  • 00:03:55
    benar maksudnya benar Datanya ada itu
  • 00:03:58
    dikumpulkan itu satu Datanya ada Yang
  • 00:04:00
    kedua kita harus waspada bahwa data itu
  • 00:04:03
    punya bias-bias Bang Andi data itu kan
  • 00:04:06
    yang tersedia itu bias karena data itu
  • 00:04:09
    kan tidak objektif semu yang yang
  • 00:04:11
    tersedia ya Ada beberapa instansi atau
  • 00:04:14
    orang atau negara atau budaya yang lebih
  • 00:04:17
    banyak mengeluarkan data dibandingkan
  • 00:04:19
    dengan budaya-budaya lain misalnya ee
  • 00:04:22
    data mengenai gaji laki-laki dan gaji
  • 00:04:26
    perempuan itu tentu saja berbeda ya kan
  • 00:04:28
    Nah itu ada biasnya Saya mau cerita satu
  • 00:04:30
    yang sangat menarik nih Bang Andi dari
  • 00:04:32
    penelitian eh ini salah satu kolega saya
  • 00:04:35
    di Stanford
  • 00:04:36
    em penelitian ini meneliti di Amerika
  • 00:04:39
    Serikat jadi ini keadaan Amerika Serikat
  • 00:04:41
    ada orang kulit putih dan orang kulit
  • 00:04:43
    hitam dan eh dia bertanya kepada
  • 00:04:47
    eh ai large language model chatgpt
  • 00:04:51
    chatgpt 4 chatgpt3 gitu dia bertanya Oke
  • 00:04:55
    ini ada masukan kalimat nah kalimat ini
  • 00:04:59
    atau pakai eh kalimat Inggris biasa e
  • 00:05:03
    how are you doing today gitu atau
  • 00:05:05
    kalimat
  • 00:05:06
    eh African American English Jadi ada eh
  • 00:05:12
    How do you do today gitu Jadi ada
  • 00:05:14
    African American english-nya nah
  • 00:05:16
    ternyata waktu ditanya C jpti ini siapa
  • 00:05:19
    yang pintar siapa yang kurang pintar C
  • 00:05:22
    jptinnya bilang yang
  • 00:05:25
    pakai kalimat Inggris biasa itu pintar
  • 00:05:28
    yang pakai f ameran inris ini kurang
  • 00:05:32
    pintar nah ini bukan cat gpt-nya bias ya
  • 00:05:36
    tapi datanya itu begitu tapi yang lebih
  • 00:05:39
    menyeramkan lagi Bang Andi di penelitian
  • 00:05:41
    yang sama dia tanya Karena sekarang Eh
  • 00:05:43
    eh artificial intelligence itu juga
  • 00:05:45
    dipakai untuk e menentukan
  • 00:05:48
    hukuman jadi berdasarkan data itu siapa
  • 00:05:52
    yang hukumannya hukumannya Itu berapa
  • 00:05:55
    Berapa Berat berapa tahun penjara gitu
  • 00:05:58
    nah waktu di penelitian itu dia
  • 00:06:00
    menanyakan Oh ini masukan dari yang
  • 00:06:02
    pakai e Inggris biasa yang satu masukan
  • 00:06:06
    pakai African American English ccipiti
  • 00:06:09
    bilang untuk yang ini hukumannya dua
  • 00:06:12
    kali lipat
  • 00:06:13
    dipenjarakan karena datanya bias untuk
  • 00:06:17
    kasus yang sama untuk kasus yang sama
  • 00:06:20
    persis kalimatnya tuh persis Bang Andi
  • 00:06:22
    artinya berbahaya sekali kalau
  • 00:06:24
    kita tergantung pada teknologi begitu
  • 00:06:27
    kan kesimpulannya Kita pasti harus
  • 00:06:30
    menggunakan teknologi tapi kita juga
  • 00:06:33
    harus bisa tentu saja menganalisa dan
  • 00:06:37
    kembali pengertian itu bahwa data itu
  • 00:06:39
    bias karena kita selalu Ee Kita selalu
  • 00:06:42
    bilang oh kalau ini sangat objektif
  • 00:06:44
    betul kadang lebih objektif ya Tetapi
  • 00:06:46
    ada juga bias-biasnya kita harus waspada
  • 00:06:48
    itu Oke ini paling tidak kita lebih
  • 00:06:51
    hati-hati ya tapi kalau ancaman
  • 00:06:54
    pengangguran ini kan sudah terbukti juga
  • 00:06:57
    banyak pekerjaan yang hilang wupun ada
  • 00:06:59
    yang bilang ada juga pertanya eh
  • 00:07:01
    pekerjaan yang nambah nambah gituah tapi
  • 00:07:04
    yang kurang-kurang ini kan Cepat sekali
  • 00:07:06
    ya kita lihat sejumlah pekerjaan hilang
  • 00:07:09
    dan pengangguran dikhawatirkan akan
  • 00:07:11
    meningkat soal ini bagaimana jawaban
  • 00:07:13
    anda ya yang Bang Andi sudah lihat apa
  • 00:07:16
    terutama di bidang apa yang lebih Oh di
  • 00:07:19
    dari mulai kasir data analis terus
  • 00:07:23
    jurnalis sudah mulai kehilangan
  • 00:07:25
    pekerjaan karena kemampuan E saya ini
  • 00:07:27
    kan hobinya menulis he Jadi kalau Saya
  • 00:07:29
    mau menulis apa-apa saya cek dengan ini
  • 00:07:31
    bagusan dia bikinnya jadi saya bilang
  • 00:07:34
    enggak ada gunanya selama ini pengalaman
  • 00:07:36
    saya selama 45 tahun jadi wartawan oh
  • 00:07:39
    nah terus song writers dan lain-lain
  • 00:07:42
    banyak sekali pekerjaan ya kalau kita
  • 00:07:43
    bicara kasir bicara itu sudah hilanglah
  • 00:07:45
    semua kita sekarang juga tanya soal
  • 00:07:47
    kesehatan kita dijawab juga dan kita
  • 00:07:49
    mulai percaya apalagi gratisah sehingga
  • 00:07:53
    kita tidak perlu lagi Konsultasi sama
  • 00:07:54
    dokter Misalnya ini kan berbahaya Iya
  • 00:07:56
    nah sampai di sini bagaimana anda
  • 00:07:59
    melihat kemungkinan banyak orang
  • 00:08:01
    menganggur Iya
  • 00:08:04
    saya rasa kembali kita kalau E kalau
  • 00:08:06
    kita lihat lagi artificial intelligence
  • 00:08:08
    Ya itu kan menggunakan statistik jadi
  • 00:08:12
    harus itu statistik berdasarkan data Nah
  • 00:08:16
    kalau
  • 00:08:18
    penulisan saat ini mungkin Bangi bisa
  • 00:08:20
    melihat bahwa Oh kadang-kadang dia
  • 00:08:22
    menulisnya lebih bagus ya bang and
  • 00:08:24
    tetapi karena A itu berdasarkan data
  • 00:08:28
    kalau dia yang harus mengeluarkan
  • 00:08:30
    datanya itu lama-lama akan turun
  • 00:08:33
    kualitasnya Bang Andi jadi penulisan itu
  • 00:08:36
    sebenarnya masih perlu sekali karena
  • 00:08:40
    yang bisa memikirkan apa yang mau
  • 00:08:42
    ditulis itu tetap jadi awal dari Data
  • 00:08:48
    datanya itu awal dari pemikirannya itu
  • 00:08:50
    tetap harus seorang yang seperti Bang
  • 00:08:52
    Andi ini dan dan juga Style ya dan juga
  • 00:08:55
    stylennya Nah itulah yang mungkin saya
  • 00:08:57
    pernah bilang kalau kitanya terlalu
  • 00:08:59
    sering menggunakan ee chat GPT untuk
  • 00:09:02
    menulis kita sendiri enggak pernah
  • 00:09:03
    menulis Bangi tadi bilang Bang bilang oh
  • 00:09:05
    lihat dia lebih bagus yang saya
  • 00:09:07
    khawatirkan lama-lama kita tidak bisa
  • 00:09:09
    tahu mana yang tulisan bagus mana yang
  • 00:09:11
    enggak bang Andi Ini juga sekarang kita
  • 00:09:13
    ketahu tapi karena susah juga e kalau
  • 00:09:16
    kalau kita sendiri tidak pernah
  • 00:09:17
    memproduksi ya nah jadi e Kalau menulis
  • 00:09:20
    jangan Bang Andi tetap harus itu tetapi
  • 00:09:24
    memang pasti di dalam setiap pergurakan
  • 00:09:26
    teknologi itu ada ee pekerja erjaan yang
  • 00:09:30
    hilang nah yang harus kita bisa lihat
  • 00:09:32
    itu tapi sebenarnya juga tercipta
  • 00:09:34
    pekerjaan-pekerjaan lain tapi mungkin
  • 00:09:37
    kita harus secara konkret Apa sih
  • 00:09:38
    pekerjaan yang tercipta terus terang
  • 00:09:40
    saja kalau saya bisa yang paling tidak
  • 00:09:43
    akan tergantikan dengan cat CPT itu apa
  • 00:09:48
    lawyer Kenapa e nanti semuanya pada pada
  • 00:09:51
    hukum nih hukum karena cgpt itu semakin
  • 00:09:56
    teknologinya itu e semakin berkembang
  • 00:09:59
    semakin kita manusia harus menentukan
  • 00:10:02
    apa batasnya Jadi sekarang misalnya C
  • 00:10:04
    CPT bisa menulis bisa membuat lagu
  • 00:10:07
    tetapi manusia kan harus menegakkan
  • 00:10:10
    hukumnya Sampai kapan copyright-nya akan
  • 00:10:13
    ke siapa
  • 00:10:14
    nih CPT ada self eh bukan cacipt Ai self
  • 00:10:18
    driving cars Tapi nanti kalau misalnya
  • 00:10:21
    itu kecelakaan yang tanggung jawab siapa
  • 00:10:23
    yang membuat k salah satu yang kemudian
  • 00:10:26
    driver juga Mulai tergantikan Iya tetapi
  • 00:10:29
    usanya itu kan yang harus memikirkan
  • 00:10:31
    manusia harus memikirkan jadi E itu
  • 00:10:33
    kesalahan siapa ditanggung siapa
  • 00:10:35
    peraturannya Bagaimana Jadi sebenarnya W
  • 00:10:38
    Policy Maker juga ggak akan kehilangan
  • 00:10:40
    kerjaan nih Kayaknya begitu saya
  • 00:10:42
    ngbayangin penangnya harus tanggung
  • 00:10:44
    jawab kan naik taksi enggak ada sopirnya
  • 00:10:47
    tabrakan ya kamu yang naik di situ Kamu
  • 00:10:49
    yang har tanggung jawab Oke menarik ini
  • 00:10:52
    banyak hal sebenarnya yang menjadi
  • 00:10:54
    pertanyaan yang hari ini belum bisa
  • 00:10:56
    dijawab ya tapi kecenderungan
  • 00:10:59
    cenderungan kan kita sudah bisa lihat
  • 00:11:00
    Iya saya cukup emosional kalau saya
  • 00:11:03
    mendengar IQ Orang Indonesia itu 80 saya
  • 00:11:05
    dengarnya aja juga emosi Iya karena
  • 00:11:07
    enggak ada gunanya Bang
  • 00:11:13
    Andi jelajahi cara baru mendapatkan
  • 00:11:16
    informasi download Metro TV extend
  • 00:11:19
    sekarang
Etiquetas
  • teknologi
  • kecerdasan buatan
  • AI
  • hoaks
  • literasi AI
  • data bias
  • pengangguran
  • pekerjaan baru
  • analisis kritis
  • masyarakat