00:00:05
kembali ke soal ketakutan tentang
00:00:07
perkembangan teknologi beberapa waktu
00:00:09
kalau di Indonesia ini beberapa waktu
00:00:11
yang lalu kan bahkan ada Menteri
00:00:13
Keuangan Sri Mulyani yang di videonya
00:00:16
yang sangat meyakinkan itu dia
00:00:19
menjanjikan orang-orang dapat R juta
00:00:22
untuk modal gitu kan jadi bagi
00:00:26
orang-orang dengan pendidikan yang baik
00:00:28
ya dan juga menggun akan ee kemampuan
00:00:32
akal Budinya tahu bahwa itu Hoa itu
00:00:35
bohong dan itu adalah permainan dari Ai
00:00:38
Iya tapi Berapa banyak orang yang
00:00:41
percaya di daerah-daerah terutama
00:00:44
artinya kan ini juga akan menimbulkan
00:00:45
kekacauan di masa depan kalau itu
00:00:47
semakin sempurna semakin mudah
00:00:50
dimanfaatkan Jadi kalau sampai di sini
00:00:53
ketakutannya Bagaimana ini itu sangat
00:00:55
perlu ditakuti dan itulah yang menurut
00:00:58
saya adalah bagian Dar dari yang saya
00:01:01
katakan literasi artificial intelligence
00:01:04
sampai saat ini menurut saya Kebanyakan
00:01:06
kalau kita berbicara tentang literasi
00:01:08
artificial intelligence itu kita selalu
00:01:10
berbicara Oh kita itu cukup
00:01:12
eh kenal dengan artificial intelligence
00:01:15
tetapi banyaknya itu saya rasa kita
00:01:17
kenal Kita pernah dengar atau kita
00:01:20
menggunakan tapi kita tidak tahu pertama
00:01:23
batas dari artificial intelligence
00:01:26
kekurangan-kekurangan artificial
00:01:28
intelligence dan yang paling penting
00:01:31
sekali kita juga tidak tahu apa yang
00:01:34
bisa dipecahkan oleh artificial
00:01:35
intelligence masalah apa yang bisa
00:01:37
dipecahkan oleh artificial intelligence
00:01:39
dan masalah apa yang tidak bisa
00:01:40
dipecahkan oleh artificial intelligence
00:01:43
Jadi sebenarnya kalau saya boleh usul
00:01:46
Bang Andi perlu juga di media itu selalu
00:01:49
kebanyakan tentang begitu hebatnya
00:01:51
artificial intelligence tapi sebenarnya
00:01:54
kekurangan-kekurangan artificial
00:01:55
intelligence itu juga banyak Bang Andi
00:01:58
dan kalau itu lebih banyak
00:02:00
dipublikasikan kita lebih mungkin kita
00:02:03
lebih bisa mengedukasikan masyakarat
00:02:05
kita artificial intelligence itu ada
00:02:07
banyak batasannya satu hoax itu ya Jadi
00:02:10
kalau kita bisa eh lebih banyak lagi
00:02:12
membilang ini loh Ternyata banyak hoax
00:02:15
eh itu itu akan mendukung saya orang
00:02:18
jadi lebih waspada orang jadi lebih
00:02:20
waspada satu lagi ee kalau saya boleh
00:02:23
angkat ini adalah suatu masalah yang
00:02:26
sangat penting apa itu sebenarnya
00:02:28
artificial intelligence saya baru baca
00:02:30
saya lupa statistik dari mana sekitar 78
00:02:33
orang Indonesia waktu disurvei Apakah
00:02:35
kalian mengerti tentang artificial
00:02:37
intelligence Ya saya sangat tahu
00:02:38
artificial intelligence tetapi terus
00:02:41
terang saja saya rasa tahunya itu karena
00:02:43
sering mendengar kata-kata artificial
00:02:45
intelligence tapi kalau ditanya apa itu
00:02:47
sebenarnya artificial intelligence
00:02:49
mungkin kita semua belum terlalu yakin
00:02:52
kalau saya boleh eh cerita secara
00:02:56
gampangannya ya artificial intelligence
00:02:59
itu yang sekarang yang kita banyak
00:03:01
omongkan itu
00:03:02
adalah
00:03:05
menggunakan
00:03:06
statistik untuk melihat pola-pola dari
00:03:10
data yang sudah ada
00:03:12
sehingga mungkin bisa statistik itu
00:03:15
pertama itu sangat bergantung kepada
00:03:18
datanya Nah namanya juga statistik jadi
00:03:23
Itulah data-datanya itu bisa dikumpulkan
00:03:25
dan bisa dibuat untuk sesuatu yang tidak
00:03:27
benar karena
00:03:30
dari kecil dari situ kecil dari sini
00:03:32
kecil dari sini Jadi maksudnya se Tadi
00:03:33
yang contohnya e Ibu Sri Mulyani ya kan
00:03:36
fotonya ibu sriam sudah banyak datanya
00:03:38
ee videonya sudah banyak terus yang
00:03:41
bilang tentang R juta juga ada suaranya
00:03:44
juga ada nah itu jadi bisa satu-satusatu
00:03:46
dikumpulkan hinggalah menjadi eh menjadi
00:03:49
satu yang sebenarnya eh secara ini eh eh
00:03:52
adalah hoax tapi secara statistik itu
00:03:55
benar maksudnya benar Datanya ada itu
00:03:58
dikumpulkan itu satu Datanya ada Yang
00:04:00
kedua kita harus waspada bahwa data itu
00:04:03
punya bias-bias Bang Andi data itu kan
00:04:06
yang tersedia itu bias karena data itu
00:04:09
kan tidak objektif semu yang yang
00:04:11
tersedia ya Ada beberapa instansi atau
00:04:14
orang atau negara atau budaya yang lebih
00:04:17
banyak mengeluarkan data dibandingkan
00:04:19
dengan budaya-budaya lain misalnya ee
00:04:22
data mengenai gaji laki-laki dan gaji
00:04:26
perempuan itu tentu saja berbeda ya kan
00:04:28
Nah itu ada biasnya Saya mau cerita satu
00:04:30
yang sangat menarik nih Bang Andi dari
00:04:32
penelitian eh ini salah satu kolega saya
00:04:35
di Stanford
00:04:36
em penelitian ini meneliti di Amerika
00:04:39
Serikat jadi ini keadaan Amerika Serikat
00:04:41
ada orang kulit putih dan orang kulit
00:04:43
hitam dan eh dia bertanya kepada
00:04:47
eh ai large language model chatgpt
00:04:51
chatgpt 4 chatgpt3 gitu dia bertanya Oke
00:04:55
ini ada masukan kalimat nah kalimat ini
00:04:59
atau pakai eh kalimat Inggris biasa e
00:05:03
how are you doing today gitu atau
00:05:05
kalimat
00:05:06
eh African American English Jadi ada eh
00:05:12
How do you do today gitu Jadi ada
00:05:14
African American english-nya nah
00:05:16
ternyata waktu ditanya C jpti ini siapa
00:05:19
yang pintar siapa yang kurang pintar C
00:05:22
jptinnya bilang yang
00:05:25
pakai kalimat Inggris biasa itu pintar
00:05:28
yang pakai f ameran inris ini kurang
00:05:32
pintar nah ini bukan cat gpt-nya bias ya
00:05:36
tapi datanya itu begitu tapi yang lebih
00:05:39
menyeramkan lagi Bang Andi di penelitian
00:05:41
yang sama dia tanya Karena sekarang Eh
00:05:43
eh artificial intelligence itu juga
00:05:45
dipakai untuk e menentukan
00:05:48
hukuman jadi berdasarkan data itu siapa
00:05:52
yang hukumannya hukumannya Itu berapa
00:05:55
Berapa Berat berapa tahun penjara gitu
00:05:58
nah waktu di penelitian itu dia
00:06:00
menanyakan Oh ini masukan dari yang
00:06:02
pakai e Inggris biasa yang satu masukan
00:06:06
pakai African American English ccipiti
00:06:09
bilang untuk yang ini hukumannya dua
00:06:12
kali lipat
00:06:13
dipenjarakan karena datanya bias untuk
00:06:17
kasus yang sama untuk kasus yang sama
00:06:20
persis kalimatnya tuh persis Bang Andi
00:06:22
artinya berbahaya sekali kalau
00:06:24
kita tergantung pada teknologi begitu
00:06:27
kan kesimpulannya Kita pasti harus
00:06:30
menggunakan teknologi tapi kita juga
00:06:33
harus bisa tentu saja menganalisa dan
00:06:37
kembali pengertian itu bahwa data itu
00:06:39
bias karena kita selalu Ee Kita selalu
00:06:42
bilang oh kalau ini sangat objektif
00:06:44
betul kadang lebih objektif ya Tetapi
00:06:46
ada juga bias-biasnya kita harus waspada
00:06:48
itu Oke ini paling tidak kita lebih
00:06:51
hati-hati ya tapi kalau ancaman
00:06:54
pengangguran ini kan sudah terbukti juga
00:06:57
banyak pekerjaan yang hilang wupun ada
00:06:59
yang bilang ada juga pertanya eh
00:07:01
pekerjaan yang nambah nambah gituah tapi
00:07:04
yang kurang-kurang ini kan Cepat sekali
00:07:06
ya kita lihat sejumlah pekerjaan hilang
00:07:09
dan pengangguran dikhawatirkan akan
00:07:11
meningkat soal ini bagaimana jawaban
00:07:13
anda ya yang Bang Andi sudah lihat apa
00:07:16
terutama di bidang apa yang lebih Oh di
00:07:19
dari mulai kasir data analis terus
00:07:23
jurnalis sudah mulai kehilangan
00:07:25
pekerjaan karena kemampuan E saya ini
00:07:27
kan hobinya menulis he Jadi kalau Saya
00:07:29
mau menulis apa-apa saya cek dengan ini
00:07:31
bagusan dia bikinnya jadi saya bilang
00:07:34
enggak ada gunanya selama ini pengalaman
00:07:36
saya selama 45 tahun jadi wartawan oh
00:07:39
nah terus song writers dan lain-lain
00:07:42
banyak sekali pekerjaan ya kalau kita
00:07:43
bicara kasir bicara itu sudah hilanglah
00:07:45
semua kita sekarang juga tanya soal
00:07:47
kesehatan kita dijawab juga dan kita
00:07:49
mulai percaya apalagi gratisah sehingga
00:07:53
kita tidak perlu lagi Konsultasi sama
00:07:54
dokter Misalnya ini kan berbahaya Iya
00:07:56
nah sampai di sini bagaimana anda
00:07:59
melihat kemungkinan banyak orang
00:08:01
menganggur Iya
00:08:04
saya rasa kembali kita kalau E kalau
00:08:06
kita lihat lagi artificial intelligence
00:08:08
Ya itu kan menggunakan statistik jadi
00:08:12
harus itu statistik berdasarkan data Nah
00:08:16
kalau
00:08:18
penulisan saat ini mungkin Bangi bisa
00:08:20
melihat bahwa Oh kadang-kadang dia
00:08:22
menulisnya lebih bagus ya bang and
00:08:24
tetapi karena A itu berdasarkan data
00:08:28
kalau dia yang harus mengeluarkan
00:08:30
datanya itu lama-lama akan turun
00:08:33
kualitasnya Bang Andi jadi penulisan itu
00:08:36
sebenarnya masih perlu sekali karena
00:08:40
yang bisa memikirkan apa yang mau
00:08:42
ditulis itu tetap jadi awal dari Data
00:08:48
datanya itu awal dari pemikirannya itu
00:08:50
tetap harus seorang yang seperti Bang
00:08:52
Andi ini dan dan juga Style ya dan juga
00:08:55
stylennya Nah itulah yang mungkin saya
00:08:57
pernah bilang kalau kitanya terlalu
00:08:59
sering menggunakan ee chat GPT untuk
00:09:02
menulis kita sendiri enggak pernah
00:09:03
menulis Bangi tadi bilang Bang bilang oh
00:09:05
lihat dia lebih bagus yang saya
00:09:07
khawatirkan lama-lama kita tidak bisa
00:09:09
tahu mana yang tulisan bagus mana yang
00:09:11
enggak bang Andi Ini juga sekarang kita
00:09:13
ketahu tapi karena susah juga e kalau
00:09:16
kalau kita sendiri tidak pernah
00:09:17
memproduksi ya nah jadi e Kalau menulis
00:09:20
jangan Bang Andi tetap harus itu tetapi
00:09:24
memang pasti di dalam setiap pergurakan
00:09:26
teknologi itu ada ee pekerja erjaan yang
00:09:30
hilang nah yang harus kita bisa lihat
00:09:32
itu tapi sebenarnya juga tercipta
00:09:34
pekerjaan-pekerjaan lain tapi mungkin
00:09:37
kita harus secara konkret Apa sih
00:09:38
pekerjaan yang tercipta terus terang
00:09:40
saja kalau saya bisa yang paling tidak
00:09:43
akan tergantikan dengan cat CPT itu apa
00:09:48
lawyer Kenapa e nanti semuanya pada pada
00:09:51
hukum nih hukum karena cgpt itu semakin
00:09:56
teknologinya itu e semakin berkembang
00:09:59
semakin kita manusia harus menentukan
00:10:02
apa batasnya Jadi sekarang misalnya C
00:10:04
CPT bisa menulis bisa membuat lagu
00:10:07
tetapi manusia kan harus menegakkan
00:10:10
hukumnya Sampai kapan copyright-nya akan
00:10:13
ke siapa
00:10:14
nih CPT ada self eh bukan cacipt Ai self
00:10:18
driving cars Tapi nanti kalau misalnya
00:10:21
itu kecelakaan yang tanggung jawab siapa
00:10:23
yang membuat k salah satu yang kemudian
00:10:26
driver juga Mulai tergantikan Iya tetapi
00:10:29
usanya itu kan yang harus memikirkan
00:10:31
manusia harus memikirkan jadi E itu
00:10:33
kesalahan siapa ditanggung siapa
00:10:35
peraturannya Bagaimana Jadi sebenarnya W
00:10:38
Policy Maker juga ggak akan kehilangan
00:10:40
kerjaan nih Kayaknya begitu saya
00:10:42
ngbayangin penangnya harus tanggung
00:10:44
jawab kan naik taksi enggak ada sopirnya
00:10:47
tabrakan ya kamu yang naik di situ Kamu
00:10:49
yang har tanggung jawab Oke menarik ini
00:10:52
banyak hal sebenarnya yang menjadi
00:10:54
pertanyaan yang hari ini belum bisa
00:10:56
dijawab ya tapi kecenderungan
00:10:59
cenderungan kan kita sudah bisa lihat
00:11:00
Iya saya cukup emosional kalau saya
00:11:03
mendengar IQ Orang Indonesia itu 80 saya
00:11:05
dengarnya aja juga emosi Iya karena
00:11:07
enggak ada gunanya Bang
00:11:13
Andi jelajahi cara baru mendapatkan
00:11:16
informasi download Metro TV extend
00:11:19
sekarang