00:00:00
esse provavelmente é o vídeo mais
00:00:02
importante para o futuro da humanidade
00:00:03
que você vai ver hoje e o motivo é
00:00:06
simples Eu quero mostrar como a
00:00:07
inteligência artificial programada para
00:00:09
ser boa e ter apenas as melhores
00:00:10
intenções pode aniquilar a humanidade eu
00:00:13
gostaria de começar esse vídeo com algo
00:00:14
que vocês já devem conhecer as três leis
00:00:16
da robótica de isaquias move elas estão
00:00:19
presentes em diversos livros de contos
00:00:21
do ásimo mas principalmente no livro eu
00:00:23
roubou ele investiga Funda essas leis e
00:00:26
encontra limitações para cada uma delas
00:00:27
a ideia do livro é justamente mostrar
00:00:30
que todas as leis possuem limitações e
00:00:32
elas podem apresentar furos que podem
00:00:34
causar problemas até piores do que ela
00:00:36
sentavam evitar as três leis são as
00:00:38
seguintes primeira lei um robô não pode
00:00:40
ferir um ser humano ou por nação
00:00:42
permitir que um ser humano sofre algum
00:00:44
mal segundo a lei um robô deve obedecer
00:00:46
às ordens que eles sejam dadas por seres
00:00:48
humanos exceto nos casos em que entra em
00:00:51
conflito com a primeira lei terceira lei
00:00:52
um robô deve proteger a sua própria
00:00:54
existência desde que tal proteção não
00:00:57
entra em conflito com a primeira ou
00:00:58
segunda leis mais introduziu uma quarta
00:01:01
lei que ele chamou de lei zero da
00:01:03
robótica e ela estaria acima de todas as
00:01:05
três primeiras leis a lei zero diz que
00:01:07
um robô não pode causar mal a humanidade
00:01:09
ou por omissão permitir que a humanidade
00:01:12
sofre algum mal e essas quatro leis em
00:01:14
um primeiro olhar não parecem ter nenhum
00:01:16
problema muito sério e faria sentido
00:01:18
pensar isso porque quando dizemos que um
00:01:20
robô não pode causar mal a humanidade é
00:01:23
quase impossível de pensar uma situação
00:01:25
em que isso cai em contradição mas se
00:01:27
você acompanhou os trabalhos do azimo
00:01:29
você já sabe que existem diversas
00:01:31
maneiras dessas leis caírem em
00:01:33
contradição com resultados desastrosos é
00:01:35
até curioso que em alguns contos uma das
00:01:37
soluções seria aliviar algumas dessas
00:01:40
leis deixando a máquina tomar decisões
00:01:42
de uma forma mais livre o dilema que é
00:01:44
apresentado nos livros e Contos do Asus
00:01:46
pareciam dilema restringindo o dilema
00:01:48
que o asma apresenta nos livros e contos
00:01:50
dele parece um dilema restrito a
00:01:53
problema de ficção científica já que
00:01:55
esse é o gênero quase escreve inclusive
00:01:57
na época em que ele escreveu esses
00:01:58
contos a ideia e ter robôs andando por
00:02:01
aí com inteligência superior à nossa era
00:02:03
algo que levaria muitos e muitos anos
00:02:04
para acontecer se é que um dia ia
00:02:07
acontecer mas e se eu dissesse que
00:02:09
atualmente nós estamos lidando com um
00:02:10
problema que é muito próximo do problema
00:02:12
que o azmovedor nós ainda não chegamos
00:02:14
em um ponto em que roubou e se tornaram
00:02:15
super inteligentes mas o problema é tão
00:02:18
grave que já se tornou um desafio hoje e
00:02:20
aqui eu quero deixar um parênteses
00:02:21
importante até agora eu estou falando
00:02:23
dessas máquinas inteligentes como robôs
00:02:25
porque essa era a forma como as imóvel
00:02:28
abordava Mas isso não é algo
00:02:29
completamente correto já que robôs nos
00:02:32
dão a ideia daqueles seres humanoides
00:02:34
com peças de metal como nós vemos nos
00:02:36
filmes nas séries o problema que eu vou
00:02:38
falar nesse vídeo Vai um pouco mais
00:02:39
fundo do que esses seres robóticos nesse
00:02:42
vídeo nós estamos falando de coisas mais
00:02:44
acessíveis e que já estão presentes no
00:02:46
nosso dia a dia como dentro do seu
00:02:48
celular ou nesse exato momento dentro do
00:02:51
site que você está vendo esse vídeo que
00:02:52
tem um algoritmo de sistema de
00:02:54
recomendação Então nesse caso eu
00:02:55
gostaria de deixar claro que robôs aqui
00:02:57
são máquinas que podem ser até mesmo seu
00:03:00
celular ou seu notebook e é justamente
00:03:02
isso que torna o problema ainda mais
00:03:03
sério do que o asmove pensava porque
00:03:05
você não precisa esperar um robô
00:03:06
humanoide andando por aí
00:03:09
antes de continuar eu só queria dizer
00:03:11
que esse vídeo Vai fundo inteligências
00:03:13
artificiais e eu acho que essa
00:03:14
oportunidade perfeita para introduzir a
00:03:16
Lula que fez esse vídeo em parceria
00:03:17
comigo a lula é o melhor lugar para você
00:03:19
aprender a habilidades novas como
00:03:20
programação edição de vídeos gestão de
00:03:22
empresas e equipes são 1429 cursos para
00:03:26
você aprender algo novo hoje e se eu
00:03:29
fosse indicar um curso eu indicaria de
00:03:30
chat GPT e agenerativas até porque esse
00:03:33
curso casa perfeitamente com o vídeo de
00:03:35
hoje Então acesse a lula.tv/ciência todo
00:03:38
dia Ou use o QR Code que está aparecendo
00:03:40
na tela para fazer a sua assinatura da
00:03:41
lura com desconto especial para quem
00:03:43
acompanha a ciência todo dia e agora
00:03:45
vamos de volta o vídeo com experimento
00:03:47
mental vamos supor que você seja
00:03:49
contratado por uma empresa de
00:03:50
inteligências artificiais que
00:03:52
desenvolveu uma inteligência artificial
00:03:54
geral Essa é a super poderosa que nós
00:03:56
vamos abreviar para a Gi tem uma
00:03:58
inteligência muito maior do que qualquer
00:04:00
ser humano e pode fazer qualquer coisa
00:04:02
que um ser humano consegue mas por ser
00:04:05
muito inteligente ela conseguiria
00:04:06
resolver qualquer problema é uma questão
00:04:08
de segundo essa empresa pede para que
00:04:10
você determine quais serão os valores e
00:04:13
regras que essa E a deve obedecer se ela
00:04:15
deve avisar pelo bem da humanidade se
00:04:17
ela deve resolver problemas graves como
00:04:18
a fome ou guerras se ela deve pesquisar
00:04:20
medicamentos novos que podem curar o
00:04:22
câncer se ela não deve machucar um ser
00:04:24
humano todo esse conjunto de regras está
00:04:27
nas suas mãos Quais são as regras que
00:04:29
você colocaria para ela seguir Quais são
00:04:31
os valores que você daria para essa
00:04:33
inteligência artificial eu acho que aqui
00:04:35
você já deve estar encontrando alguns
00:04:36
problemas como por exemplo seus valores
00:04:39
podem não ser os mesmos que os meus ou
00:04:41
do que de alguma cultura diferente mas
00:04:43
antes de entrarmos nesses pontos Vamos
00:04:45
focar em um que vai dar início a toda a
00:04:48
nossa conversa e eu espero que até o
00:04:49
final do vídeo consiga de convencer de
00:04:51
quão grande esse problema pode ser vamos
00:04:53
supor que você decide que a fome no
00:04:54
mundo deve acabar e coloque lá que a
00:04:56
regra que ela deve seguir é que nenhum
00:04:58
ser humano jamais deverá passar fome
00:05:00
novamente você manda isso pra empresa e
00:05:02
eles implementam essa e a que agora tem
00:05:04
como objetivo principal acabar com a
00:05:06
fome no mundo alguns dias depois você no
00:05:09
plantão do jornal que a humanidade está
00:05:11
sendo exterminada e que algumas regiões
00:05:12
povoadas já deixaram de existir aí há
00:05:15
que você programou está cortando energia
00:05:16
elétrica desviando navios e aviões
00:05:19
cortando o suprimentos de todos os
00:05:21
lugares um verdadeiro caos que em breve
00:05:23
levará a extinção da humanidade você se
00:05:25
pergunta o que deu de tão errado para
00:05:27
isso acontecer e entre em contato com a
00:05:29
empresa que desenvolveu essa ia que você
00:05:30
pensou estar ajudando a humanidade e
00:05:32
eles te respondem dizendo que aquilo foi
00:05:34
consequência das suas escolhas e que a
00:05:36
humanidade pagou por isso indo em
00:05:38
extinção e É nesse momento que você
00:05:40
finalmente tem o Clique na sua cabeça e
00:05:42
tudo começa a fazer sentido quando você
00:05:44
pediu para ir a resolver o problema da
00:05:46
fome você disse que nenhuma humano
00:05:48
jamais deveria passar fome novamente mas
00:05:50
seres humanos só passam fome se
00:05:52
estiverem vivos ou seja nenhum ser
00:05:54
humano vai passar fome Se a humanidade
00:05:55
não existir essa foi uma linha de
00:05:57
raciocínio muito simples pra Yara e ela
00:06:00
provavelmente está cumprindo seu papel
00:06:02
sem nem entender o que está fazendo nós
00:06:04
não podemos negar que o problema
00:06:05
realmente foi resolvido se o humanos não
00:06:08
existirem não tirar fome você pode até
00:06:10
estar pensando em formas de contornar
00:06:12
isso e até formas de falar com a ia para
00:06:14
evitar essa solução desastrosa mas eu te
00:06:16
garanto que você sempre vai chegar em
00:06:18
algum beco sem saída pode não ser algo
00:06:19
Óbvio como nesse caso mas quando se
00:06:22
trata de inteligências artificiais você
00:06:24
vai se deparar com problemas desde os
00:06:27
mais simples Até O Extermínio completo
00:06:29
da humanidade e esse problema possui um
00:06:31
nome o problema do alinhamento o
00:06:33
problema do alinhamento pode ser
00:06:35
resumido como problema associado à
00:06:37
construção de sistemas de inteligências
00:06:39
artificiais poderosos que são alinhados
00:06:41
com seus operadores mas podemos ver esse
00:06:43
problema como sendo a dificuldade de
00:06:45
fazer com que as ações e decisões
00:06:46
tomadas por uma inteligência artificial
00:06:48
seja uma alinhadas com as preferências e
00:06:51
interesses dos seres humanos sem causar
00:06:52
consequências indesejáveis ou
00:06:54
prejudiciais nós queremos que a
00:06:56
inteligência artificial faça alguma
00:06:57
coisa que pode ser algo simples como
00:06:59
decidir qual o vídeo do YouTube Você vai
00:07:01
assistir até situações extremamente
00:07:03
complexas como resolver os grandes
00:07:05
problemas que a humanidade enfrenta um
00:07:07
problema semelhante ao experimento
00:07:08
mental Acabei de fazer com vocês foi
00:07:10
proposto em 2003 por um filósofo de
00:07:12
Oxford chamado Nick Boston na versão
00:07:14
dele do problema Nós criamos uma
00:07:16
inteligência artificial cuja única
00:07:18
função era aumentar a produção de clipes
00:07:21
de papel e ela é muito mais inteligente
00:07:22
do que nós ela chega à conclusão de que
00:07:25
acabar com os seres humanos é a solução
00:07:27
para produzir mais clipes de papel já
00:07:29
que por exemplo ela poderia transformar
00:07:31
os átomos do corpo humano em átomos de
00:07:33
clipes de papel a gente percebe esse
00:07:35
erro e decide simplesmente acabar com
00:07:36
essa e a meio que desligando ela de
00:07:38
alguma forma mas como ela estaria
00:07:40
programada em um sistema de Alto
00:07:42
preservação ela começa uma espécie de
00:07:44
guerra com os seres humanos enquanto
00:07:45
produz mais clipes Vocês conseguem ver a
00:07:48
contradição que o problema leva enquanto
00:07:49
ela faz algo que nós pedimos produzir
00:07:52
clipes Ela briga com a gente podendo
00:07:54
levar o nosso próprio extermínio mostra
00:07:56
um conclui que como essa Iah seria muito
00:07:58
mais inteligente do que nós
00:08:00
Possivelmente ela venceria essa guerra
00:08:02
contra a humanidade e ela não estaria
00:08:04
nem fazendo algo objetivamente errado do
00:08:06
ponto de vista dela ela está apenas
00:08:08
obtendo o resto na sua função de fazer
00:08:09
mais clips de papel o problema de Boston
00:08:12
é ainda mais extremo mas mostra que você
00:08:14
não precisa tentar resolver a fome do
00:08:16
mundo para chegar em consequências
00:08:18
graves algo simples como a produção de
00:08:20
clipes poderia nos levar a um desastre e
00:08:23
é aí que o problema do alinhamento fica
00:08:24
Óbvio se nós precisamos definir um
00:08:27
objetivo para uma inteligência
00:08:28
artificial nós precisamos ter 100% de
00:08:31
certeza que esse objetivo é exatamente o
00:08:33
que queremos alguns especialistas como
00:08:35
Yoshi Wang vencedor do prêmio turington
00:08:38
nos pais das inteligências artificiais e
00:08:40
até mesmo Alan turing já indicavam que
00:08:42
uma iades alinhada seria catastrófica e
00:08:45
nós só teríamos uma chance de obter uma
00:08:47
h&a com super inteligência uma chance de
00:08:49
acertar os valores e a ética dessa
00:08:51
Inteligência Artificial porque ali
00:08:53
literalmente um caminho sem volta eu
00:08:55
tenho certeza que alguns de vocês devem
00:08:57
pensar que nós estamos muito longe de
00:08:58
algo assim e que não é motivo para se
00:09:00
preocupar o problema do alinhamento é
00:09:02
uma preocupação justamente por já estar
00:09:04
acontecendo no nosso dia a dia algo
00:09:06
assim aconteceu em 2018
00:09:08
empresa Uber disponibilizou carros
00:09:10
autônomos E aí há por trás desses carros
00:09:12
foram treinadas com diversos dados dados
00:09:15
como sinal vermelho significa que você
00:09:16
deve parar dados como reconhecimento de
00:09:19
pessoas para evitar atropelamentos ou
00:09:21
reconhecimento de outros carros o
00:09:23
objetivo do carro autônomo era dirigir
00:09:24
de uma forma segura evitando pedestres e
00:09:27
outros carros e evitando ao máximo um
00:09:29
acidente em geral em 2018 aconteceu um
00:09:31
acidente com um desses carros que acabou
00:09:33
deixando uma pessoa gravemente ferida
00:09:35
eventualmente levando ao óbito quando
00:09:37
eles forem investigar Quais eram as
00:09:39
condições que levaram a acidente eles
00:09:41
descobriram que o carro estava preparado
00:09:43
para evitar pedestres em faixas de
00:09:44
pedestres mas não pedestres imprudentes
00:09:47
que atravessam a rua em qualquer lugar
00:09:50
mas mais do que isso a iart tinha sido
00:09:53
treinada com dados de pessoas de pessoas
00:09:55
andando de bicicleta ou até mesmo de
00:09:57
bicicleta sozinhas Mas ela não tinha
00:09:59
conhecimento de uma pessoa andando na
00:10:01
rua com uma bicicleta no seu lado como
00:10:03
ela não conseguiu interpretar o que era
00:10:05
aquilo a máquina não conseguiu tomar uma
00:10:07
ação e estrangeiro que ela sabia como
00:10:10
outros carros conduzidos por outras
00:10:11
pessoas e outros pedestres elas se
00:10:13
envolveu em um acidente e esse mostra um
00:10:15
dos principais pontos do problema do
00:10:17
alinhamento os dados que as máquinas
00:10:19
aprendem Quando falamos em Inteligência
00:10:21
Artificial Hoje quase sempre nós estamos
00:10:23
os referindo ao aprendizado de máquina o
00:10:26
aprendizado de máquina é quando a
00:10:27
máquina prende a observar uma grande
00:10:29
quantidade de dados então todo o
00:10:31
aprendizado dela está associado ao
00:10:33
conteúdo que está sendo exibido nesses
00:10:35
dados no caso do Uber a falta de imagens
00:10:37
de pessoas segurando uma bicicleta no
00:10:39
lado do corpo foi o suficiente para
00:10:40
causar morte de uma pessoa algo
00:10:42
semelhante aconteceu na Amazon onde a
00:10:45
falta de dados de currículos de mulheres
00:10:46
fez com que a criada para analisar
00:10:48
currículos acabava sempre escolhendo
00:10:50
currículos de homens como a e aprende
00:10:53
com os dados é a partir dali que ela vai
00:10:55
tomar as decisões dela e a falta de
00:10:58
dados ou dados considerados ruins podem
00:11:00
ocasionar problemas a questão dos viés
00:11:03
que os dados podem colocar resulta em um
00:11:05
objetivo que pode não ser exatamente o
00:11:07
que a gente quer
00:11:08
é algo que falta nas máquinas que é
00:11:11
justamente a noção do que se deve ou não
00:11:13
fazer isso inclusive pode variar para
00:11:15
diferentes pessoas imagina que você seja
00:11:18
completamente contra o uso de elevadores
00:11:20
e argumente que elevadores são perigosos
00:11:22
porque muita gente já morreu caindo
00:11:23
neles mas tem gente que acredita que
00:11:25
elevadores são uma ferramenta muito boa
00:11:27
e não deve ser banida porque muita gente
00:11:29
que não tem condições de subir escadas
00:11:31
conseguem chegar até onde precisam Esse
00:11:33
é um exemplo bem bobo mas nos faz
00:11:35
visualizar bem a questão quais dessas
00:11:38
crenças e valores devem ser colocados na
00:11:40
Iara e lembrem que isso varia cada vez
00:11:42
mais Quando você vai para países com
00:11:44
políticas e culturas diferentes é
00:11:46
impossível de dizer qual deve valer no
00:11:48
fim das contas porque não existe uma que
00:11:51
Seja superior às outras Será que você
00:11:53
realmente quer que os valores e crenças
00:11:55
de outras pessoas sejam impostos a você
00:11:57
através dessas máquinas outra forma de
00:12:00
evitar isso é através do próprio
00:12:01
algoritmo criado que vai ser treinado
00:12:03
com os dados uma parte essencial do
00:12:05
aprendizado é a los function ou função
00:12:08
merda mas também podemos dizer que ela é
00:12:10
uma função de erro que quantifica o quão
00:12:12
errado um resultado de uma inteligência
00:12:14
artificial está Brian Christian que
00:12:16
escreveu um livro sobre o problema do
00:12:17
alinhamento cita na sua palestra sobre o
00:12:19
problema associado Essas funções isso
00:12:21
não é uma tarefa simples e tem várias
00:12:24
camadas que precisam ser resolvidas para
00:12:26
solucionar esse problema como devemos
00:12:28
quantificar o erro todos os erros são
00:12:30
iguais como nós podemos fazer para
00:12:32
penalizar mais quando o erro pode ser
00:12:33
catastrófico a forma que nós vamos
00:12:36
implementar essa função de erro é
00:12:38
justamente a forma que a Iara vai
00:12:39
aprender e vai aprender a penalizar além
00:12:42
dos dados a função que implementamos
00:12:44
dentro do código vai definir as ações
00:12:46
que aquele modelo Vai tomar no futuro em
00:12:48
outras palavras os nossos vieses estão
00:12:51
ali e até mesmo viésis que nós nem
00:12:53
sabemos que existem Eu acho que posso
00:12:55
até mudar a pergunta como quantificar o
00:12:58
sucesso de um modelo O que significa o
00:13:00
sucesso de algo um exemplo atual que
00:13:02
junta esses dois problemas é o que
00:13:04
aconteceu com o modelo de classificação
00:13:06
do Google fotos em 2015
00:13:12
classificador da empresa colocou a
00:13:14
classe gorilas para as fotos isso mostra
00:13:17
como o modelo era falho inclusive
00:13:18
faltando até valorizar éticos para
00:13:20
combater uma atitude racista
00:13:22
provavelmente pelo viés dos dados e pela
00:13:24
falta de cuidado na implementação logo
00:13:26
após esse caso outros erros foram
00:13:28
encontrados com a classificação do
00:13:30
Google fotos como confundir gatos com
00:13:32
linces ou bicicletas com motos mas
00:13:34
nenhum desses erros é tão grave quanto
00:13:36
primeiro que foi até notícia Nacional
00:13:37
nos Estados Unidos Quando aconteceu você
00:13:39
pode escalonar esse problema como
00:13:41
reconhecimento e classificação em
00:13:43
situações que podem causar injustiças e
00:13:46
até mesmo erros que podem levar a
00:13:48
consequências mais graves o que eu quero
00:13:50
dizer é os erros não são os mesmos nós
00:13:54
como seres humanos conseguimos entender
00:13:56
porque um caso de racismo é mais grave
00:13:59
do que chamar uma bicicleta de moto só
00:14:00
que como nós vamos passar isso para uma
00:14:02
inteligência artificial que falta com
00:14:05
essa lógica e faltam os valores dentro
00:14:07
dela como uma função de erro que consiga
00:14:10
compreender que existem erros que são
00:14:12
mais graves do que outros e não é
00:14:14
possível tratar todos como iguais em
00:14:16
outras palavras como nós passamos a
00:14:19
ideia do que é certo e o que é errado
00:14:20
para uma inteligência artificial e a
00:14:23
pergunta se torna ainda mais profunda
00:14:24
quando nós percebemos que nós mesmos
00:14:27
somos falhos Nessas questões o pior de
00:14:29
tudo é que são problemas que já estão
00:14:31
acontecendo e são máquinas que já estão
00:14:33
cada vez mais sendo implementadas nas
00:14:35
nossas vidas o chat GPT é um perfeito
00:14:37
exemplo de uma ferramenta que aprendeu
00:14:38
com diversos dados e que está entrando
00:14:41
em diversos Ramos da nossa vida então
00:14:43
como nós passamos o nosso ideal de
00:14:45
valores para o chá de GPT nós já
00:14:47
discutimos dois dos principais problemas
00:14:49
dentro do problema do alinhamento o uso
00:14:51
de dados e a construção do algoritmo que
00:14:53
vai ser treinado a gente poderia ficar
00:14:55
horas apenas encontrando detalhes cada
00:14:57
vez mais sensíveis que podem levar a
00:15:00
criação de algo catastrófico e
00:15:01
consequências que não conseguimos
00:15:03
imaginar mas o problema do alinhamento é
00:15:05
justamente a questão de como garantir
00:15:07
que as inteligências artificiais farão
00:15:09
aquilo que nós queremos sem serem
00:15:12
prejudiciais e será que aquilo que nós
00:15:14
queremos é justamente o que é o melhor e
00:15:17
se não for como evitar que a
00:15:19
inteligência artificial tome essa
00:15:20
decisão por nós Essas são perguntas que
00:15:22
envolvem não só cientistas a computação
00:15:24
mas filósofos médicos sociólogos
00:15:27
economistas e até físicos químicos e
00:15:29
biólogos esse conjunto de perguntas é
00:15:31
algo que todos nós deveríamos estar nos
00:15:33
fazendo inclusive enquanto usamos
00:15:35
ferramentas como chat GPT Como eu disse
00:15:38
no começo do vídeo mas temos apenas uma
00:15:40
chance antes de um caminho sem volta
00:15:42
como nós podemos garantir que essa
00:15:44
chance seja algo que nós queremos e que
00:15:46
a nossa última invenção não seja também
00:15:48
o fim de tudo que nós conhecemos eu
00:15:51
gostaria de saber o que vocês pensam
00:15:52
disso aqui nos comentários Muito
00:15:54
obrigado e até a próxima
00:15:56
[Música]