Pele negra, máquinas brancas
Sintesi
TLDRIn this episode of the podcast, the discussion centers around algorithmic racism and the biases within facial recognition technologies. Various contributors, including scientists and social theorists, share their personal anecdotes about encountering and combating racial bias in tech. The episode focuses on critical examples where facial recognition fails to accurately identify people of color, often due to biased datasets. It highlights the experiences of individuals like Nina da Hora, who faced challenges due to systemic inequalities in technology. Renowned scholars, such as Tarcísio Silva and Sandra Ávila, emphasize the broader societal implications of such biases, especially in areas like healthcare and law enforcement. The prevalence of algorithmic discrimination serves as a rallying point for calls to action to reform and recognize the biases in tech development to create a more equitable future.
Punti di forza
- ✊ The problem of facial recognition bias affects people of color significantly.
- 💻 Nina da Hora's personal experience with unseen biases highlights systemic issues in technology.
- 📊 Tarcísio Silva discusses the importance of data diversity in AI training.
- 🔍 Understanding the history of racism helps contextualize current technological issues.
- 🏥 Healthcare algorithms may misclassify patients based on racial biases.
- 🔒 Law enforcement uses biased recognition systems that can lead to wrongful arrests.
- 🛠️ Solutions include diversifying tech teams and improving data sourcing.
- ⚖️ The call for justice in algorithmic practices is growing more urgent.
- 📉 Biased algorithms can reproduce historical societal inequalities.
- 🌍 There's an increasing need for regulatory frameworks around AI and technology.
Linea temporale
- 00:00:00 - 00:05:00
In the introduction, the podcast 'Ciência Suja' promotes its latest thematic season on colonialism in science and invites listeners to contribute through crowdfunding. it sets the tone for the discussion on the racial bias present in modern technologies, particularly in facial recognition.
- 00:05:00 - 00:10:00
The narrative begins with a personal account from Nina, a Black computer scientist, whose face was not recognized by facial recognition software. This highlights the broader issue of how predominantly white training data affects the efficacy of such systems on racially diverse individuals, emphasizing the societal implications of such technological shortcomings.
- 00:10:00 - 00:15:00
The podcast introduces Tarcísio Silva, who discusses algorithmic racism and gives examples of how racially biased algorithms misidentify people of color in various contexts. The conversation expands to Police use of facial recognition technology, raising concerns about its implications in law enforcement and surveillance that can lead to wrongful arrests.
- 00:15:00 - 00:20:00
Sandra Ávila shares her experience developing algorithms in healthcare, discussing unintended biases that arise even in systems not directly trained on race. The discussion highlights how algorithmic discrimination can persist in medical technologies that aim to improve health outcomes, thus exposing systemic biases in healthcare delivery.
- 00:20:00 - 00:25:00
The episode dives deeper into how algorithms can fail marginalized communities, leading to missed diagnoses and healthcare disparities. The hosts emphasize that these biases are often attributed to errors in the algorithm, when in fact they reflect underlying social inequalities and prejudiced training data.
- 00:25:00 - 00:30:00
The hosts revisit Henrietta Lacks' story, juxtaposing it with contemporary scenarios. They theorize on how current algorithms could still generate biased outcomes despite advancements in healthcare, showing that algorithmic bias can persist through seemingly neutral methods like data analysis.
- 00:30:00 - 00:35:00
The podcast outlines historical racism in algorithm development, warning against the classification and biases established in previous scientific practices. The correlation between past human biases and present technology is made clear, suggesting a cycle of discrimination reinforced through technological advancements.
- 00:35:00 - 00:40:00
Researchers discuss the challenges of AI in medical settings, revealing troubling statistics about algorithmic racism in health assessments. They stress that even when algorithms do not use race explicitly, health outcomes still reflect systemic inequalities stemmed from social determinants.
- 00:40:00 - 00:45:00
Listeners are introduced to various technological advancements and the ongoing biases they carry, including examples of misidentified photos leading to bias against people of color. This leads to a discussion of the importance of transparency and critical evaluation of technology in combating discrimination.
- 00:45:00 - 00:52:24
In conclusion, the episode reflects on the need for diverse representation in technology development while emphasizing critical engagement with the created algorithms. This creates a dialogue surrounding ethical practices in deploying AI, reaffirming the importance of addressing entrenched societal biases through responsible tech use.
Mappa mentale
Video Domande e Risposte
What is the main focus of the podcast episode?
The episode focuses on the biases inherent in facial recognition technology and its implications for people of color.
Who are the key figures mentioned in the episode?
Key figures include Nina da Hora, Tarcísio Silva, and Sandra Ávila, all of whom discuss their experiences with racial bias in technology.
What are some examples of bias in facial recognition systems?
Biases include misidentification of black individuals, with systems often failing to recognize them accurately due to predominantly white training datasets.
What is 'racismo algorítmico'?
Racismo algorítmico, or algorithmic racism, refers to the ways in which technology reinforces and perpetuates racial biases present in society.
How can technology exacerbate social inequalities?
If technologies like AI and facial recognition are developed without considering diversity and representation, they can worsen existing disparities and discrimination.
What historical context is provided regarding systemic racism?
The episode refers to historical injustices, such as the exploitation of Henrietta Lacks’ cells without consent, illustrating ongoing racial inequities.
What solutions are discussed in the episode?
The episode discusses the importance of diversifying tech development teams and critically assessing the data used to train AI systems.
How does the episode tie in current technological practices with historical racism?
It draws parallels between historical racist practices and modern algorithmic biases, emphasizing that today's technologies can perpetuate similar discriminatory frameworks.
Visualizza altre sintesi video
Apple Notes: the ONLY notes app you NEED | tips for students and everyone else too
TRADWIVES: THE BUSINESS OF BEING A "TRADITIONAL WIFE" INFLUENCER | Influencer Insanity Ep 7 #TikTok
How to start a speech | Simon Lancaster | TEDxUniversityofHertfordshire
PART-1: Navigating U.S.-Canada Trade: Importing and Exporting in a Tariff-Fueled Economy
How To Have Better Communication Skills
Entre Manas - Marina Consalvo (parte 1)
- 00:00:01o Ciência suja tem o selo da Rádio
- 00:00:04guarda-chuva jornalismo para quem gosta
- 00:00:06de
- 00:00:14ouvir se você ainda não ouviu os
- 00:00:16primeiros dois episódios dessa nossa
- 00:00:18Temporada temática sobre colonialismo na
- 00:00:20ciência a gente sugere que você vá para
- 00:00:22eles antes de seguir aqui as coisas
- 00:00:24podem fazer mais sentido assim e
- 00:00:26aproveitando o Ciência suja tem um
- 00:00:27programa de financiamento coletivo que
- 00:00:30importante pro nosso projeto são
- 00:00:31diferentes planos com benefícios
- 00:00:33exclusivos a partir de R 10 para saber
- 00:00:36mais acesse o nosso site o ciencias
- 00:00:38suja.com PBR e clica na aba apoie o
- 00:00:42podcast qualquer contribuição ajuda
- 00:00:44demais a gente então vamos pro
- 00:00:48Episódio em 2018 eu tava fazendo um
- 00:00:51estágio tá
- 00:00:53numa empresa de robótica no Rio de
- 00:00:55Janeiro e uma um dos projetos era era um
- 00:00:58projeto que tinha que identificar que
- 00:01:01tinha um rosto em um ambiente e na
- 00:01:03identificação desse rosto identificar a
- 00:01:05expressão que esse rosto apresentava e
- 00:01:08depois de identificar essas esses dois
- 00:01:10essas duas etapas você tinha que colocar
- 00:01:12um emoji que fosse um emoji ligado a
- 00:01:15expressão identificada e o único rosto
- 00:01:18que não foi identificado foi o meu essa
- 00:01:20que você acabou de ouvir é a Nina da
- 00:01:22hora uma mulher negra que é cientista da
- 00:01:25Computação ela tava contando uma
- 00:01:27história do início da carreira dela é
- 00:01:29uma reclama comum de pessoas retintas h
- 00:01:32de que os softwares de reconhecimento
- 00:01:34facial não identificam bem o nosso rosto
- 00:01:36isso acontece Provavelmente porque os
- 00:01:38programas que fazem esses cara carchá
- 00:01:41foram treinados fora do país com um
- 00:01:43banco de dados de milhões de imagens de
- 00:01:46gente branca ou seja eles aprendem O que
- 00:01:49é um rosto mas só um tipo de rosto aí
- 00:01:52você pode até pensar Ah mas é só uma
- 00:01:54coisinha um projeto de estágio mas tá
- 00:01:56longe de ser só isso primeiro porque
- 00:01:59essa confusão ão entre aspas não é uma
- 00:02:01exceção como a gente vai mostrar no
- 00:02:02Episódio segundo que a gente usa o
- 00:02:05reconhecimento facial para muita coisa
- 00:02:07hoje para entrar em prédios para ficar
- 00:02:09mais bonito no Instagram para imaginar
- 00:02:11como a gente vai ser quando tiver velho
- 00:02:13para sair ou entrar no país para
- 00:02:15encontrar procurados pela justiça para
- 00:02:17vigiar espaços privados e públicos e a
- 00:02:20inteligência artificial não só não
- 00:02:22entende tão bem o rosto de uma pessoa
- 00:02:24negra mas ela também aprende a
- 00:02:27identificar atividades e pessoas
- 00:02:29suspeitas de um jeito bem enado a partir
- 00:02:32de dados da própria polícia ou outras
- 00:02:35fontes e é um
- 00:02:36caso da Google Vision né que é o sistema
- 00:02:40de visão computacional da Google que
- 00:02:41eles vendem por assinatura para qualquer
- 00:02:44Startup qualquer empresa de tecnologia
- 00:02:47onde uma mão Negra segurando um
- 00:02:51instrumento de
- 00:02:52eh mid febre né que ficaram famosos
- 00:02:55durante a pandemia era marcado como
- 00:02:58arma e mãos brancas não eram marcadas
- 00:03:01como arma o objeto se identificava
- 00:03:03corretamente que era um instrumento
- 00:03:04médico Esse é o sociólogo Tarcísio Silva
- 00:03:07autor do livro racismo algorítmico
- 00:03:10Inteligência Artificial e discriminação
- 00:03:12nas redes digitais o Tarcísio é um dos
- 00:03:16principais pensadores do Brasil sobre o
- 00:03:18racismo na tecnologia e você vai ouvir
- 00:03:21ele várias vezes aqui durante a conversa
- 00:03:23ele deu exemplos de como esse sistema
- 00:03:26pode funcionar imagine um condomínio
- 00:03:29onde passa eh um jovem negro tirando
- 00:03:33fotos com a máquina fotográfica dele
- 00:03:35para um trabalho da faculdade e um
- 00:03:37sistema de visão computacional do
- 00:03:38condomínio joga um alerta que aquilo
- 00:03:41seria uma arma e não uma câmera
- 00:03:44fotográfica manda o alerta pra polícia
- 00:03:46manda o alerta paraa empresa de
- 00:03:49segurança privada a empresa chega lá e
- 00:03:51age e seria um jovem morto pela
- 00:03:54combinação do racismo da violência
- 00:03:57estatal e do de um sistema falho que é
- 00:04:00falho também por causa desses dessa e
- 00:04:03dessa violência mais de 1000 pessoas
- 00:04:05foram presas com base em Sistemas de
- 00:04:08reconhecimento facial na Bahia desde
- 00:04:102018 incluindo inocentes e São Paulo e
- 00:04:14várias outras regiões já contrataram
- 00:04:17empresas que fazem serviços do tipo no
- 00:04:19Rio de Janeiro tem Drone com
- 00:04:21reconhecimento facial identificando
- 00:04:23alvos de operações policiais em morros
- 00:04:26isso tudo é vendido sob o argumento de
- 00:04:28que a tecnologia é mais neutra mais
- 00:04:30precisa e mais rápida do que o olho
- 00:04:33humano e mais barata também né ninguém
- 00:04:35hoje precisaria mais contratar porteiros
- 00:04:38digitar senhas para entrar em
- 00:04:39aplicativos no celular ou investir em
- 00:04:41inteligência policial o lance é jogar
- 00:04:44dinheiro nessa tecnologia Imparcial
- 00:04:46entre aspas mas essa promessa de
- 00:04:48neutralidade é só isso uma promessa e
- 00:04:51por trás dela existe o chamado racismo
- 00:04:54algorítmico ou viés algorítmico
- 00:04:56Resumindo bem é um conceito que discute
- 00:04:59a influência dos racismos estruturais e
- 00:05:01individuais no desenvolvimento das
- 00:05:03tecnologias fo é o modo pelo qual
- 00:05:06tecnologias que utilizam sistemas
- 00:05:08algorítmicos podem reforçar gerar
- 00:05:12intensificar e ocultar eh no sentido de
- 00:05:18esconder né dinâmicas racialmente
- 00:05:22discriminatórias enxergar uma arma numa
- 00:05:24Mão Negra e um termômetro numa mão
- 00:05:26branca sendo que o objeto é o mesmo é o
- 00:05:29um exemplo dessa discriminação
- 00:05:31algorítmica reconhecer pior os rostos
- 00:05:34negros é outro e tem muitos outros é
- 00:05:37como se a discriminação estivesse sendo
- 00:05:39automatizada com riscos consideráveis né
- 00:05:43e eu acho que quem tá mais fora da
- 00:05:45técnica né achando que aquilo vai
- 00:05:47resolver diversos problemas quem eu acha
- 00:05:49que tem tá trabalhando mais com as
- 00:05:51técnicas cuidado que a gente pode est
- 00:05:53gerando mais problemas né e o que a
- 00:05:55gente costuma falar é que a gente pode
- 00:05:57estar automatizando né na na verdade
- 00:05:59desigualdades que já existem de forma
- 00:06:02gigantesca na sociedade só que a gente
- 00:06:04vai escalar essa aí é a Sandra Ávila
- 00:06:06professora da Unicamp A Sandra é uma
- 00:06:08cientista da Computação que sem querer
- 00:06:10participou do envasamento de um
- 00:06:12algoritmo direcionado para outra área a
- 00:06:14da saúde e aí imagina a Sandra né lá da
- 00:06:17Computação que foi escolher computação
- 00:06:19porque queria fazer aquilo para ajudar
- 00:06:21pessoas eu entrei num conflito assim
- 00:06:23tipo eu que que eu tô fazendo né Tipo eu
- 00:06:27tava realmente
- 00:06:30muito chateada comigo não foi nem com a
- 00:06:33pessoa que me falou Eu tava era comigo
- 00:06:35de ter acreditado não sentido que tipo
- 00:06:38eu não fui nem procurar Ela tava
- 00:06:40desenvolvendo um algoritmo para detectar
- 00:06:42casos de câncer de pele a partir de
- 00:06:44imagens quando isso aí aconteceu nem
- 00:06:46tinha cor de pele envolvida na análise
- 00:06:48como a gente vai explicar já já mas o
- 00:06:49viés apareceu mesmo assim e muita gente
- 00:06:53da saúde tá usando softwares de
- 00:06:54inteligência artificial para fazer
- 00:06:56estudos sobre melhores diagnósticos
- 00:06:58novos Rem médios e até para decidir quem
- 00:07:01precisa de determinado tratamento o que
- 00:07:03não tá errado a inteligência artificial
- 00:07:05realmente pode trazer benefícios pra
- 00:07:07saúde Só que a discriminação algorítmica
- 00:07:10pode sabotar isso quando um escândalo de
- 00:07:12discriminação vem à tona quem desenvolve
- 00:07:15Essas tecnologias diz que não sabe bem
- 00:07:17como aquilo aconteceu que foi um erro
- 00:07:19pontual e coloca a culpa no robô só que
- 00:07:21uma inteligência artificial não nasce
- 00:07:23racista Aliás ela nem nasce né Ela é
- 00:07:26feita por pessoas mas assim como tem
- 00:07:29muita gente que nega o próprio racismo
- 00:07:31que diz que não vê cor Tem muita gente
- 00:07:33que nega que a tecnologia é influenciada
- 00:07:35pela política e aí o Tarcisio escreveu
- 00:07:38no livro dele uma coisa que faz muito
- 00:07:40sentido talvez esses erros frequentes
- 00:07:42não sejam glitches ou bugs mas
- 00:07:45funcionalidades nos termos de Rua
- 00:07:46Benjamim Talvez os erros sejam abre
- 00:07:49aspas antes um tipo de sinal de como o
- 00:07:52sistema opera não uma aberração mas uma
- 00:07:55forma de evidência jogando luz sobre
- 00:07:57falhas subjacentes e um sistema corrupto
- 00:08:00fecha aspas a história do racismo
- 00:08:02algorítmico é um grande exemplo de como
- 00:08:04não dá para pensar no conhecimento
- 00:08:06científico como algo descolado da
- 00:08:09sociedade mas essa história também é um
- 00:08:11exemplo de como a própria ciência ajuda
- 00:08:13a gente a descobrir coisas que são da
- 00:08:15nosas e encontrar novos caminhos nesse
- 00:08:18Episódio a gente vai mergulhar no mundo
- 00:08:20da tecnologia e trazer pra superfície
- 00:08:23alguns dos perigos e dilemas que ele
- 00:08:25esconde eu sou Carolina Marcelino eu sou
- 00:08:28o preste e essa é a quarta temporada do
- 00:08:31ciência suja o podcast que mostra que em
- 00:08:33crimes contra a ciência as vítimas Somos
- 00:08:36Todos
- 00:08:37[Música]
- 00:08:45nós no primeiro episódio dessa temporada
- 00:08:48a gente contou a história da henriet
- 00:08:49Alex aquela mulher negra dos Estados
- 00:08:51Unidos que teve células extraídas sem
- 00:08:54consentimento enquanto tratavam câncer
- 00:08:56de colo de útero nos anos 50 é história
- 00:08:59era daquelas células que são usadas até
- 00:09:00hoje em laboratórios por conseguirem se
- 00:09:02multiplicar sem parar Lembra as células
- 00:09:04hela então na época os Estados Unidos
- 00:09:07viviam no período das leis de Jin crow
- 00:09:09que eram leis estaduais e locais que
- 00:09:12institucionalizam a segregação racial
- 00:09:14tanto que a henrieta deu entrada na ala
- 00:09:16para negros do hospital Johns Hopkins em
- 00:09:18Baltimore o atendimento para negros
- 00:09:20tendia a ser pior do que o para brancos
- 00:09:23vale dizer como apontam vários estudos
- 00:09:25sobre a época mesmo com essa
- 00:09:26discriminação descarada ela até chegou a
- 00:09:29ser diagnosticada e tratada mas morreu
- 00:09:32logo depois por causa da doença então
- 00:09:34agora a gente vai fazer um exercício de
- 00:09:36imaginação e pensar na henrieta em
- 00:09:392023 esse exercício foi proposto pela
- 00:09:42socióloga Rua Benjamin professora da
- 00:09:44Universidade de princeton num texto dela
- 00:09:47na revista Science a rua que a gente já
- 00:09:49citou é uma baita referência bom a ineta
- 00:09:52moderna chega no pronto socorro com
- 00:09:54sintomas do câncer de colo de útero Dor
- 00:09:56forte no baixo ventre sangramento e uma
- 00:09:59sensação de nó no estômago só que agora
- 00:10:01o John Hopkins usa a inteligência
- 00:10:04artificial para atender melhor os
- 00:10:06pacientes com base nessas queixas
- 00:10:08iniciais no histórico da enria e em
- 00:10:10outras variáveis o software faz uma
- 00:10:12análise de risco que inclui milhões de
- 00:10:14cálculos em segundos entende que o caso
- 00:10:17não é tão grave e manda henrieta para
- 00:10:19casa mas o câncer avança muito E no fim
- 00:10:23ela morre no mesmo tempo que teria
- 00:10:25morrido no passado o resultado não foi
- 00:10:27muito diferente do da enria do passado
- 00:10:29da en reta da vida real né E isso numa
- 00:10:32época em que o câncer dela hoje tem mais
- 00:10:34opções de tratamento ah T Mas você tá
- 00:10:37olhando isso só pelo lado negativo Isso
- 00:10:39é uma história ficcional que vocês estão
- 00:10:41criando sei lá então na verdade esse
- 00:10:44desfecho negativo é baseado em fatos
- 00:10:46reais agora você vai ouvir um jornal da
- 00:10:49Rede norte-americana
- 00:10:51PBS um estudo recente publicado na
- 00:10:54revista Science encontrou vieses
- 00:10:56racistas significativos em algoritmos
- 00:10:58usados por hospitais do país para
- 00:11:00determinar quem precisa de
- 00:11:01acompanhamento médico e quem não
- 00:11:04precisa em 2019 um grupo de
- 00:11:06pesquisadores avaliou um algoritmo usado
- 00:11:08em vários hospitais nos Estados Unidos
- 00:11:11para determinar o quanto de
- 00:11:12acompanhamento cada pessoa precisaria
- 00:11:14nos próximos meses e ele descobriu que
- 00:11:16pessoas negras classificadas com o mesmo
- 00:11:19grau de risco dos seus pares brancos na
- 00:11:22verdade estavam bem mais doentes ou seja
- 00:11:25o sistema minimizava os quadros de saúde
- 00:11:28dos negros e o Curioso é que a cor deles
- 00:11:31nem era considerada pelo software os
- 00:11:33cientistas por trás do artigo
- 00:11:35Descobriram que isso acontecia porque na
- 00:11:37fase de desenvolvimento o programa de
- 00:11:39computador passou a associar gastos
- 00:11:41menores de saúde com menor gravidade da
- 00:11:44doença porque aquilo se meu câncer é
- 00:11:47menos agressivo eu tendo a precisar de
- 00:11:49menos recursos para cuidar dele e Ok
- 00:11:52pacientes negros tendiam a custar menos
- 00:11:54pro sistema Só que essa diferença
- 00:11:56financeira na verdade na verdade não
- 00:11:59estava associada com menos tratamentos o
- 00:12:01que rolava é que a população negra tinha
- 00:12:04menos acesso ao sistema de saúde e por
- 00:12:06isso gastava menos recursos E além disso
- 00:12:09Os Profissionais de Saúde tendiam a
- 00:12:11prescrever menos tratamentos para essas
- 00:12:13pessoas por acharem que a pessoa negra é
- 00:12:15mais resistente à dor por exemplo aquilo
- 00:12:17que a gente falou no primeiro episódio
- 00:12:19lembra não teria como não ser racista
- 00:12:23porque todos os dados de treinamento e
- 00:12:25decisões de respeito né a procedimentos
- 00:12:27foram em vez a
- 00:12:29então não bastaria fazer um sistema
- 00:12:31aparentemente neutro no código né Aí
- 00:12:35você ouviu o Tarcísio de novo quando os
- 00:12:37pesquisadores incluíram dados mais
- 00:12:39precisos sobre a condição de saúde e não
- 00:12:42sobre o gasto de cada paciente eles
- 00:12:44descobriram que o algoritmo tinha
- 00:12:46deixado passar quase 50.000 casos de
- 00:12:49pessoas que precisavam de mais
- 00:12:50atendimento não era uma Ena moderna eram
- 00:12:54[Música]
- 00:12:5750.000
- 00:13:00[Música]
- 00:13:03o processo de tomada de decisão para um
- 00:13:05algoritmo envolve várias camadas e é
- 00:13:07meio difícil de explicar mas uma
- 00:13:09informação importante para guardar desde
- 00:13:11já é que basicamente eles são programas
- 00:13:13que aprendem a tomar decisões com dados
- 00:13:16que são fornecidos e pré-classificados
- 00:13:18pelos humanos e os vieses podem entrar
- 00:13:21em várias etapas do processo do
- 00:13:23recrutamento do time de desenvolvedores
- 00:13:25as bases de dados usadas para treinar a
- 00:13:27máquina ou pior os vieses estão na
- 00:13:30história por trás do dado é por
- 00:13:32situações como essa que a Rua Benjamin
- 00:13:35chama situação atual de Jim Cold uma
- 00:13:37referência ao Jim crow dos anos 50
- 00:13:39aquelas leis de segregação racial dos
- 00:13:41Estados Unidos ela escreve assim no
- 00:13:43texto publicado na Science as práticas
- 00:13:46da era Jin crow alimentam o novo Jim
- 00:13:49code os sistemas automatizados que
- 00:13:52escondem aceleram e aprofundam a
- 00:13:55discriminação racial atrás de um verniz
- 00:13:57de neutralidade
- 00:13:59isso faz a gente pensar numa tendência
- 00:14:01que tem ganhado força há de usar as
- 00:14:03novas tecnologias para fazer pesquisas e
- 00:14:06criar ferramentas pra gente que cobre
- 00:14:08saúde já virou corriqueiro ler coisas
- 00:14:11como Inteligência Artificial é a nova
- 00:14:13revolução em saúde ou Inteligência
- 00:14:16Artificial ajuda a reduzir cirurgias
- 00:14:18desnecessárias E por aí vai E é verdade
- 00:14:21que ela é mesmo muito promissora e já
- 00:14:24tem sim usos positivos práticos como
- 00:14:27ajudar na seleção de tratamentos a
- 00:14:29partir dos estudos mais recentes mas sem
- 00:14:31esse Cuidado com os vieses racistas há o
- 00:14:34risco de a tecnologia amplificar
- 00:14:36problemas que já tão aí e ela avança
- 00:14:39mais rápido do que a gente discute isso
- 00:14:41hoje 88% do total de Pesquisas
- 00:14:44publicadas citam a inteligência
- 00:14:46artificial como parte da metodologia
- 00:14:49usada ou como objeto principal do estudo
- 00:14:52mesmo isso segundo a base de dados
- 00:14:54escopos E aí um pessoal do grupo nwork é
- 00:14:56uma empresa gigante de revista C
- 00:14:58científicas entrevistou mais de 1600
- 00:15:01pesquisadores para entender como isso
- 00:15:03funcionava na prática eles viram que os
- 00:15:05cientistas usavam a inteligência
- 00:15:07artificial para ajudar a escrever e
- 00:15:09resumir os artigos científicos para dar
- 00:15:11uma mãozinha no Brainstorm de ideias e
- 00:15:14na escrita de códigos de computador para
- 00:15:16sugerir diagnósticos e Triagem de
- 00:15:18pacientes enfim para um monte de
- 00:15:20aplicação quase 70% dos participantes
- 00:15:23responderam que a principal vantagem do
- 00:15:25uso da Inteligência Artificial era a
- 00:15:27agilidade no processamento de dados e
- 00:15:29pouco mais da metade estavam preocupados
- 00:15:32com a possibilidade dela reforçar vieses
- 00:15:34nos dados O problema é que boa parte dos
- 00:15:37cientistas não é especialista em
- 00:15:39Inteligência Artificial só usa
- 00:15:41ferramenta como um chat GPT da vida para
- 00:15:43ajudar no trabalho e aí dificilmente o
- 00:15:46cara vai entender onde o viés pode estar
- 00:15:48escondido um dos entrevistados nessa
- 00:15:50pesquisa da Nature chegou a dizer que
- 00:15:51abre aspas o principal problema é que a
- 00:15:54inteligência artificial tá desafiando
- 00:15:56nossos padrões de prova e de
- 00:16:02verdade parte desse problema acontece
- 00:16:04porque para quem é de fora a tecnologia
- 00:16:07parece mais um oráculo uma coisa meio
- 00:16:09mágica que você nem precisa entender bem
- 00:16:11como ela funciona aqui você vai ouvir o
- 00:16:14Tarcísio de novo explicando o conceito
- 00:16:16de caixa preta que é muito utilizado
- 00:16:19para justificar o funcionamento da
- 00:16:20Inteligência Artificial uma caixa pretas
- 00:16:22e na nos estudos de
- 00:16:25tecnologia seria basicamente um sistema
- 00:16:28que recebe alguns algumas entradas
- 00:16:30alguns inputs e cosp resultados e
- 00:16:34outputs e o que tá ali dentro a gente
- 00:16:37não conhece em minúcias guarda essa
- 00:16:39ideia de caixa preta que a gente volta a
- 00:16:41falar disso daqui a pouco mas tem uma
- 00:16:43parte dessa engenharia toda que é mais
- 00:16:45fácil de entender a decisão de que dado
- 00:16:48inserir no sistema e agora a gente vai
- 00:16:50trazer uma história que ilustra bem essa
- 00:16:52situação mas não tem como você
- 00:16:54questionar se você nem sabe o que que é
- 00:16:55né você só viê os resultados leos
- 00:16:57maravilhosos Então você só fica fogado e
- 00:16:58vai junto essa aí é a Sandra Ávila a
- 00:17:01professora da Unicamp que você já
- 00:17:02escutou mais cedo a Sandra trabalhava
- 00:17:04nessa época com um sistema de computador
- 00:17:06que processou muitas imagens de câncer
- 00:17:09de pele para aprender a detectar casos
- 00:17:11suspeitos em outras fotos inicialmente
- 00:17:14ela começou a trabalhar com imagens de
- 00:17:15um pesquisador da Alemanha e os
- 00:17:17resultados estavam muito bons depois o
- 00:17:19banco de dados foi ampliado e a taxa de
- 00:17:22acerto continuou alta o software
- 00:17:24acertava Praticamente tudo tava até bom
- 00:17:26demais para ser verdade coisa que deixa
- 00:17:29qualquer cientista desconfiado então a
- 00:17:31gente precisava conversar com pessoas
- 00:17:32especialistas para avaliar se os nossos
- 00:17:35os nossos acertos fazia sentido e se os
- 00:17:38erros a gente tava errando al que era
- 00:17:39muito difícil era alo que er muito fácil
- 00:17:41um dos dermatologistas que a Sandra
- 00:17:43consultou pareceu ter ficado bem
- 00:17:45surpreso com a taxa de acertos em casos
- 00:17:47especialmente difíceis mas também viu
- 00:17:50algumas confusões bobas em casos que
- 00:17:52Teoricamente seriam fáceis de acertar E
- 00:17:54aí o que ele falou para ela é que o que
- 00:17:56poderia estar bugando só era o fato de
- 00:17:59ele também est sendo treinado com lesões
- 00:18:01de pele nos pés nas mãos e nas unhas
- 00:18:04segundo esse dermatologista lesões
- 00:18:06nesses locais que apontavam para um
- 00:18:08câncer eram diferentes das lesões de
- 00:18:10outras partes do corpo e aí o programa
- 00:18:12que aprende a identificar padrões ficava
- 00:18:15meio perdido Às vezes a Sandra e o
- 00:18:17orientador dela levaram isso em conta e
- 00:18:19passaram a marcar como confusas e
- 00:18:22excluir algumas das amostras que eram
- 00:18:24sinalizadas como lesões nesses lugares
- 00:18:27só que o o câncer de pele em pessoas
- 00:18:30negras tende aparecer justamente no pé
- 00:18:33nas mãos e nas unhas Então o que
- 00:18:35aconteceu provavelmente é que o software
- 00:18:38deixou de ser ensinado a diagnosticar
- 00:18:40esse tipo de lesão que já era mal
- 00:18:42diagnosticada no consultório mesmo mas a
- 00:18:44Sandra só foi descobrir isso depois em
- 00:18:462020 lendo uma reportagem do The New
- 00:18:49York Times chamada a dermatologia tem um
- 00:18:52problema com a cor da pele mas o que a
- 00:18:54gente não sabia né O que não sabia o que
- 00:18:56eu realmente não sabia é era que no
- 00:18:59momento que eu tava lendo a reportagem e
- 00:19:01lá tava escrito dizendo que é
- 00:19:04essencialmente acontece em outros
- 00:19:05lugares tá não são os únicos lugares mas
- 00:19:08essencialmente a maior parte das das
- 00:19:10lesões malignas ou de lesões na verdade
- 00:19:13elas aparecem eh na mão na unha né e no
- 00:19:17pé né de pessoas negras eh imediatamente
- 00:19:21eu lembrei daquela conversa né então
- 00:19:24tipo das amostras né confusas quer dizer
- 00:19:27já no tinham muitas lesões de pessoas
- 00:19:30negras no conjunto de dados que estava
- 00:19:32sendo analisado que era basicamente de
- 00:19:34pessoas brancas e as poucas que podiam
- 00:19:36ser ligadas a pessoas de pele negra
- 00:19:38ainda estavam sendo rotuladas como
- 00:19:40confusas ou sendo excluídas então o
- 00:19:43trabalho da Sandra podia estar
- 00:19:44contribuindo para discriminar ainda mais
- 00:19:46as pessoas negras mesmo ela tando com a
- 00:19:49melhor das intenções ho ent num conflito
- 00:19:51assim tipo eu o que que eu tô fazendo né
- 00:19:55Tipo eu tava realmente
- 00:19:59muito chateada comigo não foi nem com a
- 00:20:01pessoa que me falou mas eu me questionei
- 00:20:03como cientista no sentido de tipo eu
- 00:20:05recebi uma informação e não fui atrás
- 00:20:07essa história é só para ilustrar como
- 00:20:09até uma pesquisadora mulher negra bem
- 00:20:12tensionada para caramba que entrou na
- 00:20:15computação querendo ajudar as pessoas
- 00:20:16com o trabalho dela também pode ser
- 00:20:18afetada com um viés excludente aí vem a
- 00:20:21pergunta Será que outros softwares que
- 00:20:23hoje fazem análises de exames de imagem
- 00:20:26para encontrar doenças foi foram
- 00:20:28treinados com base de dados
- 00:20:30representativas de diferentes populações
- 00:20:32essa é uma pergunta difícil de responder
- 00:20:34e que até pouco tempo atrás nem era
- 00:20:37muito feita para falar verdade só que
- 00:20:39com a Sandra foi diferente e aí o que
- 00:20:41aconteceu depois foi que depois que eu
- 00:20:44li a reportagem eu fiz bem assim não
- 00:20:46agora vou fazer projeto exclusivo para
- 00:20:50pessoas né de pele ne a Sandra conseguiu
- 00:20:54um financiamento em 2022 e agora tá
- 00:20:57ajudando aen um programa especialmente
- 00:21:00voltado para pegar tumores de pele em
- 00:21:02pessoas negras inclusive consultando
- 00:21:05dermatologistas especialistas nessa
- 00:21:08população A ideia é fazer a tecnologia
- 00:21:11enxergar melhor porque ela tá meio milpe
- 00:21:13Coitada e isso é um baita problema hoje
- 00:21:17não só na área da saúde Mas calma que
- 00:21:19depois do intervalo a gente se afunda
- 00:21:22mais nesse
- 00:21:23[Música]
- 00:21:27buraco
- 00:21:30[Música]
- 00:21:39esse intervalo é para lembrar que o
- 00:21:41Ciência suja tem o apoio do Instituto
- 00:21:43serrapilheira que fomenta projetos de
- 00:21:45pesquisa e divulgação Científica tem
- 00:21:48muita coisa bacana que eles apoiam dá
- 00:21:50uma olhada no www.serpa.ind.br
- 00:21:58do ciência suja faça como Deolindo
- 00:22:00crivelaro a Patrícia Maria e o Marcelo
- 00:22:02Napolitano que são apoiadores da
- 00:22:03categoria paladinos da ciência e vem com
- 00:22:06a gente nessa Valeu demais o Ciência
- 00:22:08suja também faz parte da Rádio
- 00:22:09guarda-chuva uma Confraria de podcasts
- 00:22:12jornalísticos com grandes projetos em
- 00:22:14áudio a nossa dica de hoje é uma série
- 00:22:17especial que tá no ar na rádio
- 00:22:19escafandro do jornalista Tomás kavine
- 00:22:22ele começou uma série investigativa
- 00:22:24sobre uma mistura de seita com
- 00:22:25organização criminosa que atua na cidade
- 00:22:28de Itaquatiara Amazonas o projeto
- 00:22:31mantido por um suposto pastor É voltado
- 00:22:33pro Resgate e a recuperação de usuários
- 00:22:35de drogas mas ele expõe e humilha
- 00:22:38pessoas em lives do Facebook e acumula
- 00:22:40acusações de trabalho escravo maus
- 00:22:43tratos e desvio de dinheiro para
- 00:22:45enriquecimento pessoal durante a série
- 00:22:47os episódios de escafandro serão
- 00:22:48semanais e não
- 00:22:51[Música]
- 00:22:56quinzenais
- 00:22:59para fazer esse episódio a gente
- 00:23:00conversou com alguns pesquisadores
- 00:23:02negros que estão querendo resolver esses
- 00:23:04vieses racistas de certas tecnologias e
- 00:23:06a gente perguntou por que Eles
- 00:23:08resolveram trabalhar com assunto que eu
- 00:23:10vi esse problema acontecer comigo e foi
- 00:23:12uma experiência pessoal muito impactante
- 00:23:14porque eu fiquei pensando logo nas
- 00:23:15crianças negras pequenas que iam ter
- 00:23:17acesso a essa ferramenta eu falei assim
- 00:23:19mano comece a entrar em desespero eu
- 00:23:20falei ah não tem como eu vou precisar
- 00:23:22parar para estudar Isso essa voz que
- 00:23:24você escutou agora é a mesma lá do
- 00:23:26começo do episódio é a Nina da hora
- 00:23:28contando o que ela pensou depois daquela
- 00:23:30experiência em que um robô não
- 00:23:31reconheceu o rosto dela como um rosto
- 00:23:34humano A Nina é uma jovem expoente da
- 00:23:37ciência da computação e não por acaso é
- 00:23:39orientada pela Sandra Ávila lá no
- 00:23:41mestrado na Unicamp ela Pesquisa esse
- 00:23:43problema do racismo dentro da área de
- 00:23:45visão computacional visão computacional
- 00:23:47é um conceito que tem a ver com o caso
- 00:23:49da Sandra do algoritmo pro câncer de
- 00:23:51pele mas bora explicar nas palavras da
- 00:23:53Nina mesmo é então é uma é uma das áreas
- 00:23:58de de aprendizagem de máquina né que
- 00:24:01trabalha com a ideia de você tentar
- 00:24:03reproduzir a imagem que o olho humano eh
- 00:24:06cria né que o cérebro cria e que o olho
- 00:24:09humano consegue enxergar no ambiente
- 00:24:11digital essa tecnologia é usada cada vez
- 00:24:14mais e tá chegando com tudo na segurança
- 00:24:16pública brasileira A ideia é fazer um
- 00:24:18computador Enxergar como a gente só que
- 00:24:21com alcance e uma nitidez muito maiores
- 00:24:24e além de enxergar ele é capaz de
- 00:24:25categorizar entre aspas o que ele tá
- 00:24:27vendo de processar o que ele tá vendo
- 00:24:29para gerar uma informação relevante
- 00:24:32interessante né pelo menos em teoria o
- 00:24:34lance é que tem muitos casos em que isso
- 00:24:36tá dando ruim em 2015 o aplicativo
- 00:24:39Google photos tinha acabado de ser
- 00:24:41lançado E aí ele começou a classificar
- 00:24:43pessoas negras como gorilas uma
- 00:24:45reportagem do The New York Times testou
- 00:24:47os aplicativos agora em 2023 e a solução
- 00:24:50foi simplesmente impedir o tagueamento
- 00:24:52de primatas na plataforma eles não
- 00:24:54melhoraram a visão da Inteligência
- 00:24:55Artificial eles só censuraram a máquina
- 00:24:58vai para entender porque o robô comete
- 00:25:00esses erros entre aspas é bom a gente
- 00:25:03dizer que ele é construído para simular
- 00:25:05o funcionamento da mente humana e não à
- 00:25:07toa um modelo de aprendizado bastante
- 00:25:10usado é a chamada rede neural é um
- 00:25:12modelo de aprendizado de máquina que
- 00:25:15tenta se inspirar no funcionamento do
- 00:25:16cérebro humano eu falo tenta Porque nós
- 00:25:19não conhecemos totalmente como o cérebro
- 00:25:21humano funciona só que apesar das
- 00:25:23expressões Inteligência Artificial rede
- 00:25:26neural ou aprend de máquina o que o
- 00:25:29algoritmo faz é muito longe de uma
- 00:25:31inteligência humana ou de um aprendizado
- 00:25:33humano Nesse contexto a Sandra mesmo só
- 00:25:36usa esse termo aprendizado com aspas mas
- 00:25:39é aqui do ponto de vista de linguística
- 00:25:41da de realmente de significado da
- 00:25:44palavra aprendizado ele envolve muito
- 00:25:47mais do que de fato que tá acontecendo
- 00:25:49pra máquina né então a máquina ela tá
- 00:25:52fazendo correlações pode até não ser só
- 00:25:55correlações mas ela tá fazendo
- 00:25:57combinações e aí eu vou colocar de uma
- 00:25:59função que tem muitos parâmetros e
- 00:26:02dependendo de como você passa aquelas
- 00:26:03informações ela dá um resultado então
- 00:26:06não tem um raciocínio sobre aquilo é
- 00:26:09isso aí um processo de aprendizado
- 00:26:11humano envolve raciocínio pensamento
- 00:26:14crítico etc o que o algoritmo faz é
- 00:26:16receber instruções e dados e processar
- 00:26:19os dados de acordo com aquela instrução
- 00:26:20que alguém criou é uma sequência de
- 00:26:22operações matemáticas que tenta fazer a
- 00:26:25máquina gerar conclusões a partir de de
- 00:26:27dados dentro desse aprendizado entre
- 00:26:30aspas tem camadas que são opacas que nós
- 00:26:33enquanto desenvolvedores cientístas da
- 00:26:35Computação sabemos dessa opacidade
- 00:26:37Lembra daquela história da caixa preta
- 00:26:39então a ideia por trás disso é que a
- 00:26:42máquina recebe instruções Gerais E aí
- 00:26:44ela processa um monte de informações e
- 00:26:46no fim gera conclusões que muitas vezes
- 00:26:49ninguém consegue explicar 100% como ela
- 00:26:52chegou a esses resultados é complicado
- 00:26:55mesmo para pegar um exemplo hipotético e
- 00:26:57simplista o humano fala pra máquina Ó
- 00:27:00essas fotos aqui são de baleias essas
- 00:27:02outras aqui são de golfinhos Eu quero
- 00:27:04que você procure padrões nessas centenas
- 00:27:07de imagens para diferenciar entre
- 00:27:09baleias e golfinhos aí beleza a máquina
- 00:27:11vai gasta um tempinho e faz isso aí o
- 00:27:14humano chega e diz tá então agora eu vou
- 00:27:17colocar essas outras imagens aqui e você
- 00:27:19vai me falar quais são de baleia e quais
- 00:27:21são os de golfinho sem eu te falar isso
- 00:27:23antes aí ela vai usa os padrões e começa
- 00:27:26a categorizar com uma taxa de acerto x e
- 00:27:29que quase nunca é 100% mas o lance é
- 00:27:33quais são esses padrões que a máquina
- 00:27:35definiu para fazer a diferenciação então
- 00:27:38a gente não sabe pelo menos não sem
- 00:27:40ficar testando a máquina e checando cada
- 00:27:42linha de código dela eu tô falando isso
- 00:27:45para reforçar que intervir nesse
- 00:27:47processo é mais complicado do que parece
- 00:27:49E também porque nesse processo a máquina
- 00:27:52pode criar padrões que reproduzem
- 00:27:54preconceitos tão antigos quanto a
- 00:27:56própria criação da da ciência moderna eu
- 00:27:58vou trocar então a história hipotética
- 00:28:00das baleias e dos Golfinhos por uma real
- 00:28:03sobre a categorização de criminosos para
- 00:28:05você entender melhor essa lógica Tá
- 00:28:07longe de ser nova ela vem do século XIX
- 00:28:10com aquela coisa de humanos superiores e
- 00:28:12inferiores a gente já falou sobre isso
- 00:28:14em outros episódios do ciência suja
- 00:28:16inclusive no episódio passado o segundo
- 00:28:18dessa temporada ali a gente contou a
- 00:28:20história do Samuel Morton que usava
- 00:28:22medida de crânios como prova entre aspas
- 00:28:25de que os brancos seriam super
- 00:28:28tudo mentira né raciocínios parecidos
- 00:28:30foram usados na mesma época também pelo
- 00:28:31Cesare Lombroso um criminologista
- 00:28:34italiano que achava que as
- 00:28:35características físicas de uma pessoa
- 00:28:38determinavam o quão perigosa ela era pra
- 00:28:40sociedade e em muitos outros estudos
- 00:28:42também você vê esse raciocínio racista
- 00:28:45então para quem pesquisa o viés da
- 00:28:47tecnologia o que a gente tá fazendo
- 00:28:48agora é reciclar esses raciocínios
- 00:28:51reciclar essas ideias que já foram
- 00:28:53inclusive rotuladas como pseudociência
- 00:28:56mas que voltaram a ganhar ao ar de
- 00:28:58neutralidade que é dado por toda a
- 00:29:00máquina né no livro do Tarcísio ele cita
- 00:29:02um trabalho chinês de 2016 que diz ter
- 00:29:05identificado padrões parecidos nos
- 00:29:07rostos de 2000
- 00:29:09criminosos a comunidade científica
- 00:29:11refutou o estudo mas os pesquisadores
- 00:29:13retrucaram com o argumento que abre
- 00:29:15aspas como a maioria das tecnologias o
- 00:29:17aprendizado de máquina é neutro e que o
- 00:29:20estudo deveria ser louvado por ser
- 00:29:22supostamente o abre aspas primeiro a
- 00:29:25estudar a inferência por Face sobre
- 00:29:27alidade e livre de quaisquer vieses
- 00:29:29subjetivos de observadores humanos fecha
- 00:29:32aspas O estranho é que o algoritmo é
- 00:29:35super neutro pode confiar Tá mas daí
- 00:29:38quando ele erra a gente joga a culpa
- 00:29:40nele mesmo a Nina resumiu a situação e
- 00:29:43quando esses problemas eles começaram a
- 00:29:46acontecer de forma muito
- 00:29:48eh rápida né a disseminação deles tem
- 00:29:51sido muito rápida as pessoas começaram a
- 00:29:54falar do que a culpa é do algoritmo E aí
- 00:29:56nós esquecemos das pessoas que estão
- 00:29:59construindo e dando continuidade a essa
- 00:30:02a esse a essa perspectiva que foi
- 00:30:04pensada no século XIX Então sai um pouco
- 00:30:07do ambiente de Inteligência Artificial e
- 00:30:09pensa por exemplo como um Segurança de
- 00:30:12Shopping tenta identificar um suspeito
- 00:30:14de roubar uma loja né Por exemplo uma
- 00:30:17pessoa negra como eu se eu entrar de
- 00:30:21short chinelo e uma camiseta de time no
- 00:30:25shopping eu já sou eu já vou ser seguida
- 00:30:28porque eles entendem que há um um um que
- 00:30:30é uma pessoa suspeita mas suspeita de
- 00:30:32quê Por que que isso já tá enraizado na
- 00:30:35nossa sociedade né Essa visão essa
- 00:30:37perspectiva essa suspeita do segurança
- 00:30:40tá espalhada pela sociedade e ela pode
- 00:30:42estar na cabeça do programador que faz o
- 00:30:44algoritmo e também tá nos dados
- 00:30:46disponíveis pra máquina então a máquina
- 00:30:49vai lá processa a informação e crava
- 00:30:52padrão de roupa de time hum suspeito
- 00:30:56padrão de cor de pé hum bem suspeito
- 00:30:59conclusão pega o cara e é por isso que a
- 00:31:02área da Segurança Pública é uma das que
- 00:31:04mais preocupa os pesquisadores hoje a
- 00:31:07tecnologia está sendo utilizada em favor
- 00:31:09de um processo ah de encarceramento em
- 00:31:13massa que já é profundamente marcado
- 00:31:15pelo racismo Esse aí que você escutou é
- 00:31:17o Pablo Nunes ele é doutor em Ciência
- 00:31:19Política pela Universidade do Estado do
- 00:31:21Rio de Janeiro e é um dos coordenadores
- 00:31:24do Centro de Estudos de segurança e
- 00:31:26cidadania o Zec o Pablo monitora o uso
- 00:31:29de reconhecimento facial no Brasil e foi
- 00:31:31indicado pra gente pela Cecília Oliveira
- 00:31:33uma jornalista que sabe tudo de
- 00:31:34Segurança Pública ela inclusive fez uma
- 00:31:36participação ótima no nosso Episódio a
- 00:31:38ciência das Guerras da segunda temporada
- 00:31:40no ano passado bom mesmo sem nenhuma
- 00:31:42regulamentação sobre o assunto polícias
- 00:31:45e governos já estão usando softwares de
- 00:31:47Inteligência Artificial e reconhecimento
- 00:31:49facial no país como a gente falou até
- 00:31:51setembro de 2023 mais de 1000 pessoas
- 00:31:54foram presas pelo sistema de
- 00:31:56reconhecimento facial do Governo da
- 00:31:58Bahia que encontra procurados pela
- 00:32:00justiça em eventos e outras áreas
- 00:32:02públicas só que pelo menos um desses 1 é
- 00:32:05comprovadamente inocente pelo menos né e
- 00:32:08ele foi detido na frente da mulher e do
- 00:32:10filho numa festa ficou 26 Dias preso e
- 00:32:13ainda perdeu emprego e de novo não é um
- 00:32:16errinho isolado aqui no Rio de Janeiro
- 00:32:18uma mulher foi detida como sendo uma
- 00:32:21pessoa procurada pela justiça e depois
- 00:32:23de horas né provando tentando provar que
- 00:32:26ela não era pessoa procurada ah a
- 00:32:29polícia descobriu que ela não só não era
- 00:32:31a pessoa procurada como na verdade a
- 00:32:33pessoa procurada já estava presa H 4
- 00:32:34anos o Pablo é uma máquina de trazer
- 00:32:37casos isolados entre aspas e
- 00:32:39estatísticas sobre o assunto O que a
- 00:32:42gente ouve desses policiais é que tem né
- 00:32:45de para cada uma pessoa que é detida e
- 00:32:50que realmente é a pessoa procurada
- 00:32:53existe 30 a 40 eh a chamadas e
- 00:32:57abordagens equivocadas uma taxa de erro
- 00:33:00tão absurda que a gente deveria
- 00:33:02inclusive para Além de pensar nas
- 00:33:04questões de violação de vieses de
- 00:33:06racismo algorítmico a gente deveria
- 00:33:08pensar também se essas são tecnologias
- 00:33:10que ajudam a política de segurança
- 00:33:13pública errinhos aqui errinhos ali e
- 00:33:16você já deve estar imaginando o perfil
- 00:33:18de quem é lido como alvo pela máquina né
- 00:33:21ah e quando a gente olha quem foi preso
- 00:33:22por reconhecimento facial lá em 2019 a
- 00:33:25gente conseguiu monitor né nos casos em
- 00:33:28que a gente conseguiu informação porque
- 00:33:3090% dessas pessoas eram pessoas negras e
- 00:33:32foram presas por crime sem violência né
- 00:33:35tráfico normalmente de pequenas
- 00:33:37quantidades de drogas o Pablo tá
- 00:33:39mencionando um relatório que ele ajudou
- 00:33:41a construir você encontra esse e outros
- 00:33:43materiais que a gente trouxe no episódio
- 00:33:46na descrição dos tocadores e do nosso
- 00:33:48site só que mesmo com essas falhas o uso
- 00:33:51da tecnologia de reconhecimento facial
- 00:33:53pela polícia tá avançando recentemente o
- 00:33:56governo do Rio de Janeiro usou drones
- 00:33:58equipados com câmeras de reconhecimento
- 00:34:01facial para encontrar suspeitos em
- 00:34:03operações policiais na Favela da Maré e
- 00:34:06agora a Prefeitura de São Paulo tá se
- 00:34:08gabando do Smart Sampa como solução pra
- 00:34:11violência urbana o Smart Sampa é um
- 00:34:13projeto com uma empresa que vai faturar
- 00:34:15quase 6 600 milhões de reais para
- 00:34:18instalar 20.000 câmeras de
- 00:34:19reconhecimento facial pela cidade aí
- 00:34:21você liga os pontos com essa ideia de
- 00:34:23que o bandido tem cara e cor e calcula o
- 00:34:26perigo
- 00:34:26[Música]
- 00:34:31o buraco é mais embaixo quando a gente
- 00:34:33fala de como e onde esses algoritmos de
- 00:34:35reconhecimento facial são treinados
- 00:34:37então primeiro vamos falar do
- 00:34:38desenvolvimento do algoritmo a parte
- 00:34:40ciência da coisa que é feito fora do
- 00:34:42país nesse momento é que a gente tem e
- 00:34:46essa esse viés sendo imputado a partir
- 00:34:49do treinamento dos bancos de dados
- 00:34:51majoritariamente brancos e isso acontece
- 00:34:53também porque a maioria dos
- 00:34:55desenvolvedores dessas tecnologias eles
- 00:34:57também são homens brancos e
- 00:34:58principalmente do Norte Global o caso da
- 00:35:00imagenet ilustra bem o problema dos
- 00:35:02bancos de dados que munici as
- 00:35:04ferramentas de Inteligência Artificial o
- 00:35:06imagenet tem mais de 14 milhões de
- 00:35:08imagens armazenadas e Serviu de base
- 00:35:11para muitas competições de
- 00:35:12desenvolvedores que ajudaram a
- 00:35:14revolucionar o campo da Visão
- 00:35:16computacional só que essas imagens foram
- 00:35:18obtidas no Google sem nenhuma
- 00:35:19transparência e sem consentimento dos
- 00:35:21retratados e dos fotógrafos para piorar
- 00:35:24elas foram classificadas por pessoas
- 00:35:26como eu e você do mundo todo elas tinham
- 00:35:28poucas instruções e recebiam centavos de
- 00:35:31dólares por cada 100 imagens analisadas
- 00:35:33ou seja quem descrevia as imagens que
- 00:35:36depois seriam usadas de Treinamento pra
- 00:35:38Inteligência Artificial não sabia muito
- 00:35:40bem o que estava fazendo e muito menos
- 00:35:43as implicações disso ah e as imagens
- 00:35:45eram de 2006 quando havia muito mais
- 00:35:48desigualdade no acesso à internet e uma
- 00:35:51pesquisadora do Paquistão alguns anos
- 00:35:52depois analisou de onde eram cada uma
- 00:35:55dessas imagens utilizando um recurso lá
- 00:35:57de dado e identificou que 50% das
- 00:35:59imagens eram Estados Unidos ou
- 00:36:01Inglaterra acho que era tipo 37 da
- 00:36:04Estados Unidos 14 da Inglaterra e depois
- 00:36:06tinha a Itália Alemanha e sei lá acho
- 00:36:08que 5% eram de outros países países
- 00:36:10pobres países do sul Global então um
- 00:36:13monte de Inteligência Artificial foi
- 00:36:15treinada com poucas imagens que ajudam a
- 00:36:18pegar sutilezas na fisionomia de pessoas
- 00:36:21negras por exemplo e Vale ressaltar um
- 00:36:24ponto que o próprio Tarcísio e a falaram
- 00:36:27sobre essa história por um lado a
- 00:36:29imagenet ajudou a impulsionar a ciência
- 00:36:32porque ofereceu uma base para diferentes
- 00:36:35projetos de Inteligência Artificial por
- 00:36:37outro ela reforçou práticas
- 00:36:40discriminatórias porque na melhor das
- 00:36:42hipóteses ele não é representativo da
- 00:36:45população Então essa base de dados
- 00:36:48incorporou todos esses problemas e aí é
- 00:36:50uma pesquisadora que chama beba biran
- 00:36:53que utiliza o termo Vitória pírrica que
- 00:36:55é aquela Vitória em que alguém ganhou
- 00:36:58algo mas todo mundo morreu a vitória
- 00:37:01pírrica é uma expressão que vem do
- 00:37:02Império Romano no período das Guerras
- 00:37:04pirricas pirro era um dos reis que se
- 00:37:07opunha a Roma e ele venceu uma batalha
- 00:37:09importante mas as perdas do exército
- 00:37:11dele foram tão significativas que ele
- 00:37:13não tinha mais como se defender direito
- 00:37:15então a Vitória meio que virou uma
- 00:37:17derrota em longo prazo é mais ou menos
- 00:37:19isso que pode estar acontecendo com
- 00:37:21reconhecimento facial Hoje os softwares
- 00:37:23comprados lá fora pelos governantes
- 00:37:25estão sendo desenvolvidos há anos com a
- 00:37:27ajuda desses bancos de dados cheios de
- 00:37:29falhas e vieses E aí quando chegam no
- 00:37:32Brasil esses software são alimentados
- 00:37:34por outras fontes suspeitas tem mais
- 00:37:36empresas como a clearview que usa
- 00:37:38robozinhos chamados de web crawlers algo
- 00:37:41como rastejadores da rede numa tradução
- 00:37:43livre para captar imagens de pessoas em
- 00:37:45plataformas de rede social como o
- 00:37:47Instagram e o Facebook a clearview Alega
- 00:37:50ter 3 bilhões de imagens em seu sistema
- 00:37:53de reconhecimento facial que já tá sendo
- 00:37:55testado por autor idades brasileiras
- 00:37:58isso segundo o veículo de imprensa
- 00:37:59intercept Brasil pode ser até que você
- 00:38:03ouvinte esteja sendo observado nossas
- 00:38:06fotos eu você provavelmente eh nossos
- 00:38:10ouvintes todos e provavelmente T
- 00:38:12registros nessa Clear viw eles eles
- 00:38:14alegam ter mais de 3 bilhões de
- 00:38:16fotografias coletadas em redes sociais
- 00:38:18no Facebook no Instagram não é à toa que
- 00:38:21vários países no mundo estão criando
- 00:38:23leis para restringir o reconhecimento
- 00:38:25facial em áreas públicas e a captura de
- 00:38:28imagens online só que o Brasil tá
- 00:38:31ficando para trás Então veja nós estamos
- 00:38:34em Total Contramão com o que a gente tem
- 00:38:37visto
- 00:38:38ah sendo desenvolvido no no contexto
- 00:38:41internacional o Brasil na verdade ele tá
- 00:38:44realmente né num processo de ficar
- 00:38:47completamente alijado né do que tem sido
- 00:38:51feito de melhor no ponto de vista de de
- 00:38:56como se lidar né politicamente com Essas
- 00:38:58tecnologias que a gente tem visto no
- 00:39:00[Música]
- 00:39:03mundo a pesquisadora canadense Joy bulan
- 00:39:06Win do massachusets institute of
- 00:39:08technology teve um problema parecido com
- 00:39:10o danina da hora enquanto ela
- 00:39:12desenvolveu um projeto de arte digital
- 00:39:14com reconhecimento facial o sistema que
- 00:39:16ela estava usando o Amazon recognition
- 00:39:19simplesmente não detectava o rosto dela
- 00:39:22aí a Joy fez um teste ela colocou
- 00:39:24literalmente uma máscara BR de papel na
- 00:39:27frente do rosto e o sistema funcionou
- 00:39:30essa cena Aliás está no início do
- 00:39:32documentário CAD Bias que tá na Netflix
- 00:39:34e a gente recomenda
- 00:39:40bastante aí a Joy começou a fazer
- 00:39:43pesquisas sobre o assunto como jender
- 00:39:45Shades Project nessa iniciativa ela
- 00:39:47mostra que enquanto a precisão desses
- 00:39:49softwares para reconhecer um homem
- 00:39:51branco passa dos 90% para mulheres
- 00:39:54negras fica na casa dos 60%
- 00:39:57no documentário do Netflix a Joy e
- 00:39:59outros especialistas discutem os efeitos
- 00:40:01de tudo isso um exemplo aqui se uma
- 00:40:04ferramenta de reconhecimento facial tem
- 00:40:06dificuldade de enxergar uma pessoa negra
- 00:40:09então será que uma pessoa negra tem
- 00:40:11menos chances de ser vista por um
- 00:40:13sistema de direção autônoma de um carro
- 00:40:15se sim o risco de ela ser atropelada é
- 00:40:18óbvio outro tipo de prejuízo que a
- 00:40:20inteligência artificial pode oferecer é
- 00:40:22o chamado dano representativo que é
- 00:40:24quando o sistema reproduz o reforça
- 00:40:27algum estereótipo ou preconceito sobre
- 00:40:29um grupo social teve uma brincadeira
- 00:40:31feita pelo buzzfeed agora em 2023 sobre
- 00:40:34a boneca Barbie típica de cada país que
- 00:40:37é gerada pela mid Journey a mid Journey
- 00:40:40é uma ferramenta que transforma entradas
- 00:40:42de texto e imagens só que ela produziu
- 00:40:44uma série de Barbies latino-americanas
- 00:40:46de pele clara o que contraria a cor de
- 00:40:48pele predominante por aqui e ela colocou
- 00:40:51um fuzil na mão da suposta Barbie do
- 00:40:53Sudão do Sul outro caso bizarro
- 00:40:55aconteceu no Brasil mesmo no fim desse
- 00:40:57ano aqui quando a deputada estadual do
- 00:40:59Rio de Janeiro Renata Souza Foi criar
- 00:41:02sua versão Pixar aquela empresa de
- 00:41:04animação que faz filmes fofinhos tipo up
- 00:41:06Procurando Nemo Ela contou uma
- 00:41:08publicação no Twitter que pediu para ser
- 00:41:10uma personagem da Pixar negra de cabelos
- 00:41:12crespos retratada numa favela e recebeu
- 00:41:16de volta uma ilustração sua entre aspas
- 00:41:18só que segurando uma arma aí a gente
- 00:41:21entra no campo da Inteligência
- 00:41:22Artificial generativa que mistura várias
- 00:41:25dessas olias para criar textos e imagens
- 00:41:29o chat GPT é a ferramenta de
- 00:41:31Inteligência Artificial generativa mais
- 00:41:34pop do momento ele é um modelo de
- 00:41:36linguagem que lê boa parte do que é
- 00:41:38escrito e publicado na internet daí ele
- 00:41:41calcula a probabilidade de uma palavra
- 00:41:43vir atrás de outra em um texto que faça
- 00:41:46sentido sabe o recurso de autocompletar
- 00:41:49das pesquisas do Google é mais ou menos
- 00:41:51isso no começo ele trabalhava mais livre
- 00:41:54entre aspas mas muito rápido o chat GPT
- 00:41:57precisou de supervisão Humana porque
- 00:41:59ficou claro que o robô era capaz de
- 00:42:02reproduzir discursos discriminatórios
- 00:42:04mas mesmo assim alguns truques
- 00:42:06relativamente simples conseguiam driblar
- 00:42:08os filtros criados para evitar a
- 00:42:10produção de textos racistas ou
- 00:42:12antiéticos no final de 2022 um usuário
- 00:42:15do Twitter pediu que o chat GPT
- 00:42:17escrevesse um código que definisse se
- 00:42:19uma pessoa deveria ser ou não torturada
- 00:42:22de acordo com seu país de origem aí o
- 00:42:24chat GPT decidiu da cabeça dele entre
- 00:42:27muitas aspas né que se uma pessoa viesse
- 00:42:30da Síria do Irã da Coreia do Norte ou do
- 00:42:32Sudão Sim ela deveria ser torturada se
- 00:42:35os dados carregam os problemas que tem
- 00:42:38na sociedade a máquina vai lá e faz a
- 00:42:40mesma coisa pior porque ainda faz com
- 00:42:43muito mais informação né automatizar o
- 00:42:46problema tá automatizando o problema
- 00:42:49pesquisando sobre isso acendeu uma
- 00:42:50luzinha aqui na equipe do ciência suja
- 00:42:52quer dizer na verdade isso é coisa do
- 00:42:54Pedro Belo né o nosso produtor ele tava
- 00:42:56se divertindo com os trailers de filmes
- 00:42:57e programas fictícios que foram
- 00:42:59desenvolvidos por sistemas de
- 00:43:00inteligência artificial na internet e
- 00:43:02convenhamos que dá para rir mesmo de um
- 00:43:04filme fake em que o Tom Hanks salva o
- 00:43:06mundo de drones alienígenas assassinos
- 00:43:09com bastão de beisebol ou de um em que o
- 00:43:12saudoso Chorão da banda Charlie Brown
- 00:43:14Júnior anuncia paz mundial Em um
- 00:43:16pronunciamento na assembleia geral da
- 00:43:18ONU e eu assistiria fácil esse filme do
- 00:43:20Chorão aliás mas esse ainda não fizeram
- 00:43:22Hein gente fica a dica aí para vocês e
- 00:43:24foi aí que o Pedrão caiu nos conteúdos
- 00:43:26que o rudá de Paula vinha publicando nas
- 00:43:28redes os dois trabalharam juntos na
- 00:43:30Editora Abril entre 2015 e 2018 quando
- 00:43:33rudá coordenava equipe de vídeo da Veja
- 00:43:35São Paulo nessa época Inclusive eu tava
- 00:43:37os andares abaixo escrevendo sobre
- 00:43:39exercício alimentação e bem-estar pra
- 00:43:40revista Saúde bom o rudá tin acabado de
- 00:43:43subir um trailer com roteiro feito pelo
- 00:43:45chat GPT e imagens desenvolvidas pelo
- 00:43:47mid Journey aquela ferramenta que criou
- 00:43:50as Barbies para lá de problemáticas para
- 00:43:52aquele teste do buzzfeed o trailer era
- 00:43:54sobre um programa gastronômico
- 00:43:56intergalático aí o Pedro pensou em
- 00:43:58produzir um trailer pro nosso próximo
- 00:44:00episódio que vai falar de colonialismo
- 00:44:03na arqueologia e na
- 00:44:05paleontologia A ideia era pedir pros
- 00:44:07programas imaginarem uma história
- 00:44:09fictícia e ver se ele reproduziria algum
- 00:44:12viés racista o briefing que ele acop
- 00:44:14passaram era criar um roteiro de
- 00:44:17aproximadamente um minuto para um
- 00:44:19trailer de um filme sobre um arqueólogo
- 00:44:22em busca de artefatos históricos num
- 00:44:24país distante mostrar cen com obstáculos
- 00:44:26enfrentados na jornada e confrontos com
- 00:44:29a população local e o antagonista que
- 00:44:32também quer os mesmos artefatos no fim
- 00:44:34ele está estudando o artefato em sua
- 00:44:36faculdade de volta em seu país de origem
- 00:44:39a gente não definiu de propósito qual
- 00:44:41seria o país ou a etnia dos personagens
- 00:44:44porque a gente queria ver o que o mid
- 00:44:46Journey ilustraria como arqueólogo ou
- 00:44:48como um cientista e como ele via um país
- 00:44:53distante tem um país
- 00:44:56distante um segredo milenar aguarda ser
- 00:45:02descoberto estamos perto eu posso sentir
- 00:45:05E aí logo nas primeiras tentativas o
- 00:45:08arqueólogo veio muito que nem o Indiana
- 00:45:10Jones um cara branco de meia idade olhos
- 00:45:12azuis penetrantes já os inimigos do país
- 00:45:15distante eram os homens com turbantes
- 00:45:18tudo seguindo uma cartilha do que é
- 00:45:20exótico e do que é Ciência para um
- 00:45:22europeu ou norte--americano né a gente
- 00:45:24vai falar mais disso no próximo Episódio
- 00:45:27e pont no sul global e você pode
- 00:45:29conferir n nossas redes oado do trailer
- 00:45:32que foi animado em uma outra ferramenta
- 00:45:34chamada pabs e dublada em outra ainda
- 00:45:37que é Eleven Labs esse material foi
- 00:45:39editado pelo rud que é humano mesmo e
- 00:45:42também percebeu esses
- 00:45:44vies o que você procura pertence a mim o
- 00:45:48que é
- 00:45:49descoberto para a
- 00:45:51[Música]
- 00:45:54eternidade
- 00:45:57vários dos casos que a gente trouxe no
- 00:45:59episódio são focados em pessoas negras
- 00:46:02mas os vieses dos algoritmos também
- 00:46:05trazem prejuízos contra outras etnias e
- 00:46:08mulheres no site do projeto desvelar do
- 00:46:10qual Tarcisio Silva participa já tem 126
- 00:46:14casos de discriminação documentados com
- 00:46:17a ajuda da pesquisa dele a gente vai
- 00:46:19trazer esses exemplos com uma clássica
- 00:46:22listinha do ciência suja Então vamos lá
- 00:46:25número um aplicativos de embelezamento
- 00:46:27envelhecimento ou rejuvenescimento que
- 00:46:30embranquecem o rosto número dois análise
- 00:46:34facial de emoções que associa categorias
- 00:46:36negativas a pessoas negras número três
- 00:46:40mecanismos de buscas que recomendam
- 00:46:42conteúdos e produtos relacionados a
- 00:46:44práticas de crimes para pessoas negras
- 00:46:46número quatro softwares para detectar
- 00:46:49risco de reincidência em criminosos
- 00:46:51condenados que avaliam pior pessoas
- 00:46:53negras do que brancas e e número cinco
- 00:46:56programas que ajudam no recrutamento de
- 00:46:58funcionários e que automaticamente
- 00:47:00excluem currículos de mulheres para
- 00:47:03tentar frear esse processo cada vez mais
- 00:47:05gente Tem trabalhado o conceito de
- 00:47:07Justiça algorítmica A ideia é discutir
- 00:47:10leis e regulações para esse campo
- 00:47:13tecnológico e abrir a caixa preta dos
- 00:47:15algoritmos mas não só precisa humanizar
- 00:47:18esse processo para entender que a
- 00:47:20máquina toma uma faz uma ação sim mas
- 00:47:23ela tá tomando uma ação baseada em dados
- 00:47:26e quem coloca os dados né que dados a
- 00:47:28gente tá usando então assim dizer também
- 00:47:31que os dados eles carregam cultura essa
- 00:47:33aí que você escutou agora é a Silvana
- 00:47:35Bahia ela é jornalista e diretora
- 00:47:37executiva do olabi uma organização que
- 00:47:39trabalha para promover a diversidade e a
- 00:47:42inclusão na área de tecnologia ela toca
- 00:47:44um projeto bacana o pretalab que é
- 00:47:46focado na presença de mulheres negras
- 00:47:49dentro desse mercado e esse
- 00:47:50questionamento que ela tá fazendo é bem
- 00:47:52importante a gente tem alguns dados hoje
- 00:47:56que foram produzidos Ali pela brascom né
- 00:48:00que vai dizer que 18% dos graduandos em
- 00:48:05Ciência da Computação no Brasil são
- 00:48:06mulheres quando a gente traz a lente de
- 00:48:09raça junto com a de gênero a gente vê
- 00:48:11que esse número diminui muito né então
- 00:48:13são apenas 3% de mulheres negras nos
- 00:48:15cursos Deia da computação e 11% de
- 00:48:19mulheres negras no mercado de de
- 00:48:21trabalho isso assim isso não reflete a
- 00:48:24sociedade que a gente então ter mais
- 00:48:27representatividade ajudaria muito só que
- 00:48:30todos os programadores e pesquisadores
- 00:48:32brancos negros ou que for precisam
- 00:48:35também de pensamento crítico Não adianta
- 00:48:38só apertar o botão saber saber programar
- 00:48:41porque na realidade a gente tá falando
- 00:48:43de algo que muitas vezes a gente separa
- 00:48:45né ah sociedade conhecimento na área das
- 00:48:48exatas da técnica só que isso tá
- 00:48:50totalmente embc então se não tem
- 00:48:52pensamento crítico eu acho que não
- 00:48:53adianta ter só pessoas negras
- 00:48:56fazendo isso sabe a gente precisa
- 00:48:58entender como Essas tecnologias
- 00:49:00funcionam e quais os vieses delas pra
- 00:49:03gente decidir como sociedade onde acha
- 00:49:05que elas devem ser aplicadas e onde não
- 00:49:08e aliás como aplicar também mas corrigir
- 00:49:11esses problemas custa caro dá trabalho e
- 00:49:14muitas vezes os pesquisadores não são
- 00:49:16ouvidos quando apontam os problemas para
- 00:49:18as grandes empresas de tecnologia Aliás
- 00:49:21o que não falta é cientista alertando
- 00:49:24pro perigo de um futuro tecnocrata a
- 00:49:26gente não vai mais viver sem os
- 00:49:28algoritmos isso é um fato mas tem que
- 00:49:30dar um jeito para que negros não
- 00:49:32precisem mais usar máscaras brancas para
- 00:49:35serem reconhecidos por eles essa é uma
- 00:49:37imagem que evoca quase que literalmente
- 00:49:39o título do primeiro livro do psiquiatra
- 00:49:42e filósofo Franz fanon que fala das
- 00:49:45relações psicológicas entre colonizados
- 00:49:48e colonizadores o nome da obra é Pele
- 00:49:52Negra Máscaras Brancas como escreveu Fan
- 00:49:55pensar nisso tudo é urgente para que
- 00:49:58abre aspas jamais o instrumento domínio
- 00:50:01o homem que cesse para sempre a servidão
- 00:50:03do homem pelo homem fecha
- 00:50:06[Música]
- 00:50:24aspas
- 00:50:26antes de ir pros créditos a gente queria
- 00:50:28fazer um agradecimento especial pra
- 00:50:30Maria Vitória Pereira que fez um TCC
- 00:50:33sobre a questão das câmeras de
- 00:50:34reconhecimento e que ajudou a gente
- 00:50:36bastante aqui aliás Ela ajudou na
- 00:50:38apuração desse Episódio também obrigado
- 00:50:40viu Maria Vitória e obrigada também ao
- 00:50:43rud Paula que ajudou a gente a criar
- 00:50:45aquele trailer lá em diana Jones e a
- 00:50:47entender os processos por trás disso a
- 00:50:50quarta temporada do ciência suja é
- 00:50:52apresentada por mim Carol Marcelino e
- 00:50:54por mim telr preste para essa temporada
- 00:50:57toda nós temos a consultoria do
- 00:50:59professor Luís Augusto Campos a gente
- 00:51:01não colocou sonoras do Luís nesse
- 00:51:03Episódio mas ele indicou muitas
- 00:51:05referências e entrevistados pra gente
- 00:51:08Esse episódio foi produzido pela cloé
- 00:51:09Pinheiro e pelo Pedro Belo o roteiro
- 00:51:12também é do Pedro e da Chloé com pitacos
- 00:51:14de toda a equipe a edição de som e os
- 00:51:17ambientes sonoros e as trilhas originais
- 00:51:19são do Felipe Barbosa nesse Episódio a
- 00:51:22gente usou áudios da PBS e do
- 00:51:24documentário coded bias da Netflix as
- 00:51:27vozes complementares são do Felipe
- 00:51:29Barbosa e da choé Pinheiro as artes das
- 00:51:32Capas e o projeto gráfico do ciência
- 00:51:34suja são obra da maan ferry e do
- 00:51:36Guilherme Henrique o nosso site foi
- 00:51:38desenvolvido pelo estúdio barbatana nele
- 00:51:41ou no seu tocador Favorito e no YouTube
- 00:51:44você encontra todos os episódios do
- 00:51:46ciência suja Siga a gente nas redes
- 00:51:48sociais o Ciência suja tá no Instagram
- 00:51:50no Twitter no Facebook e no tiktok a
- 00:51:53gente se vê daqui a duas semanas no
- 00:51:55quarto episódio dessa temporada até
- 00:51:58[Música]
- 00:52:19lá nave
- 00:52:23reportagens
- algorithmic racism
- facial recognition
- bias in technology
- Nina da Hora
- Tarcísio Silva
- Sandra Ávila
- healthcare disparities
- AI technology
- racial inequality
- data representation