Sara Román: "De sesgos y algoritmos"
摘要
TLDREl video analiza cómo la tecnología y el diseño están intrínsecamente relacionados con la política y los sesgos humanos. Se expone la idea de que la tecnología, lejos de ser neutra, está impregnada de decisiones políticas. Se mencionan ejemplos concretos, como bancos anti-mendigos diseñados para impedir que personas sin hogar descansen allí, y software de algoritmos sesgados que pueden favorecer o perjudicar a grupos específicos. La charla se centra también en la importancia de la transparencia algorítmica y la explicabilidad de los sistemas de inteligencia artificial, subrayando la falta de claridad sobre cómo se toman las decisiones automatizadas. Finalmente, se aborda la cuestión de la ética en la inteligencia artificial y la necesidad de marcos normativos más robustos para evitar la discriminación y asegurar un uso justo y responsable de estas tecnologías.
心得
- 🤔 El diseño es intrínsecamente político, siempre conlleva una intención.
- 🏙️ Ejemplos de diseño urbano reflejan decisiones políticas, como los bancos anti-homeless.
- ⚙️ La tecnología no es neutra; contiene las opiniones e intenciones del diseñador.
- 📚 Los algoritmos pueden perpetuar y amplificar sesgos humanos.
- 🧠 Los sistemas de inteligencia artificial a menudo son opacos y difíciles de explicar.
- 💻 Existen preocupaciones éticas sobre quién diseña y quién usa la tecnología.
- 🔍 Transparencia algorítmica es crucial para entender y auditar decisiones automatizadas.
- ⚖️ El uso justo del software debe ser regulado para evitar discriminación y abuso.
- 🤖 La inteligencia artificial en sistemas críticos requiere explicabilidad y rendición de cuentas.
- 👥 La diversidad en tecnología es esencial para evitar sesgos y crear mejores productos.
时间轴
- 00:00:00 - 00:05:00
El tema que se va a discutir es la implicancia política del diseño y la tecnología, destacando que no son neutrales y pueden tener intenciones ocultas, como los bancos anti mendigo en Madrid diseñados para evitar que la gente duerma en ellos.
- 00:05:00 - 00:10:00
Se discute cómo la tecnología, incluyendo el software y las aplicaciones, también implica decisiones políticas. Ejemplos dados incluyen cómo los algoritmos pueden presentar sesgos y cómo sus diseñadores tienen intenciones políticas.
- 00:10:00 - 00:15:00
Se exploran ejemplos de cómo los algoritmos afectan nuestras vidas cotidianas, como Netflix que decide opciones de reproducción automática para aumentar el uso de la plataforma.
- 00:15:00 - 00:20:00
Se aborda el problema de la adicción tecnológica y las técnicas utilizadas por las aplicaciones para mantener a los usuarios enganchados, comparando estas tácticas con las de las máquinas tragamonedas.
- 00:20:00 - 00:25:00
Se menciona cómo las aplicaciones pueden tener sesgos y prejuicios integrados en su diseño, afectando decisiones importantes como la aprobación de bonos sociales.
- 00:25:00 - 00:30:00
Se discute cómo la inteligencia artificial se utiliza en diversas áreas, como la policía para predecir crímenes, lo que plantea serias preocupaciones éticas sobre precisión y justicia.
- 00:30:00 - 00:35:00
Los algoritmos pueden dar lugar a decisiones equivocadas, citando el ejemplo de sistemas de reconocimiento facial engañados por pequeñas variaciones. La transparencia y el entendimiento son críticos.
- 00:35:00 - 00:40:00
Se resalta que las decisiones de diseño en software reflejan sesgos inherentes y decisiones políticas que pueden ser perjudiciales, debiendo ser transparentes y auditables.
- 00:40:00 - 00:45:00
Se critica cómo los prejuicios son amplificados por los algoritmos, citando ejemplos donde las mujeres reciben menos ofertas laborales debido a sistemas sesgados.
- 00:45:00 - 00:50:00
Se destaca la falta de diversidad en la industria tecnológica y cómo esto impacta el diseño de tecnología, sugiriendo que la diversidad conduciría a mejores productos.
- 00:50:00 - 00:55:00
Se enfatiza en la necesidad de transparencia algorítmica para entender y explicar las decisiones de los algoritmos, y la necesidad de regulación ético-normativa en su implementación.
- 00:55:00 - 01:02:34
Se concluye exponiendo los esfuerzos para abordar estos problemas de diseño y tecnología, mencionando guías éticas europeas y reflexionando sobre la necesidad de regulación estricta en tecnología similar a la genética.
思维导图
常见问题
¿Cuál es la relación entre el diseño y la política?
El diseño siempre implica una intención y, por lo tanto, es político. Esto se observa tanto en objetos físicos como en tecnología.
¿Qué son los bancos anti-homeless?
Son bancos diseñados para impedir que personas sin hogar puedan dormir en ellos, reflejando una decisión de diseño política.
¿Qué ejemplo se menciona sobre los algoritmos en inteligencia artificial?
Se menciona cómo los algoritmos pueden contener sesgos, como en el caso de sistemas de reclutamiento que discriminan por género.
¿Qué libro se menciona en la charla?
"Armas de destrucción matemática" de Cathy O'Neil, que trata sobre sesgos y algoritmos.
¿Cómo afecta el diseño del software a la política?
El diseño del software determina quién tiene acceso a qué información, qué acciones se pueden realizar y refleja decisiones políticas sobre el uso de la tecnología.
¿Qué es la transparencia algorítmica?
Es la necesidad de entender cómo y por qué un algoritmo toma decisiones, asegurando que estas decisiones sean equitativas y libres de sesgos.
¿Por qué se dice que el software es político?
Porque al diseñar un software o aplicación, hay intenciones y decisiones que afectan a las personas, similares a las decisiones políticas.
¿Qué problemas se asocian con los sistemas de inteligencia artificial?
Problemas como sesgos inherentes, falta de explicabilidad de algoritmos complejos y decisiones automatizadas que afectan derechos humanos.
¿Se mencionan ejemplos específicos de sesgos en algoritmos?
Sí, como sistemas de selección de empleo de Amazon que discriminan por género y sistemas policiales que predicen criminalidad.
¿Qué se dice sobre los sesgos de género en tecnología?
Que el campo tecnológico está dominado por hombres, lo que influye en el diseño de software y perpetúa sesgos de género.
查看更多视频摘要
Más filosofía para entendernos mejor. Michael Sandel, filósofo y profesor
Razones y tips para viajar solo
White Door Opened - Complete Season 1
★ LA BURBUJA DEL ARTE CONTEMPORÁNEO ( Documental Completo )
Sexo Luego Existo - Amor y Apego en la Pareja (Parte 6)
Sexo Luego Existo - Amor y Apego en la Pareja (Parte 2)
- 00:00:09bueno pues yo vengo a hablar de un tema
- 00:00:11que afortunadamente está empezando a
- 00:00:15salir digamos en los medios de
- 00:00:17comunicación creo que es un tema
- 00:00:20importante del que toda la sociedad debe
- 00:00:22saber y del que se debería debatir y
- 00:00:25hablar
- 00:00:27y voy a tratar de
- 00:00:30y poner en contexto aclarar también
- 00:00:33algunos términos o algunas cosas que
- 00:00:35están saliendo en la prensa yo vengo del
- 00:00:37mundo tecnológico no es una charla
- 00:00:40técnica en cualquier caso
- 00:00:43y bueno tengo entendido que por el
- 00:00:46contexto de este curso hay personas de
- 00:00:48diferentes formaciones entonces doy más
- 00:00:53doy más por hecho que venís del mundo
- 00:00:56humanístico que desde el tipo de
- 00:00:58audiencia que suelo tener yo en mi clase
- 00:01:00en cualquier caso cuando empiezo
- 00:01:03planteando en mis clases esto y eso
- 00:01:06tiene que ver con lo tuyo el diseño es
- 00:01:10político pues me suele mirar la gente
- 00:01:12con cara rara pero creo que es algo es
- 00:01:16una idea que solemos tener que la
- 00:01:18tecnología es algo neutral e inocente la
- 00:01:20tecnología no es algo neutral inocente
- 00:01:22como no lo es el diseño de ningún objeto
- 00:01:25o de ningún espacio entonces no sé si
- 00:01:29habéis oído hablar de los famosos bancos
- 00:01:31anti mendigo en madrid no sé si en
- 00:01:33zaragoza igual no tenéis pero en madrid
- 00:01:35sí si os dais cuenta de cómo está
- 00:01:37diseñado ese banco y esa parada de
- 00:01:39autobús pues bueno es un sitio
- 00:01:41relativamente refugiado que si alguien
- 00:01:43tiene que dormir en la calle pues le
- 00:01:44podría venir muy bien ese banco sin
- 00:01:46embargo pues alguien artísticamente ha
- 00:01:49puesto
- 00:01:50la tablita y en medio para separar los
- 00:01:53espacios el efecto que tiene esa tablita
- 00:01:56que está ahí en medio es que los
- 00:01:58espacios que quedan son absolutamente
- 00:02:00incómodos incluso segundo el tamaño de
- 00:02:02la persona imposible tumbarse a dormir y
- 00:02:06de ahí que estos bancos hayan acabado
- 00:02:07cuando el apodo en madrid' de bancos
- 00:02:10anti mendigo tenemos otros diseños que
- 00:02:13ya son muchísimo más sutiles vemos hay
- 00:02:15una decoración de un espacio público
- 00:02:19un espacio público que en principio no
- 00:02:21está pensado para que la gente se siente
- 00:02:23se compre una lata de coca-cola net
- 00:02:26super y se sienten ahí por 30 céntimos
- 00:02:29creo que vale en el super a pasar la
- 00:02:31tarde tranquilamente porque está muy
- 00:02:34artísticamente decorado impidiendo que
- 00:02:37la gente se pueda sentar ahí está muy
- 00:02:39bien esta foto porque se ve digamos que
- 00:02:42detrás de esa decoración hay una
- 00:02:45intención y es que la gente después se
- 00:02:46sienta en la terraza y se gaste su
- 00:02:48dinero en la terraza
- 00:02:51qué tiene que ver todo esto con la
- 00:02:53tecnología o con el tema del que yo
- 00:02:55vengo a hablar pues tiene muchísimo que
- 00:02:57ver tiene muchísimo que ver porque
- 00:02:59cuando hablamos de software o hablamos
- 00:03:01de aplicaciones informáticas hablamos de
- 00:03:03tecnología estamos también hablando de
- 00:03:05política
- 00:03:07y entonces básicamente esa es la idea
- 00:03:09que vengo a presentar no sé si habéis
- 00:03:11oído hablar de esta mujer de acción
- 00:03:14inglés una matemática que ha escrito
- 00:03:16este libro muy interesante que se llama
- 00:03:18armas de destrucción matemática y que
- 00:03:21trata del tema de los sesgos y los
- 00:03:24algoritmos y cómo están los algoritmos
- 00:03:28presentes en nuestras vidas y cómo están
- 00:03:30afectando muchísimo a nuestras vidas y
- 00:03:33me gusta mucho esta cita de ella que
- 00:03:35dice que los algoritmos son opiniones
- 00:03:37incrustadas en código entonces tenemos
- 00:03:40que tener en cuenta cuando decimos que
- 00:03:42el software es política que el software
- 00:03:44un programa informático hay que
- 00:03:46diseñarlo alguien tiene que pensar en
- 00:03:49ese programa y dónde hay un diseño hay
- 00:03:51una intención y en ese sentido estamos
- 00:03:54hablando de política
- 00:03:56me suele pasar muy habitualmente en mis
- 00:03:58clases que la gente asocia política
- 00:04:01cuando hablar de partidos políticos no
- 00:04:03la política está presente en nuestra
- 00:04:07realidad en nuestras vidas de muchas
- 00:04:09maneras entonces cuando hablamos de que
- 00:04:11el software es política y que hay que
- 00:04:13diseñarlo estamos hablando de que
- 00:04:15alguien tiene que decidir qué va a hacer
- 00:04:17el programa os he traído unos cuantos
- 00:04:20ejemplos que van vamos a pasar a ver a
- 00:04:22continuación vale alguien tiene que
- 00:04:24decidir qué nos va a permitir hacer o no
- 00:04:27hacer ese programa y eso es lo que va a
- 00:04:29determinar un montón de cosas por
- 00:04:32ejemplo netflix no me da la opción de
- 00:04:35configurar si quiero que el siguiente
- 00:04:37capítulo se reproduzca automáticamente
- 00:04:38vale muy descaradamente net
- 00:04:42el ceo de netflix ha hecho unas
- 00:04:43declaraciones públicas diciendo que su
- 00:04:46mayor competidor es la necesidad de
- 00:04:47dormir de los seres humanos
- 00:04:50s no dejarme configurar está hecho
- 00:04:53completamente a propósito hay una
- 00:04:55intención ese es un ejemplo
- 00:04:58qué información a raíz de la
- 00:05:00presentación que has hecho y de lo que
- 00:05:02enmarca este curso alguien tiene que
- 00:05:05decidir qué información va a obtener de
- 00:05:07nosotras o de nosotros esa aplicación o
- 00:05:10ese programa creo que la mayoría de la
- 00:05:13gente se descarga por ejemplo
- 00:05:14aplicaciones o acepta términos y
- 00:05:16condiciones de uso sin habérselos leído
- 00:05:19a mí no me funciona la cámara de fotos
- 00:05:22en mi móvil porque cada vez que intento
- 00:05:23hacer una foto me pide permiso para
- 00:05:25hacer llamadas telefónicas eso no es una
- 00:05:29decisión técnica una aplicación que hace
- 00:05:31que maneja una cámara de fotos y que
- 00:05:34hace fotos no necesita hacer llamadas
- 00:05:35telefónicas para funcionar
- 00:05:39qué inferencias puede realizar sobre
- 00:05:42quiénes lo usan y creo que en este
- 00:05:44sentido es muy interesante y muy
- 00:05:46importante que todo el mundo estemos
- 00:05:49concienciados de que cada vez que
- 00:05:53hacemos un clic en algún sitio por
- 00:05:56detrás hay una serie de algoritmos que
- 00:05:58están observando nos que están
- 00:05:59aprendiendo y que están sacando un
- 00:06:02montón de conclusiones sobre quiénes
- 00:06:04somos en qué estado de ánimo estamos
- 00:06:05etcétera etcétera etcétera y todo eso no
- 00:06:08es casual y en la mayor parte de las
- 00:06:11veces no es una obligación tecnológica
- 00:06:13para que funcione la aplicación es una
- 00:06:16decisión que está tomado en el diseño y
- 00:06:18todo esto que estoy comentando es está
- 00:06:21enmarcado dentro de lo que digo que el
- 00:06:23software y los diseños son políticas y
- 00:06:25son políticas y una parte que me parece
- 00:06:28también imprescindible
- 00:06:31y comentar es que se están utilizando
- 00:06:34actualmente en el desarrollo de
- 00:06:36aplicaciones técnicas de adicción se
- 00:06:38están hay un informe del instituto
- 00:06:40rácano sobre los derechos humanos en la
- 00:06:43edad de la robótica o la era de la
- 00:06:44robótica y está perfectamente
- 00:06:47documentado las mismas técnicas de
- 00:06:50persuasión es decir técnicas
- 00:06:52psicológicas combinadas con la las
- 00:06:55posibilidades de la tecnología de las
- 00:06:58tics se están utilizando las mismas que
- 00:07:01las de las máquinas tragaperras en todas
- 00:07:04las aplicaciones que estamos utilizando
- 00:07:06prácticamente todas para crear adicción
- 00:07:08porque su negocio está en que pasemos el
- 00:07:11mayor tiempo posible
- 00:07:12pendientes de ellas
- 00:07:15todo esto
- 00:07:16digamos está enmarcado dentro de lo que
- 00:07:20es política como me habían dicho he
- 00:07:22leído que había algo relacionado con
- 00:07:24arte no sé supongo que aquí sí sabréis
- 00:07:28de quién estamos hablando
- 00:07:33conocéis bosco que tiene que ver vos con
- 00:07:37el software y con la política pues en
- 00:07:39realidad bosco ha sido casualidad porque
- 00:07:42quería hablar de esto pero me hizo
- 00:07:43gracia por el contexto lo puse pero
- 00:07:46buscó también es el nombre de una
- 00:07:47aplicación es una aplicación
- 00:07:49desarrollada por el gobierno español
- 00:07:52pero que usan las compañías eléctricas
- 00:07:54que examinan las solicitudes de bono
- 00:07:58social y de esta aplicación es la que
- 00:08:01saca el sí o el no te doy la ayuda o no
- 00:08:05te doy la ayuda y esto es un ejemplo de
- 00:08:09que seguro es política y tenemos aquí a
- 00:08:12la fundación cibió que ha recibido
- 00:08:13numerosas quejas de personas que han
- 00:08:15solicitado este bono y que cumpliendo
- 00:08:19los requisitos según la normativa que
- 00:08:21está publicada esas personas piensan que
- 00:08:25deberían recibir esta ayuda y sin
- 00:08:26embargo el programa informático está
- 00:08:28diciendo que no aquí hay un conflicto
- 00:08:32esta fundación ha examinado las quejas
- 00:08:36de estas personas con la normativa en la
- 00:08:38mano y dice pues parece que tienen razón
- 00:08:40han hecho una serie de pruebas con la
- 00:08:42aplicación parece ser que la aplicación
- 00:08:44no está aplicando la normativa
- 00:08:47correctamente se han hecho una serie de
- 00:08:49denuncias y el problema que nos
- 00:08:51encontramos ahora mismo que es otra de
- 00:08:52las partes importantes de las que vengo
- 00:08:55a hablar es cuánto sabemos de por qué
- 00:08:57toma uno toma una determinada decisión
- 00:09:00un algoritmo un programa informático
- 00:09:02esto ahora mismo está en los tribunales
- 00:09:05de justicia porque esta fundación está
- 00:09:08solicitando al gobierno que le dé el
- 00:09:10código de la aplicación que les deje ver
- 00:09:12ese programa que ver las tripas del
- 00:09:14programa ver cómo funciona el programa y
- 00:09:17poder
- 00:09:17poder revisarlo para poder auditar lo y
- 00:09:20de momento el gobierno se ha negado
- 00:09:22entonces lo han llevado a los juzgados
- 00:09:23para ver si hay algún juez o alguna
- 00:09:26jueza que pueda determinar si el
- 00:09:28gobierno debería
- 00:09:30proporcionar a la ciudadanía ese código
- 00:09:33fuente le voy a hablar ahora un poquito
- 00:09:36más a lo mejor del código fuente
- 00:09:38entonces esta cita también me gusta
- 00:09:40mucho mencionarla porque estamos en una
- 00:09:42situación en un momento de esto se lleva
- 00:09:45hablando mucho tiempo esta es muy
- 00:09:46antigua donde se habla de que el código
- 00:09:48es ley y es que al final el que exista
- 00:09:51no exista una casilla para marcar algo
- 00:09:54está determinando qué es lo que podemos
- 00:09:56y no podemos hacer
- 00:10:02entonces traigo varios ejemplos hemos
- 00:10:05hablado ya decidió pero ahora estamos
- 00:10:07hablando por ejemplo de que las policías
- 00:10:10en general traigo varios ejemplos de
- 00:10:13varios países están utilizando estos
- 00:10:15sistemas estos sistemas
- 00:10:17normalmente sistemas ya muy complejos
- 00:10:19sistemas de inteligencia artificial y
- 00:10:22los están utilizando para sacar
- 00:10:23conclusiones sobre por ejemplo en este
- 00:10:26caso si alguien ha escrito una denuncia
- 00:10:30falsa entonces tenemos un sistema de
- 00:10:32inteligencia artificial en este caso que
- 00:10:34se dedica al procesamiento de textos que
- 00:10:38examina el texto que ha escrito una
- 00:10:39persona en una denuncia y el programa
- 00:10:42decide si esa denuncia es falsa o esa
- 00:10:45denuncia es cierta y si el programa
- 00:10:47decide que la denuncia es falsa pues le
- 00:10:49quita el trabajo a la policía de tener
- 00:10:51que tomársela en serio investigar y
- 00:10:53demás entonces he marcado aquí con rojo
- 00:10:56algo que creo que también que es es
- 00:10:58importante
- 00:11:00y que tengamos en cuenta y que sepamos
- 00:11:02estas aplicaciones o estos sistemas no
- 00:11:06tienen un 100% de fiabilidad o de
- 00:11:09aciertos aquí la policía estoy en la
- 00:11:12página directamente de la policía dice
- 00:11:14que tiene una precisión de más de 90 por
- 00:11:16ciento no dice cuánto más del 90 por
- 00:11:18ciento igual es el 95 por ciento eso no
- 00:11:21lo sabemos
- 00:11:23y aquí se plantean un montón de
- 00:11:26cuestiones éticas filosóficas y
- 00:11:28políticas pero una de ellas sería y
- 00:11:31entonces qué pasa con el 10 por ciento
- 00:11:33de denuncias que sí que son ciertas que
- 00:11:36la aplicación ha fallado y que se van a
- 00:11:38quedar sin investigar
- 00:11:42más ejemplos y este ya empieza a ser un
- 00:11:44poquito más para mi gusto tenebroso no
- 00:11:48sé si habéis visto la película minority
- 00:11:50report la habéis visto vale pues no esa
- 00:11:54película no es ciencia ficción esa
- 00:11:56películas la realidad ahora mismo la
- 00:11:59policía ve
- 00:12:01del reino unido- está utilizando
- 00:12:05sistemas de inteligencia artificial que
- 00:12:07examinando una serie de datos sociales y
- 00:12:10demás de la población puede determinar o
- 00:12:15adivinar si alguien va a cometer un
- 00:12:19crimen en los próximos meses con
- 00:12:21adelanto y entonces lo que se quiere
- 00:12:24poner en marcha dicen que todavía no la
- 00:12:26están utilizando pero lo que sí quiere
- 00:12:28poner en marcha en este caso es un
- 00:12:30sistema de asesoramiento y
- 00:12:32acompañamiento de la policía a esas
- 00:12:35personas que la aplicación ha indicado
- 00:12:37como potenciales criminales pero
- 00:12:39potenciales en el sentido de que todavía
- 00:12:41no han cometido ningún crimen
- 00:12:42simplemente es que la aplicación predice
- 00:12:45que en unos meses es muy probable que
- 00:12:47esa persona vaya a cometer un crimen y
- 00:12:49entonces la policía se pondría en
- 00:12:51contacto con esas personas ilesas
- 00:12:54asesoraría o acompañaría para tratar de
- 00:12:57evitar que cometan ese crimen
- 00:13:00bueno aquí tenemos varios ejemplos más
- 00:13:03pero si veis en la última en la última
- 00:13:06hay una denuncia de lo que hace o no
- 00:13:09hace el gobierno chino pues también es
- 00:13:11bastante difícil saber pero parece ser
- 00:13:13que el gobierno chino ya está pre
- 00:13:15deteniendo a personas en base a
- 00:13:17predicciones que hacen sistemas de
- 00:13:19inteligencia artificial sobre personas
- 00:13:22que podrían cometer crímenes el gobierno
- 00:13:24chino lo niega pero la asociación está
- 00:13:28the human right watch está denunciando
- 00:13:30lo vemos un montón de sistemas que se
- 00:13:33están utilizando por parte de la policía
- 00:13:35la policía de los ángeles tiene un
- 00:13:37sistema de inteligencia artificial
- 00:13:38conectado a las cámaras de los coches
- 00:13:40que
- 00:13:42y va viendo a la gente que hay por la
- 00:13:44calle por donde van pasando los coches
- 00:13:45contraste manda esa información al
- 00:13:48sistema y el sistema con información que
- 00:13:50tiene de fichas policiales toda la
- 00:13:54información que tiene recogida a la
- 00:13:55policía sobre las personas les va
- 00:13:57poniendo una
- 00:13:59y una nota de potenciales peligrosos o
- 00:14:04peligrosas son esas personas y entonces
- 00:14:06la policía se centra más en vigilar a
- 00:14:08las personas que el sistema marca como
- 00:14:10más peligrosas en holanda también se
- 00:14:13está usando en eeuu bueno en eeuu hay
- 00:14:17otra que también es bastante polémica
- 00:14:19que es el prêt pool que lo que hace es
- 00:14:22determinar lo mismo es un sistema de
- 00:14:24inteligencia artificial que determina en
- 00:14:27qué barrios o en qué calles o en qué
- 00:14:29zonas hay más probabilidades de que se
- 00:14:31cometa un crimen para que la policía
- 00:14:33pueda gestionar mejor sus recursos y
- 00:14:36entonces centras en vigilar más
- 00:14:38determinadas áreas o determinadas calles
- 00:14:41o determinadas zonas y creo que bueno
- 00:14:43con los ejemplos que estoy poniendo se
- 00:14:46va viendo un poco por dónde va el tema
- 00:14:48la polémica de la cuestión de los sesgos
- 00:14:51y los algoritmos entonces si queréis
- 00:14:54comentarme algo conocíais estos sistemas
- 00:14:57sabíais que esto sí sí
- 00:15:01hay gente que no si el general sí
- 00:15:05vale y este también lo quiero traer
- 00:15:08porque estamos hablando de gobiernos y
- 00:15:11de policías y demás que parece que
- 00:15:13política es sólo eso pues no por ejemplo
- 00:15:16facebook tampoco no sé también esta
- 00:15:19noticia facebook le está dando mucha
- 00:15:21caña al 'new york times' últimamente y
- 00:15:23entonces ahora estamos sabiendo más de
- 00:15:25lo que hace facebook facebook tiene dos
- 00:15:27patentes que a partir de los patrones de
- 00:15:31las motas de polvo de la cámara de fotos
- 00:15:33de vuestro móvil pues si hacéis una foto
- 00:15:35y tenéis cuenta en facebook y se les
- 00:15:36ocurre subirla a facebook pueden
- 00:15:38determinar el sitio donde estabais
- 00:15:40cuando hicisteis la foto pero no sólo
- 00:15:42eso cruza la información de los patrones
- 00:15:45de las notas de polvo de las fotos de mi
- 00:15:47cámara con las de otras personas que
- 00:15:49también están subiendo fotos a facebook
- 00:15:51y entonces facebook también saca
- 00:15:53conclusiones sobre no sólo donde estaba
- 00:15:56una persona sino posiblemente con
- 00:15:59bastante probabilidad es cierto con
- 00:16:00quién estaba esa persona
- 00:16:02y estos son ejemplos de diseño cuando
- 00:16:06hablaba de el diseño es política cuando
- 00:16:09alguien tiene que decidir
- 00:16:10voy a invertir dinero voy a invertir
- 00:16:12esfuerzo en desarrollar una aplicación
- 00:16:14en desarrollar un software alguien tiene
- 00:16:17que decidir qué va a hacer ese software
- 00:16:19y para qué lo va a usar y bueno pues
- 00:16:23tiene dos patentes que normalmente no
- 00:16:26son gratis las patentes y cuesta mucho
- 00:16:27dinero entonces tenemos que darnos
- 00:16:29cuenta que si hay gente invirtiendo
- 00:16:31mucho dinero en hacer estas cosas es por
- 00:16:33algo y tenemos que empezar a pensar
- 00:16:34porque les interesa invertir dinero en
- 00:16:38hacer estas cosas y eso también es
- 00:16:40política y la política no viene solo de
- 00:16:42los gobiernos
- 00:16:45e
- 00:16:47todo el mundo sabéis lo que es un
- 00:16:49algoritmo habéis visto alguna vez un
- 00:16:50trozo de un código de un programa
- 00:16:54sino más o menos y no vale entonces esto
- 00:16:59es un algoritmo tradicional un algoritmo
- 00:17:02tradicional pues son unas series es muy
- 00:17:04cortito muy pequeño el algoritmo un
- 00:17:06programa como el de windows pues tiene
- 00:17:08millones de líneas de código pero
- 00:17:10digamos que es un tipo del algoritmo
- 00:17:12donde invirtiendo más o menos tiempo
- 00:17:14porque tenga más líneas de código si
- 00:17:16ponemos a ejecutar el programa el
- 00:17:18programa cirujas raras o sacar
- 00:17:20resultados raros o resultados erróneos
- 00:17:22pues es cuestión de revisar ese código
- 00:17:25hay también herramientas automáticas
- 00:17:27para revisar el código que nos pueden
- 00:17:29ayudar a ver dónde está el problema y
- 00:17:31decir pues justo aquí en este el sí que
- 00:17:33hay aquí en este y pues le falta una
- 00:17:36línea o le sobra o he puesto mal el tipo
- 00:17:38de variable etcétera etcétera y
- 00:17:40corregirlo cuando hablamos de
- 00:17:43y sistemas de inteligencia artificial y
- 00:17:45puesto a propósito la palabra salto
- 00:17:47estamos dando un salto estamos dando un
- 00:17:49salto en muchísimos sentidos en términos
- 00:17:52técnicos estamos dando un salto porque
- 00:17:54estamos hablando de sistemas que ya son
- 00:17:56muy complejos no muy techos como puede
- 00:17:58ser lo de windows y relativamente
- 00:18:01complejo windows o ubuntu también tiene
- 00:18:04millones de líneas de código y son
- 00:18:06sistemas que están basados en lo que se
- 00:18:08llama el aprendizaje profundo es decir
- 00:18:09que lo que hacen básicamente es detectar
- 00:18:12patrones dentro de un conjunto de datos
- 00:18:14y sacar una serie de conclusiones y
- 00:18:18sacar una serie de conclusiones quiere
- 00:18:19decir que van a dar siempre el resultado
- 00:18:21en el que tienen más probabilidades de
- 00:18:23acertar son resultados de tipo
- 00:18:25estadístico
- 00:18:27como ejemplo puedo poner un sistema de
- 00:18:29inteligencia artificial al que se
- 00:18:31entrenó para que aprendiera lo que
- 00:18:33significa cocinar con fotos de gente
- 00:18:36cocinando
- 00:18:38y claro las personas que eligieron las
- 00:18:41fotos de gente cocinando no estaban
- 00:18:43pensando en este tema de los sesgos y
- 00:18:45demás y entonces se dan cuenta que el
- 00:18:48sistema además de aprender lo que es
- 00:18:49cocinar además el sistema saca la
- 00:18:51conclusión de que las mujeres somos las
- 00:18:53que cocinamos que las mujeres cocinan
- 00:18:55tienen que cocinar las mujeres revisando
- 00:18:58qué es lo que había pasado como el
- 00:19:00sistema había llegado a aprender eso se
- 00:19:02dan cuenta que las personas que han
- 00:19:04seleccionado las fotos para entrenar al
- 00:19:06sistema y que aprendan lo que es cocinar
- 00:19:09pues la mayor parte de esas fotos 70% de
- 00:19:13esas fotos un porcentaje muy alto eran
- 00:19:15de mujeres cocinando con lo cual el
- 00:19:18sistema no sólo aprendió lo que es
- 00:19:19cocinar le enseñaron de una forma
- 00:19:23si en este caso y sin ninguna intención
- 00:19:26y de forma totalmente inconsciente que
- 00:19:29resulta que son las mujeres las que
- 00:19:31cocinan entonces como el 70% de esas
- 00:19:34fotos llevan mujeres cocinando
- 00:19:37si le preguntan al sistema quién cocina
- 00:19:39el sistema tiene un 70 de probabilidades
- 00:19:42de acertar si dice que es una mujer y
- 00:19:44llega a la conclusión de que es una
- 00:19:45mujer
- 00:19:51y otra característica de la que no sé si
- 00:19:53estamos suficientemente conscientes es
- 00:19:56que estos sistemas son muy fáciles de
- 00:19:58engañar quería haber buscado un vídeo y
- 00:20:00no me ha dado tiempo de los famosos
- 00:20:02coches autónomos que conducen solos pero
- 00:20:05resulta que está documentado y yo he
- 00:20:08estado leyendo varios weimer que tampoco
- 00:20:10he conseguido encontrar donde una
- 00:20:13pequeña variación en los datos de
- 00:20:15entrada hace que el resultado de salida
- 00:20:18sea muy grande en todos los coches
- 00:20:19autónomos con pequeñas variaciones en
- 00:20:21las señales de tráfico dejan de
- 00:20:23reconocerlas y se han hecho pruebas por
- 00:20:25ejemplo con señales de stop y si las
- 00:20:28señales está un poco dañada o lleva una
- 00:20:31pintada y demás pues el coche ya no
- 00:20:33reconoce la señal como stop y se lo
- 00:20:35salta este que yo he traído pues es de
- 00:20:38un grupo de investigadores del mit que
- 00:20:42pues descubrió cómo era facilísimo
- 00:20:44engañar un sistema de inteligencia
- 00:20:47artificial de google hasta el punto que
- 00:20:49estamos hablando en él
- 00:20:51el paper que yo leí le daban una foto de
- 00:20:55un gato le hacían unas pequeñas
- 00:20:57variantes a la foto del gato y el
- 00:20:59sistema decía que aquello era guacamole
- 00:21:00osea que quiero decir que estamos
- 00:21:02hablando de unas variaciones enormes en
- 00:21:04la salida con respecto a pequeñas
- 00:21:06variaciones en la entrada
- 00:21:09de hecho eran unas pequeñas variaciones
- 00:21:11en la foto del gato imperceptibles para
- 00:21:14un ojo y para un cerebro humano y en
- 00:21:16este caso pues es una tortuga con un
- 00:21:18rifle entonces creo que eso es algo que
- 00:21:21también es importante sobre todo porque
- 00:21:23se están utilizando también muchísimos
- 00:21:26algoritmos de reconocimiento facial
- 00:21:29que funcionan con inteligencia
- 00:21:30artificial entonces como ya he comentado
- 00:21:32y ya he comentado el ejemplo
- 00:21:35estos sistemas se entrenan es decir
- 00:21:38aprenden y se les da por buenos una vez
- 00:21:41que han pasado una fase de entrenamiento
- 00:21:43a los que se les dan un conjunto de
- 00:21:44datos y ese conjunto de datos alguien
- 00:21:46tiene que seleccionarlo y alguien tiene
- 00:21:48que seleccionarlo es un ser humano que
- 00:21:51normalmente pues tiene sesgos y
- 00:21:53prejuicios ideas y demás sobre las cosas
- 00:21:56y otra parte importante y se está
- 00:21:58hablando mucho ahora yo he leído muchos
- 00:22:00sitios que se está diciendo que estos
- 00:22:02sistemas son de caja negra y aquí sí me
- 00:22:04gustaría hacer una precisión cuando se
- 00:22:06habla de inteligencia artificial en
- 00:22:08realidad se está hablando de muchas
- 00:22:10tecnologías muy diferentes hay muchos
- 00:22:12tipos de sistemas de inteligencia
- 00:22:14artificial diferentes algunos es verdad
- 00:22:18y ahora vamos a ver algún ejemplo y
- 00:22:20líneas de investigación que hay porque
- 00:22:22es un problema ni los propios
- 00:22:24diseñadores o diseñadores de estos
- 00:22:26sistemas son luego capaces de saber por
- 00:22:29qué el sistema ha llegado a una
- 00:22:31determinada conclusión o ha dado un
- 00:22:33determinado resultado
- 00:22:35y otros tipos de sistemas de
- 00:22:36inteligencia artificial que son mucho
- 00:22:39más
- 00:22:40y tratables y como en el caso que decía
- 00:22:43de los millones de líneas de código por
- 00:22:45muchos millones de líneas de código que
- 00:22:47tenga estando un poquito más de rato se
- 00:22:49averigua dónde está el problema se
- 00:22:51detecta y se puede corregir entonces
- 00:22:53quería hacer esta precisión digamos
- 00:22:56desde un punto de vista periodística a
- 00:22:57lo mejor está bien dar difusión al tema
- 00:23:00de la caja negra desde un punto de vista
- 00:23:02técnico no es una apreciación o una
- 00:23:05visión rigurosa de lo que es la
- 00:23:07inteligencia artificial
- 00:23:08entonces sí entender que todos los
- 00:23:10sistemas de inteligencia artificial
- 00:23:11aunque se usa este nombre no son iguales
- 00:23:15no tienen todo es la misma opacidad ni
- 00:23:18la misma complejidad ni el mismo diseño
- 00:23:19tiene bastantes
- 00:23:22y diferencias en cualquier caso quería
- 00:23:24citar a este profesor que es profesor de
- 00:23:26inteligencia artificial de un tipo de
- 00:23:28sistemas que están siendo muy utilizados
- 00:23:31actualmente the machine learning que es
- 00:23:33este señor que dice que todavía queda
- 00:23:35mucho camino técnico científico para
- 00:23:38recorrer para poder asegurar que un
- 00:23:41algoritmo y un sistema que hemos
- 00:23:43diseñado pues sea justo sea equitativo y
- 00:23:47sobre todo hoy está esta palabra creo
- 00:23:49que va a empezar a salir más a la luz
- 00:23:51pública el tema de la explica habilidad
- 00:23:57bueno está simplemente la cogí porque no
- 00:24:01sé si tenéis una idea un poco esto es
- 00:24:03una red neuronal antes se habla de
- 00:24:04machine learning ar hablo de redes
- 00:24:06neuronales todo esto está englobado en
- 00:24:08inteligencia artificial pero son
- 00:24:09sistemas que tienen arquitecturas y
- 00:24:11complejidades y problemáticas muy
- 00:24:13diferentes pero para que os hagáis una
- 00:24:15idea vale pues ya no estamos hablando de
- 00:24:18un programa con un niveles no sé qué y
- 00:24:20no sí que estamos hablando de que
- 00:24:22diseñamos esas células esas redes
- 00:24:25neuronales que realizan una función que
- 00:24:28es una interconexión de
- 00:24:31montones de redes y de células que
- 00:24:35tienen diferentes capas además y a las
- 00:24:37que se les da unos datos se supone que
- 00:24:40van aprendiendo y una vez que se da por
- 00:24:42bueno el sistema se lanza a explotación
- 00:24:45se lanza a funcionar lo de los los
- 00:24:49sesgos cognitivos entiendo que más o
- 00:24:51menos sabemos lo que son no sé si
- 00:24:53conocéis el famoso experimento de los
- 00:24:55psicólogos
- 00:24:57lo habéis visto alguna vez y dije si
- 00:25:00tuvieras que decir si yo os digo una se
- 00:25:02llama boba y otra se llama kick y cuál
- 00:25:03dirías que se llama boba
- 00:25:06la de la derecha
- 00:25:08entonces está en clases pasa igual
- 00:25:12valses a quien se está y parece bastante
- 00:25:15obvio pero no hay ninguna razón no hay
- 00:25:18si parece obvio no pero sin embargo por
- 00:25:21qué
- 00:25:29eso es
- 00:25:31exactamente pero así es como funciona
- 00:25:34nuestro cerebro tomando si la bomba
- 00:25:37redondeada el sonido global sonido kick
- 00:25:39y si nos ponemos pero cuando decimos eso
- 00:25:43es algo es como una respuesta rápida
- 00:25:45donde el cerebro ha estado procesando de
- 00:25:48una forma muy inconsciente una serie de
- 00:25:50informaciones que tiene ahí y es la
- 00:25:52forma en que funciona nuestro cerebro
- 00:25:54tomando estos atajos y tomando estas
- 00:25:56decisiones rápidas y muchas veces pero
- 00:25:58no hay ningún motivo realmente no hay
- 00:26:01ninguna razón por la que tengan una que
- 00:26:05llamase boba la de la derecha podría
- 00:26:07llamarse perfectamente aquí y entonces
- 00:26:09cuando esto también es otra precisión
- 00:26:12que quiero que quiero hacer porque se
- 00:26:15está hablando mucho de los sesgos en los
- 00:26:16algoritmos pero lo que yo me he dado
- 00:26:20cuenta es que la bibliografía en la
- 00:26:22literatura en inglés se está utilizando
- 00:26:23la palabra vaya si la palabra vayas en
- 00:26:26inglés tiene dos significados que en
- 00:26:28castellano
- 00:26:29deberíamos traducir de dos formas
- 00:26:31diferentes en unos casos si se están
- 00:26:33refiriendo a estos sesgos cognitivos
- 00:26:35pero en otros casos la palabra para
- 00:26:37ellas en inglés
- 00:26:38directamente a prejuicios que tenemos
- 00:26:40sobre las cosas entonces en ese sentido
- 00:26:43si me gustaría hacer esta precisión
- 00:26:45cuando estamos hablando de sesgos en los
- 00:26:48algoritmos en castellano por lo menos lo
- 00:26:50que yo he visto publicado sobre todo en
- 00:26:52la prensa unas veces están refiriéndose
- 00:26:55a la parte de sesgos cognitivos como es
- 00:26:57el ejemplo que os he puesto de las fotos
- 00:27:00de cocinar si las personas que hacen la
- 00:27:03selección de fotos no son conscientes de
- 00:27:06que todos los seres humanos tenemos
- 00:27:07sesgos y no hacen digamos un análisis
- 00:27:13previo o se paran a pensar de forma
- 00:27:16consciente si además quieren que el
- 00:27:18sistema saque la conclusión de que hay
- 00:27:20es que las mujeres se salen las que nos
- 00:27:21toca cocinar pues digamos vemos una
- 00:27:25serie de efectos en las aplicaciones
- 00:27:27sobre los algoritmos que están
- 00:27:29relacionados simplemente con todo este
- 00:27:31tipo de sesgos que tenemos las personas
- 00:27:33y que se reflejan o que heredan o que
- 00:27:36acaban siendo reproducidos por estos
- 00:27:39sistemas y no sólo siendo reproducido es
- 00:27:42muy importante que seamos conscientes
- 00:27:43que son
- 00:27:44y exagerado porque el sistema siempre va
- 00:27:48a tender a dar la respuesta con la cual
- 00:27:50sabe que tiene más probabilidades de
- 00:27:52acertar vale o sea que es muy importante
- 00:27:55estos sesgos inconscientes se los
- 00:27:59trasladamos y estos sistemas los
- 00:28:02reproducen y los exageran pero luego hay
- 00:28:05otra parte donde yo veo que en inglés se
- 00:28:08está hablando de bages es y se está
- 00:28:10traduciendo por sesgos pero no se
- 00:28:12refieren a los sesgos cognitivos se
- 00:28:14refieren a la otra parte que yo estaba
- 00:28:16diciendo del diseño el diseño es
- 00:28:20político y en el diseño ha habido a
- 00:28:23alguien que ha tenido que tomar una
- 00:28:24decisión de hacer unas determinadas
- 00:28:26cosas de una determinada manera ahora
- 00:28:29vamos a ver varios ejemplos y en este
- 00:28:31caso yo lo diferenciaría y creo que es
- 00:28:33importante diferenciar lo porque hay
- 00:28:35muchos comportamientos de estos sistemas
- 00:28:39y de estas aplicaciones que se deben
- 00:28:40pura y duramente a una intención a unos
- 00:28:43intereses y que están hechos de forma
- 00:28:45totalmente consciente y totalmente
- 00:28:46deliberada
- 00:28:48y que son efectos muy diferentes a los
- 00:28:50otros que estamos viendo de los sesgos
- 00:28:53entonces vamos a ver algunos ejemplos lo
- 00:28:55he puesto entre entre
- 00:28:59interrogaciones pero yo le pregunto a mí
- 00:29:01a mi super amigo google le pregunto por
- 00:29:04lo que es la masculinidad y le pongo un
- 00:29:06mail y me da esta visión de lo que es la
- 00:29:08masculinidad
- 00:29:10no sé me gustaría que me dijeran si os
- 00:29:12parece que está sesgada o no
- 00:29:16como lo veis un poquillo no
- 00:29:19un poquillo no a mí también me lo parece
- 00:29:22pero bueno nuestro amigo google
- 00:29:25en temas de género no es especialmente
- 00:29:29delicado
- 00:29:30no sé si conocéis esto que ha estado
- 00:29:32dando vueltas por twitter que lo puso no
- 00:29:35sé si conocéis alzheimer y neptú friki
- 00:29:38que es turca bueno el turco es un
- 00:29:40lenguaje neutro con respecto al género
- 00:29:43entonces el traductor de google de hecho
- 00:29:46la prueba de castellano atrás a turco y
- 00:29:48en inglés también y entonces yo le digo
- 00:29:51que ella es ingeniera y me va a dar el
- 00:29:53mismo resultado que si en turco que sí
- 00:29:55le digo él es ingeniero porque el turco
- 00:29:58no diferencia entre él y ella sin
- 00:30:00embargo cuando le doy a la traducción
- 00:30:02inversa de turco a castellano me dice él
- 00:30:05es ingeniero porque no sabemos si han
- 00:30:08sido personas vagas que directamente
- 00:30:10pues pasan de plantearse que como un
- 00:30:13turco no podemos distinguir él o ella
- 00:30:14pues a lo mejor el resultado debería ser
- 00:30:16él o ella es ingeniero o ingeniero
- 00:30:20pero no resulta que si le decimos que él
- 00:30:24es enfermero
- 00:30:25nos lo para saturn co y cuando le damos
- 00:30:27a la vuelta no es que hayan sido vago y
- 00:30:29se hayan decidido que pasan de hacer
- 00:30:31esta especificación es que parece ser
- 00:30:34que las personas que han implementado
- 00:30:37este traductor de google tienen muy
- 00:30:40claro qué profesiones tenemos qué
- 00:30:44ejercer las mujeres y cuáles tienen que
- 00:30:46ejercer los hombres y entonces pues al
- 00:30:48enfermero me lo cambia por enfermero
- 00:30:50diría es que esto es un resultado
- 00:30:53sesgado y un diseño que puede contener
- 00:30:56sesgos
- 00:30:57y también yo también diría que sí vale y
- 00:31:01luego tenemos otro tipo pero
- 00:31:03probablemente éstos no son intencionados
- 00:31:05probablemente yo tampoco conozco a las
- 00:31:07personas que lo han hecho así que no
- 00:31:09puedo dar mi opinión pero vamos a pasar
- 00:31:11a un ejemplo donde también se habla de
- 00:31:13sesgos en algoritmos pero esto está
- 00:31:15hecho completamente aposta
- 00:31:18vale esto es un estudio de carnegie
- 00:31:21mellon donde descubrieron hicieron
- 00:31:23perfiles crearon perfiles en google de
- 00:31:27hombres y de mujeres y empezaron a
- 00:31:29analizar las ofertas de trabajo que
- 00:31:30reciben unos y otras y entonces
- 00:31:33encontraron que para ofertas de trabajo
- 00:31:36muy bien pagadas no me acuerdo ahora
- 00:31:38cuál era la cantidad que era por encima
- 00:31:40de 100.000 dólares o algo así un hombre
- 00:31:42tenía 6 veces más probabilidades de
- 00:31:44recibir una oferta de trabajo de un
- 00:31:47salario alto que una mujer y no sólo eso
- 00:31:50sino que el tipo de ofertas de trabajo
- 00:31:52que recibían los hombres y las mujeres
- 00:31:55eran diferentes por supuesto las ofertas
- 00:31:58de trabajo que recibían las mujeres se
- 00:32:01referían a trabajos menos cualificados
- 00:32:03que los trabajos de los hombres porque
- 00:32:06está sucediendo esto creéis que esto es
- 00:32:08algo que ha sucedido de forma
- 00:32:10inconsciente porque la no no está
- 00:32:13sucediendo de forma inconsciente vale
- 00:32:17eso también da un resultado sesgado sin
- 00:32:20embargo es el otro tipo que yo estaba
- 00:32:22comentando son cosas hechas
- 00:32:24absolutamente a propósito y vuelvo a
- 00:32:27referirme a que en el diseño hay
- 00:32:30política si cuando una empresa va a
- 00:32:32poner un anuncio google le da la opción
- 00:32:35de marcar tics y casillas diciendo este
- 00:32:38anuncio quiero que lo vean solo mujeres
- 00:32:40un solo hombres o sólo personas blancas
- 00:32:43o este anuncio quiero que lo vean solo
- 00:32:45personas deprimidas como sabéis que
- 00:32:48permite facebook hacer a sus anunciantes
- 00:32:51también sabíais lo de facebook también
- 00:32:56y luego voy ahora tengo otro de facebook
- 00:32:59ahora voy a ir con facebook entonces
- 00:33:00este es un ejemplo de diseño que está
- 00:33:03hecho absolutamente a propósito y cuando
- 00:33:06estábamos hablando de que el código es
- 00:33:07ley y aquí me gustaría incidir en que
- 00:33:11discriminar a una persona por cualquier
- 00:33:13razón en este caso por una razón de sexo
- 00:33:16para una oferta de trabajo es ilegal
- 00:33:20sin embargo
- 00:33:22como la aplicación de google les permite
- 00:33:25hacer esto a las personas que ponen
- 00:33:27anuncios al final quién está haciendo la
- 00:33:30ley
- 00:33:32es google el que está decidiendo que se
- 00:33:34puede discriminar a las personas cuando
- 00:33:37la ley dice que no se debe permitir esto
- 00:33:43este es otro ejemplo que también está
- 00:33:45curioso en los jurados de concursos de
- 00:33:50belleza pues evidentemente las personas
- 00:33:54que juzgan tendrán sus prejuicios y muy
- 00:33:57probablemente pues las personas que
- 00:33:59tengan la piel más oscura tendrán menos
- 00:34:01probabilidades de ganar el concurso si
- 00:34:03el jurado es humano que las personas que
- 00:34:05tienen la piel más clarita cuando se
- 00:34:07diseña un sistema de inteligencia
- 00:34:09artificial que haga de jurado en un tipo
- 00:34:12de concurso de éstas pues qué
- 00:34:14información se le va a dar por las
- 00:34:15personas que han ganado las fotos de las
- 00:34:18personas que han ganado el premio en los
- 00:34:19últimos equis años que en su mayoría
- 00:34:21serán blancas qué es lo que pasa que el
- 00:34:24sistema aprende que las blancas son más
- 00:34:26guapas que las demás y entonces cuando
- 00:34:29se deja este sistema actuar como jurado
- 00:34:32el problema es que si ya antes
- 00:34:35probablemente las personas de piel más
- 00:34:37oscura tenían menos probabilidades de
- 00:34:39ganarlo ahora como el sistema va a
- 00:34:41tender a dar la respuesta con la que
- 00:34:43tiene mayor probabilidad aciertos pues
- 00:34:45prácticamente no tiene ninguna esto es
- 00:34:47otro efecto
- 00:34:49se ha visto de cómo los algoritmos
- 00:34:51heredan y implementan nuestros sesgos
- 00:34:55inconscientes quiero entender que en ese
- 00:34:57caso también son inconscientes pero
- 00:34:58tampoco lo sé pero aquí tenemos un
- 00:35:01ejemplo que denuncio propublica en eeuu
- 00:35:04es un sistema de inteligencia artificial
- 00:35:07que se está utilizando los juzgados para
- 00:35:10determinar personas que han realizado
- 00:35:12delitos pequeños qué probabilidades
- 00:35:14tienen de reincidir
- 00:35:16de pasar a cometer delitos más graves y
- 00:35:19entonces resulta que el sistema a la
- 00:35:21persona de la derecha le había robado
- 00:35:24una bicicleta los delitos eran
- 00:35:26prácticamente equivalentes eran delitos
- 00:35:28menores pues a esta señora la marca como
- 00:35:32de alto riesgo de volver a reincidir y
- 00:35:34le da 18 que es una puntuación muy alta
- 00:35:35y este señor le da
- 00:35:39una puntuación de 3 pasan los años y
- 00:35:42resulta que este señor está en la cárcel
- 00:35:44porque ha reincidido varias veces y ha
- 00:35:45acabado en la cárcel y esta señora no ha
- 00:35:47vuelto a reincidir
- 00:35:48entonces casos como estos hay unos
- 00:35:51cuantos esta organización pro pública
- 00:35:54pues lo estudia es un caso parecido al
- 00:35:56que hemos visto decidió aquí en españa
- 00:35:58estudia los casos hace un seguimiento
- 00:36:02tienes la sensación de que este sistema
- 00:36:05está dando resultados con prejuicios
- 00:36:08dado resultados dando resultados
- 00:36:10sesgados y creo que los prejuicios son
- 00:36:13otra vez en el mismo sentido no las
- 00:36:15personas con la piel oscura pues son
- 00:36:16normalmente más peligrosas que las
- 00:36:18personas con la piel blanca piden el
- 00:36:21código fuente piden que se les dé la
- 00:36:23información que hace falta para revisar
- 00:36:24el sistema intentar de entender por qué
- 00:36:26este sistema está haciendo esto y dónde
- 00:36:29está el fallo el gobierno se niega y
- 00:36:31bueno pues también andan en litigios
- 00:36:33igual que aquí en españa he comentado
- 00:36:35concibió este no sé cómo voy de tiempo
- 00:36:38porque es que tengo un montón de
- 00:36:40ejemplos media ahora llevo media hora
- 00:36:44a mi queda todavía vale
- 00:36:48vale vale
- 00:36:49entonces vale este ejemplo no sé si lo
- 00:36:52conocéis
- 00:36:55esto es de octubre del año pasado
- 00:36:59es un sistema bueno sabéis que os podéis
- 00:37:02imaginar que lo de revisar currículums y
- 00:37:05decidir quién es mejor y todo eso es
- 00:37:07muchísimo trabajo es un rollo y entonces
- 00:37:09es amazon pues decide que van a crear un
- 00:37:13sistema de inteligencia artificial que
- 00:37:15les haga ese trabajo que es un rollo
- 00:37:17total le pueden dar la información de la
- 00:37:19gente que han contratado los últimos
- 00:37:21diez años y que aprenda que aprenda que
- 00:37:23saque conclusiones de que gente es buena
- 00:37:25para trabajar en amazon y se los
- 00:37:28seleccione directamente del sistema
- 00:37:31y problemas que se encuentran
- 00:37:34que de pronto el sistema pues a todos
- 00:37:36los currículums que tienen algo que
- 00:37:40denote que ese currículum es de una
- 00:37:42mujer les empieza a quitar puntos y los
- 00:37:44empieza a prácticamente a dejar por
- 00:37:48inválidos y ya no tenerlos en cuenta y
- 00:37:52tiene otros fallos el sistema también
- 00:37:54porque también estaba teniendo en cuenta
- 00:37:55otras cosas que no se esperaban que
- 00:37:57estuvieran teniendo en cuenta y tampoco
- 00:37:59les estaba seleccionando supuestamente
- 00:38:02los mejores candidatos y candidatas pero
- 00:38:04el problema más gordo que saltó además a
- 00:38:06digamos a la luz pública es que el
- 00:38:09sistema de amazon para reclutar gente en
- 00:38:12amazon directamente prácticamente estaba
- 00:38:14descartando a las mujeres y espero
- 00:38:18además sistema se estaba utilizando para
- 00:38:20puestos tecnológicos entonces es otro
- 00:38:24caso
- 00:38:25de hecho amazon se ha negado a dar las
- 00:38:27cifras de porcentajes de
- 00:38:31y personal masculino y femenino que
- 00:38:34tiene en su plantilla tecnológica
- 00:38:39y
- 00:38:40claro que ha hecho amazon para entrenar
- 00:38:42al sistema pero vamos la mayoría
- 00:38:46y ahora vamos a ver una transparencia
- 00:38:48pero estamos hablando de que en el
- 00:38:50sector tecnológico hay un 70% o más de
- 00:38:55hombres que de mujeres con lo cual si
- 00:38:58amazon le ha dado los currículums de la
- 00:39:00gente que ha contratado en los últimos
- 00:39:02años pues la mayoría son hombres vale y
- 00:39:05volvemos otra vez a la misma que se
- 00:39:08estaba contando antes el sistema qué
- 00:39:10conclusión saca porque son mejores los
- 00:39:11hombres para programa que las mujeres y
- 00:39:14entonces empieza a descartar currículos
- 00:39:16de mujeres
- 00:39:20[Música]
- 00:39:34pero eso es otro esa es una buena
- 00:39:38pregunta y que a lo mejor es otro tema
- 00:39:41para otra charla pero básicamente
- 00:39:43tenemos 2
- 00:39:46a ver tenemos una situación en el mundo
- 00:39:48tecnológico y es que por algún motivo
- 00:39:51que estamos intentando entender las
- 00:39:53mujeres no se sienten atraídas para
- 00:39:55estudiar informática ya que en los
- 00:39:58últimos 20 años el número de mujeres en
- 00:40:00los grados de ingenierías informáticas
- 00:40:02en el mundo ha descendido y parece que
- 00:40:06siguen yendo para abajo entonces por
- 00:40:08algún motivo las mujeres no estudian con
- 00:40:10lo cual la cantidad de hombres graduados
- 00:40:12frente a mujeres es mucho mayor es mucho
- 00:40:15más fácil si hace si es acaso una oferta
- 00:40:17de trabajo que te lleguen currículums de
- 00:40:20hombres ese es una posible causa vale
- 00:40:23también me cuesta que hay empresas que
- 00:40:27haciendo un esfuerzo grande hasta que no
- 00:40:30tienen por ejemplo la misma cantidad de
- 00:40:32currículums de hombres que de mujeres no
- 00:40:33cierran la oferta para tener las mismas
- 00:40:35posibilidades de contratar una mujer que
- 00:40:38un hombre pero eso lo hacen muy pocas
- 00:40:39empresas
- 00:40:41y es complicado o sea que contratar
- 00:40:44mujeres es difícil porque hay menos pero
- 00:40:47luego hay otra parte que son los éxitos
- 00:40:49de género los riesgos de género y
- 00:40:51digamos de esta idea de que las mujeres
- 00:40:54ya lo hemos visto con el traductor de
- 00:40:56google no los ingenieros son hombres que
- 00:40:59hacen cosas son sesgos de género si
- 00:41:02tiende a valorar más a un hombre que a
- 00:41:05una mujer que yo he visto algún informe
- 00:41:08en el campo en concreto de la
- 00:41:10ciberseguridad bueno es que hay
- 00:41:12muchísimos estudios de los temas de los
- 00:41:15riesgos de género pero en general a una
- 00:41:16mujer se le exige más que a un hombre
- 00:41:19para acceder al mismo puesto de trabajo
- 00:41:21para acceder a la misma beca en fin me
- 00:41:25ha sacado un tema candente pero en
- 00:41:29general en las empresas tecnológicas se
- 00:41:32prefiere a los hombres en general
- 00:41:43ajá
- 00:42:00es que es otra tema así
- 00:42:04vale entonces
- 00:42:09se juntan digamos estás en el mundo
- 00:42:13para hablar de todas formas un poquito
- 00:42:15de ese tema ahora después pero en el
- 00:42:17mundo de la tecnología se da esta
- 00:42:19circunstancia es muy difícil encontrar
- 00:42:21mujeres y luego además las mujeres
- 00:42:24tienden a irse de la industria
- 00:42:26tecnológica porque no es una industria
- 00:42:28que las trata especialmente bien
- 00:42:29entonces bueno
- 00:43:07si es que es otro tema si queríais
- 00:43:10comentar algo a alguien o preguntar
- 00:43:14vale entonces el en relación a los
- 00:43:18sesgos
- 00:43:20los hechos son que hay muchos más
- 00:43:23hombres cuando entren al sistema el
- 00:43:26sistema aprende que claro creo que es un
- 00:43:29porcentaje de currículums de hombres y
- 00:43:31digamos el este ejemplo lo quiero traer
- 00:43:34porque es un ejemplo más de cómo estos
- 00:43:36algoritmos o estos sistemas se heredan
- 00:43:38nuestros riesgos pero es que además los
- 00:43:40amplifican porque si una mujer ya tiene
- 00:43:43digamos pocas probabilidades de que la
- 00:43:47contraten en amazon por ser simplemente
- 00:43:49puede ser mujer pues resulta que si
- 00:43:52quien va a evaluar su currículum es un
- 00:43:53sistema al que se ha entrenado con los
- 00:43:56currículums de las personas que ha
- 00:43:58contratado a amazon en los 10 años pues
- 00:44:00le pasa algo parecido a lo que a las
- 00:44:03mujeres con piel oscura en un concurso
- 00:44:05de belleza que sus posibilidades
- 00:44:07empiezan a reducirse drásticamente
- 00:44:09porque el sistema empieza
- 00:44:11automáticamente a descartar oa valorar y
- 00:44:15a empezar a quitar puntos a los
- 00:44:17currículums simplemente por ejemplo
- 00:44:18porque aparecía la palabra mujer que era
- 00:44:21una de las cosas que les pasaba
- 00:44:24y este este ejemplo a mí me parece
- 00:44:27especialmente interesante porque amazon
- 00:44:31ha intentado arreglarlo amazon ha
- 00:44:35invertido muchos millones en este
- 00:44:36proyecto y además se querían quedar un
- 00:44:38trabajo muy pesado de encima o sea que
- 00:44:41tenía mucho interés en que esto
- 00:44:43funcionara y no tenían un interés desde
- 00:44:45luego consciente y explícito en que
- 00:44:47estuviera discriminando en las mujeres y
- 00:44:49además saltó a la luz pública y además
- 00:44:51es ilegal con lo cual tenían que
- 00:44:53arreglarlo vale y no han sido capaces de
- 00:44:57arreglarlo
- 00:45:00y bueno nos reímos pero es para llorar
- 00:45:04es para llorar porque bueno y
- 00:45:07conscientemente le estamos dando un
- 00:45:09mensaje al sistema que en realidad le
- 00:45:12estamos dando un mensaje que tenemos
- 00:45:13nosotras en nuestra cabeza pero bueno es
- 00:45:15inconsciente nos damos cuenta que lo ha
- 00:45:17captado y encima lo ha magnificado
- 00:45:20lógicamente lo querríamos arreglar
- 00:45:22bueno pues al final han tirado han
- 00:45:25cerrado el proyecto porque no son
- 00:45:27capaces de arreglarlo
- 00:45:30y esto me parece que es un tema
- 00:45:31importante cuando hablamos de sesgos
- 00:45:33cuando hablamos de temas de inteligencia
- 00:45:34artificial que tiene que ver con algo
- 00:45:37que no sé si nos toca ya vale que es la
- 00:45:40explica bilidad a no es que os prometí
- 00:45:43de facebook de facebook bar y facebook
- 00:45:46hace algo parecido con su esto es una
- 00:45:49denuncia que ha puesto el propio
- 00:45:50gobierno de eeuu a facebook es en este
- 00:45:53caso es en el ministerio de vivienda
- 00:45:55porque la forma en que facebook deja a
- 00:46:00sus anunciantes que seleccionen los
- 00:46:02objetivos de sus anuncios ha resultado
- 00:46:05en una gran discriminación para os
- 00:46:07podéis imaginar que colectivos de la
- 00:46:10población de acceso a una vivienda digna
- 00:46:13vale porque porque facebook deja al
- 00:46:16seleccionar todo y además creo que
- 00:46:18deberíamos ser conscientes que el
- 00:46:21problema no está solo en todos los datos
- 00:46:23que estamos dando a todas estas
- 00:46:24aplicaciones siendo en todos los
- 00:46:26algoritmos que por detrás que están
- 00:46:28analizando todo aquí ahora te conectas
- 00:46:30cuánto rato estás conectado todo y están
- 00:46:34sacando millones de conclusión
- 00:46:36sobre las personas que estamos
- 00:46:38utilizando las entonces por ejemplo
- 00:46:39facebook tiene a la gente clasificada
- 00:46:41deprimida optimista el estado de ánimo
- 00:46:45todo y no sólo las tiene a las personas
- 00:46:48clasificadas esa información luego la
- 00:46:51utiliza porque a las personas que ponen
- 00:46:53anuncios
- 00:46:54le sacan las casillas de sacar la
- 00:46:57casilla de quiero ponerle mi anuncio a
- 00:47:00tres hombres jóvenes deprimidos o quiero
- 00:47:05excluir de mi anuncio a personas de tal
- 00:47:08religión o de tal orientación sexual o
- 00:47:11de tales ideas políticas vale y fijaros
- 00:47:15si es digamos grave el asunto qué es
- 00:47:18esto está sacado de la página web del
- 00:47:20gobierno de eeuu
- 00:47:23esto es de ahora de marzo de este año
- 00:47:26entonces voy a volver en si tiene un
- 00:47:29poco más estas empresas están haciendo
- 00:47:32política estas empresas son las que
- 00:47:34están determinando qué cosas son
- 00:47:36aceptables y qué cosas se pueden hacer y
- 00:47:38qué cosas no se pueden hacer qué
- 00:47:41tipo de personas tienen una empresa
- 00:47:44contratar porque les deja el programa
- 00:47:47tiene la opción de marcar las casillas y
- 00:47:51los sistemas tienen la opción de
- 00:47:54analizar obtener esa información obtener
- 00:47:56esos perfiles específicos y decidir no
- 00:47:58tú no ves este anuncio de este trabajo
- 00:48:01también pagado
- 00:48:05y este es el tema al que iba a ir que
- 00:48:08creo que también es interesante porque
- 00:48:09estamos hablando de sesgos y como todas
- 00:48:12las personas tenemos sesgos y nuestra
- 00:48:14visión del mundo de las personas que
- 00:48:16están diseñando esta tecnología hay una
- 00:48:18parte que tiene que ver con intenciones
- 00:48:20e intereses y hay otra parte que es
- 00:48:21completamente inconsciente pero quién
- 00:48:24está diseñando esa tecnología entonces
- 00:48:27podéis verlo aquí nuevo mayoritariamente
- 00:48:29azul que son los hombres el de abajo
- 00:48:32falta falta amazon porque no han querido
- 00:48:34dar esos datos pero fijaros de que
- 00:48:36estamos que estamos hablando en un 70 75
- 00:48:39por ciento de hombres blancos
- 00:48:42porque creo que el matiz de blancos
- 00:48:44también es bastante importante entonces
- 00:48:47esta industria está mayoritariamente
- 00:48:50compuesta por un tipo de personas que
- 00:48:52tienen un tipo de experiencia vital un
- 00:48:54tipo de intereses
- 00:48:57y que la tecnología que están diseñando
- 00:49:00está reflejando también esa visión de
- 00:49:03esas personas que están diseñando estas
- 00:49:07tecnologías que como estamos viendo
- 00:49:08están en todas partes y están afectando
- 00:49:11muchísimo a nuestras vidas y me gusta
- 00:49:14esta cita de este señor que lo está
- 00:49:16enfocando desde un punto de vista
- 00:49:19meramente productivo de las empresas y
- 00:49:21simplemente hace un aviso de que la
- 00:49:23falta de diversidad en los equipos de
- 00:49:25diseño de tecnología está produciendo
- 00:49:28grandes pérdidas a las empresas y está
- 00:49:30haciendo comentarios como que las
- 00:49:32experiencias vitales de las personas que
- 00:49:34diseñan son las que al final están
- 00:49:37determinando cómo es el diseño limitando
- 00:49:40ese diseño y él lo que habla es me gusta
- 00:49:43la expresión de los de los rostros
- 00:49:45pálidos vale pero básicamente está
- 00:49:48diciendo que así no vamos a llegar a
- 00:49:50poder diseñar la mejor tecnología
- 00:49:51posible insisto que este señor no está
- 00:49:54hablando desde ningún punto de vista de
- 00:49:56justicia social lo está enfocando
- 00:49:58simplemente desde el punto de vista de
- 00:50:01ganancias económicas de conseguir
- 00:50:03obtener los mejores
- 00:50:04productos posibles pero los comentarios
- 00:50:08que hace me parece que son muy
- 00:50:09pertinentes
- 00:50:13y quería traerlos aquí entonces
- 00:50:18hay un tema que es muy importante que
- 00:50:20está empezando también a
- 00:50:22tratarse de una manera iba a decir
- 00:50:26normativa pero todavía está muy verde la
- 00:50:28normativa pero creo que es algo muy
- 00:50:30importante de poner encima de la mesa en
- 00:50:33un nivel social que es que tenemos que
- 00:50:35ser conscientes que tenemos que tener la
- 00:50:38respuesta a esta pregunta tenemos que
- 00:50:39saber por qué un algoritmo ha tomado una
- 00:50:42decisión y no otra vale y cuando digo
- 00:50:45que tenemos que saber digo empezando por
- 00:50:47las personas y vuelvo al ejemplo de
- 00:50:50amazon
- 00:50:52a las personas que están desarrollando
- 00:50:54esta tecnología que tienen que tenerlo
- 00:50:57en cuenta antes durante y después pero
- 00:51:00estamos hablando y yo también en este
- 00:51:02sentido he escuchado hablar a abogadas
- 00:51:07un abogado una abogada necesitas saber
- 00:51:10por ejemplo si alguien pone a alguien
- 00:51:13decide hacer una demanda pues el abogado
- 00:51:16la abogada va a pedir explicaciones de
- 00:51:18por qué hace un cliente y han denegado
- 00:51:20una determinada ayuda etcétera etcétera
- 00:51:22por supuesto todo esto está llegando a
- 00:51:25los tribunales pues los jueces y las
- 00:51:28juezas también tienen que saber por qué
- 00:51:30un algoritmo ha dado y ha dado una
- 00:51:33determinada respuesta y por supuesto
- 00:51:35toda la ciudadanía y estamos viendo
- 00:51:37ejemplos de aplicaciones o sistemas de
- 00:51:40inteligencia artificial que están
- 00:51:42decidiendo si yo pues es que igual
- 00:51:44dentro de tres meses o si soy muy
- 00:51:46simpática pero dentro de tres meses me
- 00:51:48voy a convertir en una criminal oiga
- 00:51:50porque ha dicho el sistema eso yo tengo
- 00:51:52derecho a saberlo como ciudadano
- 00:51:55entonces creo que esto es un tema que es
- 00:51:58importante que se empiece a hablar y que
- 00:52:00salga digamos del ámbito técnico y del
- 00:52:03ámbito tecnológico
- 00:52:05y entonces es un tema que por ejemplo en
- 00:52:07el en el reglamento general de
- 00:52:09protección de datos ya aparece reflejado
- 00:52:12aparece reflejado el tema de la
- 00:52:14transparencia algorítmica y cuando se
- 00:52:16habla de transparencia algorítmica se
- 00:52:18está hablando de eso oiga este algoritmo
- 00:52:20porque me está diciendo que no o porque
- 00:52:23me está diciendo que sí vale entonces
- 00:52:26digamos que hay como dos niveles en
- 00:52:28cuanto al tema de la transparencia
- 00:52:30algorítmica uno que es lo que se está
- 00:52:33empezando a reflejar yo no soy abogada
- 00:52:36pero con abogadas expertas en protección
- 00:52:38de datos y estos temas que ha hablado
- 00:52:40el comentario es que el tratamiento que
- 00:52:43hace el reglamento general de protección
- 00:52:44de datos es un poquito flojo pero lo que
- 00:52:47se está hablando es de auditabilidad
- 00:52:49vale
- 00:52:51yo soy más de la posición de pro pública
- 00:52:54y civil órgano auditable el algoritmo
- 00:52:57por supuesto tiene que ser pero es que
- 00:52:58además yo tengo derecho igual que tengo
- 00:53:01derecho a saber cuál es la ley que se me
- 00:53:04aplica en mi país tengo derecho si si en
- 00:53:08este caso se me va a aplicar el
- 00:53:09resultado de un algoritmo tengo derecho
- 00:53:11a ver el langur istmo y a leer el
- 00:53:13algoritmo y cuando estamos hablando de
- 00:53:15sistemas de inteligencia artificial pues
- 00:53:17a lo mejor ver el código fuente ver el
- 00:53:19código que han escrito las personas que
- 00:53:21han escrito es algoritmo no me va a
- 00:53:23decir mucho porque voy a ver
- 00:53:26la red de celdas que cada uno hace una
- 00:53:29cosita y una parte del procesamiento
- 00:53:31todas interconectadas y que ni las
- 00:53:33mismas personas que han diseñado eso son
- 00:53:36capaces de explicar porque de pronto con
- 00:53:39una pequeña variante en la foto del gato
- 00:53:41decide el sistema que sus guacamole en
- 00:53:43vez de un gato entonces en ese caso
- 00:53:46estaríamos hablando no sólo de código
- 00:53:48fuente estaríamos hablando de saber con
- 00:53:50qué datos se ha entrenado cómo se ha
- 00:53:52entrenado y qué colección de datos se ha
- 00:53:54seleccionado para enseñarle o pregunta a
- 00:53:58ese sistema
- 00:54:01muy bien
- 00:54:04no tengo ya muchas entonces voy a traer
- 00:54:09alguna buena noticia también la esto de
- 00:54:12momento es sólo una guía ética ahora lo
- 00:54:15he desglosado un poquito porque me
- 00:54:17imaginaba que esto no se leería muy bien
- 00:54:18tiene 55 páginas y está muy bien la
- 00:54:21unión europea está empezando a hacer
- 00:54:23comités de ética para examinar todas
- 00:54:26estas cosas ya dar pautas y a dar guías
- 00:54:28que estaba muy bien como comienzo aunque
- 00:54:31yo diría que mi opinión sería que la
- 00:54:34situación es más urgente que van a estar
- 00:54:37dando solamente recomendaciones con de
- 00:54:39buenas intenciones pero bueno por algo
- 00:54:41se empieza por lo menos está en negro
- 00:54:43sobre blanco impreso en algún sitio el
- 00:54:45tema de la guía lícita ni lo tocan sólo
- 00:54:50hablan de la parte ética y de la parte
- 00:54:52de la robustez
- 00:54:55está enmarcado todo el documento o
- 00:54:58respecto o dentro del respeto a los
- 00:55:01derechos fundamentales de las personas y
- 00:55:04están denunciando cuatro principios
- 00:55:05éticos el respeto a la autonomía humana
- 00:55:07la prevención del daño la equidad y ese
- 00:55:12concepto del que yo espero que se
- 00:55:14empiece a hablar cada vez más que es el
- 00:55:16tema de la explica habilidad explíqueme
- 00:55:19por qué este algoritmo me ha dado este
- 00:55:21resultado y si el resultado está sesgado
- 00:55:25o contiene prejuicios
- 00:55:26arregle el algoritmo
- 00:55:29ese es el tema
- 00:55:32dicen que por supuesto los principios
- 00:55:34éticos están muy bien pero hay que
- 00:55:36aplicarlos entonces siete requisitos de
- 00:55:39aplicabilidad es otro tema que también
- 00:55:42se está debatiendo y no sé si sabéis que
- 00:55:44hace tres años ha habido por ahí
- 00:55:46circulando una carta que hemos firmado
- 00:55:50muchas personas porque se están
- 00:55:52empezando a utilizar estos sistemas de
- 00:55:54inteligencia artificial en armamento
- 00:55:57entonces si sois conscientes o no pero
- 00:55:59se está utilizando en el armamento
- 00:56:01militar entonces ponemos un sistema de
- 00:56:03inteligencia artificial en un drone que
- 00:56:05además tiene para disparar y le decimos
- 00:56:08que detecte cuáles son las personas
- 00:56:10peligrosas y que les dispare
- 00:56:12eso se está utilizando y hubo ha habido
- 00:56:15un llamamiento por parte de la comunidad
- 00:56:16científica a que se deje de utilizar
- 00:56:20este tipo de sistemas en sistemas
- 00:56:23militares entonces bueno toda la parte
- 00:56:25de acción y supervisión humanas es decir
- 00:56:28que al final de toda la cadena haya una
- 00:56:32persona que revise el resultado
- 00:56:35estamos traído ningún ejemplo pero
- 00:56:37también estamos hablando de sistemas
- 00:56:38médicos que están en todos los sitios de
- 00:56:41estos sistemas que al final la decisión
- 00:56:44la tome un ser humano no un sistema que
- 00:56:46pueda utilizar el sistema para ayudarle
- 00:56:49a hacer su trabajo pero que no reemplace
- 00:56:51en la toma de decisiones a un ser humano
- 00:56:54estamos hablando de solidez técnica de
- 00:56:57seguridad por supuesto porque manejan
- 00:57:00montones y montones de datos
- 00:57:03estamos hablando de gestión de
- 00:57:04privacidad estamos hablando de
- 00:57:05transparencia de bienestar social de no
- 00:57:09discriminación y de rendición de cuentas
- 00:57:12entonces bueno por lo menos
- 00:57:16parece que se quiere insistir en que
- 00:57:18todo esto es necesario e imprescindible
- 00:57:20y por supuesto que pueda pasar un
- 00:57:23proceso de evaluación es decir que se
- 00:57:25pueda comprobar que ese diseño cumple
- 00:57:27con esos principios éticos
- 00:57:31pero en cualquier caso esto es una guía
- 00:57:33ética es decir unas recomendaciones y es
- 00:57:37interesante porque desde la industria en
- 00:57:40este caso armamentística no sé si sabéis
- 00:57:42quién son los de darpa no son mis
- 00:57:44personas favoritas para citar pero
- 00:57:47tienen una presentación buenísima si
- 00:57:49queréis más detalles técnicos sobre
- 00:57:51estos sistemas tienen una presentación
- 00:57:53buenísima porque desde el punto de vista
- 00:57:55de la industria y de quiénes están
- 00:57:57usando estos sistemas son muy
- 00:57:59conscientes que estos sistemas están
- 00:58:01generando mucha desconfianza y que
- 00:58:03efectivamente de hecho en las empresas
- 00:58:06también se está hablando de este tema de
- 00:58:07explica habilidad y estas siglas x ahí
- 00:58:10que son explica habilidad de los
- 00:58:13sistemas de inteligencia artificial
- 00:58:15entonces la situación y esto estás
- 00:58:18transparencias son el 2017 me parece que
- 00:58:22eran o sea que son recientes que no es
- 00:58:24que sean de hace 20 años
- 00:58:27desde la misma industria se reconoce que
- 00:58:29hoy en día hay muchos sistemas donde nos
- 00:58:33dan un resultado con un 93 por ciento de
- 00:58:36probabilidades de que ese resultado sea
- 00:58:38cierto para que nos da la probabilidad
- 00:58:41para que sepamos si podemos fijarnos
- 00:58:43mucho o no pero realmente no hay ninguna
- 00:58:45manera de averiguar por qué el sistema
- 00:58:47ha llegado a esa conclusión y sin
- 00:58:49embargo la idea y en lo que se está
- 00:58:51trabajando y es cierto que en la
- 00:58:54industria así se están tomando en serio
- 00:58:56esto porque si no nadie va a querer
- 00:58:57comprar estos sistemas claro
- 00:59:00cuando alguien utiliza un sistema el
- 00:59:02sistema le diga porque ha tomado esa
- 00:59:04decisión y si os fijáis en la cajita de
- 00:59:07en medio esto no sé si le funciona el
- 00:59:10punto funciona puntero si os fijáis en
- 00:59:12la cajita de medio esto es una red
- 00:59:13neuronal fijaros la diferencia como me
- 00:59:16ha gustado mucho esta transparencia como
- 00:59:18ha representado aquí la red neuronal que
- 00:59:20es cómo están siendo diseñadas y
- 00:59:22funcionando ahora mismo y esto es otra
- 00:59:25arquitectura diferente donde hay una
- 00:59:27trazabilidad donde se pueden seguir los
- 00:59:30pasos de por donde ha ido tomando
- 00:59:33decisiones este sistema y por tanto por
- 00:59:36poder
- 00:59:37establecer lo mismo que os decía antes
- 00:59:40del elche que se veía y en el código
- 00:59:42decir bueno ha sido en este punto donde
- 00:59:44el sistema han fallado y aquí es donde
- 00:59:46tenemos que trabajar para ser capaces de
- 00:59:48arreglar este prejuicio porque estamos
- 00:59:52hablando de sesgos que nos están
- 00:59:54mostrando el el sistema
- 00:59:57y ya por último
- 00:59:59me quedan 4 vale bueno y ya por último y
- 01:00:05ya lo he avanzado un poco cuando he
- 01:00:06hablado de la guía pues que ésta está
- 01:00:08muy bien a mí me parece estupendo la
- 01:00:11guía de la unión europea está fenomenal
- 01:00:13me parece estupendo que se les indique a
- 01:00:16esta industria pues que se les dé
- 01:00:18indicaciones de buenas intenciones y
- 01:00:21cómo habría que hacer las cosas si las
- 01:00:23cosas se hacen bien pero volviendo al
- 01:00:25principio de la charla hablando de que
- 01:00:28en el diseño y política hay una
- 01:00:29intención
- 01:00:31y hay unos resultados y los resultados
- 01:00:33son que podemos o no podemos hacer
- 01:00:35determinadas cosas o que recibimos o no
- 01:00:38recibimos determinada información no
- 01:00:40tenemos o no tenemos acceso a
- 01:00:42determinados recursos
- 01:00:44me gustaría hacer una comparación con
- 01:00:46otro tipo de ingenierías socialmente
- 01:00:49ahora mismo y me he permitido pues
- 01:00:51haceros aquí un kobe beige de un trozo
- 01:00:53del código penal el código penal dedica
- 01:00:56un título específico a los delitos oa
- 01:01:01los temas relacionados con la
- 01:01:03manipulación genética es decir
- 01:01:06en temas de ingeniería genética sabemos
- 01:01:08que lo que es la tecnología está muy
- 01:01:10desarrollada y se pueden hacer
- 01:01:11muchísimas cosas sin embargo como
- 01:01:14sociedad no admitimos que determinadas
- 01:01:17manipulaciones genéticas sean viables es
- 01:01:21decir que aunque tecnológicamente sea
- 01:01:23posible consideramos que eso no debería
- 01:01:26hacerse y sin embargo cuando estamos
- 01:01:28hablando de tecnologías informáticas
- 01:01:31pues parece que este concepto de que
- 01:01:34bueno pues como se puede hacer se hace
- 01:01:35como facebook puede desarrollar un
- 01:01:38sistema que a partir de los patrones de
- 01:01:40las notas de polvo de mi cámara es decir
- 01:01:41que determine dónde estado y con quién
- 01:01:45estado pues lo hace y ahí está entonces
- 01:01:48quizás esto es más un tema de debate
- 01:01:50pero
- 01:01:54quizás deberíamos empezar a plantearnos
- 01:01:56que a lo mejor no todo cabe no todo
- 01:02:00deberíamos dejar que se desarrolle sólo
- 01:02:02por el hecho de que se puede hacer
- 01:02:05y ya con esto quería terminar que bien
- 01:02:08no no me pasaba
- 01:02:10gracias
- 01:02:11[Aplausos]
- tecnología
- diseño
- política
- algoritmos
- sesgos
- inteligencia artificial
- transparencia
- ética
- sesgos de género
- decisiones automatizadas