00:00:00
Transcriptor: julieta Albarracín
Revisor: Penny Martínez
00:00:04
Buenos días.
00:00:07
Yo vengo a hablaros de qué es
la ética de la tecnología,
00:00:11
porque creo humildemente
que debería importaros.
00:00:15
Y es una buena semana para hacerlo,
porque seguramente
00:00:19
aún tenemos grabadas en el cerebro
las imágenes de Mark zuckerberg,
00:00:23
el CEO de Facebook,
hablando ante el congreso de EE.UU,
00:00:26
justificando un poco lo injustificable,
que es que básicamente Facebook
00:00:30
nos ha hecho creer que teníamos unos
niveles de privacidad en su plataforma
00:00:34
que en realidad no tenemos.
00:00:37
Pero no solo eso.
00:00:38
Por suerte, hoy somos menos ingenuos
en relación con la tecnología
00:00:41
y ya sabemos que cuando un producto
tecnológico no lo pagamos con dinero,
00:00:46
en realidad es que nosotros
somos el producto,
00:00:48
y nuestros datos son los que están
alimentando una maquinaria de anuncios,
00:00:55
un modelo de negocio
basado en la comercialización
00:00:57
de datos personales.
00:00:59
Hoy también sabemos,
somos menos ingenuos,
00:01:02
que todo lo "smart", todas las
herramientas tecnológicas inteligentes
00:01:06
nos espian.
00:01:07
Y si no, os reto si tenéis una smart TV
00:01:10
a que leáis el manual de instrucciones,
donde veréis que os recomiendan
00:01:16
no tener conversaciones privadas
delante del televisor,
00:01:20
si tenéis televisor en vuestra habitación
igual tenéis un problema,
00:01:24
porque básicamente una smart TV,
como todo lo que es smart, nos espía.
00:01:29
El producto somos nosotros.
00:01:31
Y en tecnología creo que por suerte
ya nos hemos acostumbrado a oír
00:01:36
a personas que nos hablan del problema
de la privacidad de los datos.
00:01:40
Pero la ética de la tecnología
va mucho más allá de la privacidad.
00:01:44
Y permitidme que dé un paso atrás
para contaros,
00:01:47
para compartir con vosotros
00:01:49
cómo empecé yo a darme cuenta
de que en tecnología
00:01:51
teníamos que mirar
todo un universo de cosas
00:01:53
que muy poca gente estaba mirando.
00:01:56
Yo empecé a hacer mi tesis
hace muchísimos años,
00:01:59
mi tesis doctoral en videovigilancia.
00:02:02
Quería ver cómo las cámaras
impactaban sobre cómo utilizamos la ciudad
00:02:07
cuáles eran las motivaciones
de los diferentes actores
00:02:10
para confiar a una solución tecnológica
un problema social importantísimo,
00:02:14
como es la percepción de inseguridad.
00:02:17
Y ahí estaba yo haciendo mi tesis,
descubriendo cosas interesantísimas,
00:02:21
viendo métricas y como las cámaras
eran capaces de capturar
00:02:24
dinámicas y expectativas sociales,
pero además devolvérnoslas a la sociedad
00:02:30
muchas veces con diferencias.
00:02:31
La cámara no era solo
un actor tecnológico, o solo un cacharro.
00:02:35
La cámara intervenía
en cómo utilizábamos el espacio público,
00:02:38
las expectativas que teníamos
los unos sobre los otros,
00:02:41
cómo comprendíamos la seguridad.
00:02:44
Pero en todo este proceso un buen día
se me ocurrió coger el libro,
00:02:47
un libro de Richard Sennett,
un conocido sociólogo,
00:02:52
"El declive del hombre público"
y en él se preguntaba,
00:02:55
mucho antes de que tuviéramos
drones y sensores
00:02:59
y cámaras por todas partes,
00:03:01
y ojos constantes que nos vigilan
en nuestra deriva urbana,
00:03:05
él se preguntaba en estas ciudades
que estamos creando llenas de ojos,
00:03:12
dónde se enamorarían Romeo y Julieta.
00:03:15
Y para mí ese fue mi "Aha moment",
mi momento de darme cuenta
00:03:20
de que mientras yo me focalizaba
en dinámicas sociales y métricas
00:03:24
y expectativas, me había olvidado
de una pregunta importantísima.
00:03:28
Esto que estamos haciendo ¿es deseable?
00:03:31
¿Queremos que en nuestras ciudades,
Romeo y Julieta,
00:03:35
hijos de 2 familias enfrentadas,
un amor prohibido,
00:03:39
queremos crear ciudades donde
los jóvenes de familias
00:03:43
dispares o enfrentadas
no puedan enamorarse?
00:03:46
Y sobre todo pensando en la gente joven.
00:03:49
Una de las cosas que más me
sorprendió en mi trabajo
00:03:51
es la ignorancia total que tenemos,
ignorancia por decirlo suave.
00:03:57
Cómo ignoramos los datos
y los derechos de los jóvenes,
00:04:01
los jóvenes aparecen en mi trabajo
de forma sistemática
00:04:03
como un colectivo constantemente
maltratado por la recogida de datos.
00:04:09
Los jóvenes, porque además
no tienen casa propia,
00:04:12
tienen una habitación
en el mejor de los casos
00:04:14
donde ponen candados
y carteles de no entrar,
00:04:17
mi zona de privacidad, etc.
00:04:18
Su zona de privacidad
muchas veces es el espacio público,
00:04:21
y se lo estábamos quitando.
00:04:22
Les estábamos y les estamos quitando
a los jóvenes los espacios
00:04:26
para darse el primer beso
en la clandestinidad, en la privacidad,
00:04:29
en la intimidad
que necesitan y que merecen,
00:04:33
pero no solo para los jóvenes.
00:04:35
Se han preguntado
dónde se enamorarían Romeo y Julieta
00:04:37
y para mí la gran pregunta es
00:04:38
todo esto que estamos haciendo
en tecnología,
00:04:41
ese dinero que estamos invirtiendo.
00:04:43
¿Es deseable lo que estamos haciendo
a nuestro alrededor?
00:04:46
Cosas que ocurren con la tecnología,
por ejemplo, vinculado a los jóvenes
00:04:50
y a los entornos urbanos,
por primera vez en la historia
00:04:53
y a consecuencia de la penetración
de aparatos tecnológicos,
00:04:58
es más caro olvidar que recordar.
00:05:02
En toda la historia
fue mucho más dificil recordar.
00:05:04
Había que escribir pergaminos,
después la imprenta.
00:05:07
Eso tiene un coste.
00:05:08
Ahora mismo lo difícil es poder olvidar,
porque todo genera un registro digital.
00:05:15
Yo siempre digo que tengo la suerte
de tener más de cuarenta años,
00:05:19
porque los primeros 20 años de mi vida
no los grabó nadie,
00:05:23
tengo alguna foto, pero nada más.
00:05:27
A los jóvenes de ahora
les condenamos a una vida de miedo,
00:05:31
por cómo su huella digital puede impactar
en su vida en el futuro.
00:05:35
Esa foto de esa fiesta, ese comentario
en una red social, ese momento
00:05:41
que queremos olvidar, ese conflicto,
incluso esa condena judicial
00:05:46
o ese archivo de una causa.
00:05:49
Todo eso las personas que han nacido
ya en la sociedad actual,
00:05:53
totalmente digitalizada,
puede emerger en cualquier momento
00:05:56
y arruinarte la vida,
tu relación de pareja,
00:05:59
la consecución de ese trabajo
que tanto deseabas.
00:06:03
Por lo tanto,
en mi trabajo sobre videovigilancia
00:06:06
me di cuenta de que había un montón
de preguntas sobre tecnología
00:06:09
que no estábamos haciendo, y que era
importantísimo que alguien realizara.
00:06:15
Desde entonces he tenido la suerte
de poder dedicarme a hacer esas preguntas,
00:06:18
a explorar cuáles son las preguntas
que deberíamos hacer, y cómo debería
00:06:22
la tecnología responder a esas preguntas,
00:06:25
y entender e incorporar
todas esas preocupaciones.
00:06:28
Quería detallaros brevemente
algunos de los proyectos
00:06:30
en los que estuve involucrada,
para que veáis cómo se aterriza
00:06:33
este tema de la ética de la tecnología.
00:06:35
He trabajado mucho tiempo,
por ejemplo,
00:06:37
en la automatización
del paso de fronteras.
00:06:39
No sé si habéis ido
a algún aeropuerto recientemente,
00:06:42
pero veréis que muchas veces
quien nos controla
00:06:44
el pasaporte ya no es un policía,
sino una máquina,
00:06:46
metéis vuestro pasaporte, se os hace
un reconocimiento de la huella digital,
00:06:50
un match biométrico
con vuestro documento de identidad,
00:06:53
y la máquina decide si podéis pasar o no.
00:06:58
Cuando empezamos a trabajar
en las "fronteras inteligentes",
00:07:02
una de las primeras cosas
que nos sorprendió,
00:07:04
y que después hemos visto
reproducida en muchos otros casos,
00:07:08
es que cuando el parlamento europeo
00:07:10
empezó a plantearse la automatización
del cruce de fronteras,
00:07:15
el debate no pasó por el parlamento
europeo porque se consideró
00:07:18
una enmienda técnica.
00:07:20
Cambiar a policías por un proceso de datos
era nada más que una enmienda técnica.
00:07:26
No afectaba
00:07:28
según las personas que inicialmente
propusieron ese cambio,
00:07:31
a la conceptualización
de lo que era la frontera,
00:07:35
con lo cual podía ser una
enmienda técnica que no requería
00:07:37
ningún tipo de control público o político.
00:07:41
Para que veáis
lo poco técnico que esto es,
00:07:46
la incorporación de automatización
del paso de fronteras ha hecho,
00:07:49
por ejemplo, que la frontera desaparezca.
00:07:52
Hoy en día, el cruce de la frontera,
la línea en el suelo, el aeropuerto,
00:07:59
no es lo importante.
00:08:01
Empezamos a viajar y se nos empieza
a autorizar el viaje en el momento
00:08:05
en el que compramos nuestro billete
o solicitamos la visa para viajar.
00:08:10
Y nuestro paso de frontera no acaba
cuando cruzamos la frontera
00:08:13
o cuando llegamos a nuestro destino.
00:08:16
Si hemos pedido una visa continúa,
porque la validez de nuestra visa
00:08:19
es controlada hasta que
abandonamos el país,
00:08:22
o si no lo abandonamos salta una alarma,
00:08:24
para que la policía pueda
tomar cartas en el asunto.
00:08:27
Con lo cual la introducción de los datos,
la automatización de todo este proceso,
00:08:33
ha cambiado completamente
lo que supone una frontera.
00:08:36
La frontera es ahora mismo
un espacio larguísimo,
00:08:39
para muchas personas
un espacio de control continuo.
00:08:44
Han pasado otras cosas.
00:08:46
con la automatización de fronteras
hemos incorporado la biometría
00:08:49
como herramienta
para comprobar la identidad.
00:08:52
¿Qué pasaba en el pasado
cuando alguien no quería
00:08:55
que su identidad fuera conocida?
00:08:57
Quemaba su pasaporte.
00:08:59
Cuando alguien no quería
ser devuelto a su país,
00:09:01
porque consideraba que en ese país
podía sufrir consecuencias indeseables,
00:09:07
podía quemar su pasaporte
y con eso aspirar a quedarse
00:09:09
en un espacio
y en un limbo legal y jurídico.
00:09:14
Hoy, nuestro pasaporte
está en nuestros dedos.
00:09:19
¿Qué están haciendo los migrantes?
00:09:21
Quemarse los dedos, mutilarse,
00:09:25
porque es la única forma de evitar
que su cuerpo se convierta en su enemigo.
00:09:30
Eso que querían pasar como enmienda
técnica, está teniendo unas consecuencias
00:09:33
brutales sobre los derechos
fundamentales de los migrantes.
00:09:37
Inicialmente, hoy ya no, alguien quería
que no habláramos de eso,
00:09:41
que no nos planteáramos cuáles eran
las implicaciones de esa decisión.
00:09:46
No solo eso, a través de mi trabajo
he podido hablar con más de 1500 personas
00:09:51
que han utilizado estos sistemas
automáticos de control de la identidad
00:09:56
en pasos de fronteras.
00:09:57
Y es curioso ver como cuando les preguntas
a los viajeros de terceros países,
00:10:01
no europeos, no personas del espacio
del entorno Schengen:
00:10:05
¿Qué prefieres, un control policial humano
o un control automático?
00:10:10
La mayoría te dice:
"Prefiero el control automático".
00:10:13
Confiamos en la tecnología,
creemos que es más eficiente
00:10:17
y más justa incluso
que la toma de decisiones humana.
00:10:21
Pero cuando les preguntábamos
a estas mismas personas:
00:10:24
¿Y si la máquina se equivoca?
¿Qué crees que va a pasar?
00:10:28
Todos coincidían:
"Estoy perdido, no voy a poder salir".
00:10:33
Cuando hay lo que llamamos
un falso positivo,
00:10:35
cuando la máquina se equivoca,
no tenemos los mecanismos
00:10:38
ni las leyes que garanticen
que podemos salir del hoyo
00:10:41
donde nos ha metido ese proceso
de toma de decisiones automáticas.
00:10:45
Esas son algunas de las cosas
que hemos encontrado en el trabajo
00:10:49
en el entorno de fronteras.
00:10:51
Otro ejemplo: también hemos trabajado
con universidades,
00:10:55
para ver el impacto ético
de la ciencia ciudadana.
00:10:58
La ciencia ciudadana es la ciencia
que se hace con la ayuda de las personas,
00:11:01
gente que trabaja el movimiento de
los mares o la migración de los pájaros,
00:11:06
si tuvieran que desplegar
a investigadores a todas partes,
00:11:09
para hacer fotografías constantes
de cómo está el mar,
00:11:11
o cómo se mueven los pájaros
esto sería muy costoso.
00:11:14
Gracias a la tecnología podemos pedir
a la gente que vive en espacios concretos
00:11:17
que nos manden una foto del mar cada día
cuando se levanten a la misma hora
00:11:21
y yo proceso todos esos datos
y a partir de ahí hago ciencia.
00:11:24
Está muy bien,
00:11:25
pero cuando empezamos a trabajar
con la universidad y los investigadores,
00:11:29
nos encontramos un caso paradigmático
de lo que yo llamo despotismo de los datos
00:11:33
que es "Todo por el pueblo, con los datos
del pueblo, pero sin el pueblo".
00:11:37
Los investigadores pedían a la gente que
les mandaran un montón de datos personales
00:11:41
donde una fotografía geolocalizada
puede decir exactamente dónde vivimos,
00:11:45
cómo es nuestro entorno
e incluso con quién estamos.
00:11:48
Pues no había ningún tipo de precaución
en relación con la gestión de esos datos.
00:11:53
Y lo llamábamos "ciencia ciudadana".
00:11:56
Afortunadamente, hoy ya no es así,
00:11:57
y hemos creado mecanismos
para que la ciencia ciudadana
00:12:00
sea realmente ciencia ciudadana,
al servicio de las personas
00:12:03
y no solo un espacio de uso y abuso
de las personas voluntarias
00:12:06
que se prestan para participar
en esas investigaciones.
00:12:10
Trabajamos también mucho
en el ámbito del trabajo,
00:12:12
el futuro del trabajo,
inteligencia artificial,
00:12:14
los robots que nos van
a quitar el trabajo,
00:12:16
todos esos miedos que tenemos.
00:12:19
¿Y qué nos encontramos?.
00:12:21
Los directores de las empresas, los CEOs,
los responsables de las empresas
00:12:25
tienden a tomar malas decisiones,
cuando éstas involucran la tecnología.
00:12:31
Es decir, un responsable de una empresa
estará mucho más dispuesto
00:12:37
a gastar dinero en tecnología
que en procesos no tecnológicos,
00:12:40
con lo cual adquirimos tecnología
sin pensar si realmente la necesitamos,
00:12:45
sobre todo en entornos de trabajo.
00:12:48
Estamos viendo la introducción
de exoesqueletos,
00:12:50
de sensores de control 24 horas
en entornos de trabajo
00:12:53
en los que no son necesarios
para mejorar la eficacia, la eficiencia
00:12:57
ni la rentabilidad de esa empresa.
00:12:59
Pero, entre que la gente en las empresas
no sabe que existen
00:13:02
tecnologías menos lesivas,
y que quien vende la tecnología
00:13:05
siempre quiere venderte la máxima
capacidad que puede desarrollar,
00:13:08
acabamos con entornos laborales
que son insufribles
00:13:11
desde la perspectiva de los que trabajan.
00:13:13
Tomamos malas decisiones porque
la tecnología nos fascina constantemente.
00:13:17
Cómo construimos los mecanismos
para empoderarnos a todos
00:13:20
a saber distinguir cuando una tecnología
realmente nos ayuda o no nos ayuda.
00:13:24
Pues a eso nos dedicamos
en la ética de la tecnología.
00:13:28
Un cuarto ejemplo: trabajo mucho
en tecnologías de seguridad.
00:13:32
La verdad es que podría dar 10 TED talks
solo sobre seguridad,
00:13:35
porque es un ámbito terriblemente sensible
00:13:37
Un par de ejemplos: hace unos años
estábamos auditando los algoritmos
00:13:41
de un proyecto que quería desplegar
cámaras de videovigilancia inteligentes
00:13:45
en entornos sensibles;
bancos y aeropuertos.
00:13:49
Las cámaras de videovigilancia
inteligentes son capaces de reconocer
00:13:53
comportamientos potencialmente criminales
de forma automática,
00:13:58
no es necesario que el ojo humano
esté controlando lo que ocurre,
00:14:01
sino que pueden ver
por la forma en que se mueve la gente,
00:14:04
si su forma de moverse por un espacio
es potencialmente peligrosa
00:14:08
y así mandar una alarma
y la intervención humana solo es necesaria
00:14:12
cuando se ha identificado
un comportamiento peligroso.
00:14:15
¿Qué nos encontramos?
00:14:16
Que los ingenieros se habían codificado
a sí mismos como la normalidad.
00:14:21
Es decir, la forma de utilizar
un banco es entrar y salir,
00:14:25
porque tienes mucha prisa,
porque tienes trabajo,
00:14:28
porque eres joven y te lo puedes permitir.
00:14:30
En ese algoritmo quien emergía
como potencialmente sospechoso
00:14:33
eran gente mayor, que tiene
mucho más tiempo, claro, está lloviendo,
00:14:38
vas al banco, hay un sofá, oye pues
me quedo un ratín, ¿no?
00:14:41
Eso no es potencialmente criminal,
pero el algoritmo lo identificaba así
00:14:45
porque no era cómo el ingeniero
habría utilizado ese espacio.
00:14:49
O las familias en aeropuertos.
00:14:52
Yo que viajo mucho, voy al aeropuerto
y quiero salir lo antes posible,
00:14:55
pero yo no soy la mayoría,
y no soy sobre todo la normalidad.
00:14:59
Hay gente que viaja
y coge un avión una vez al año.
00:15:02
Para quien la experiencia del aeropuerto
forma parte del viaje en sí,
00:15:05
que van 5 horas antes y dan vueltas,
comen, vuelven a comer, descansan,
00:15:10
salen a la terraza, y todo eso es normal.
00:15:14
Debería ser normal, y en cambio
el algoritmo de la cámara inteligente
00:15:17
lo había codificado como anormal,
y eso pasa constantemente.
00:15:21
Como los ingenieros no tienen formación
en este tipo de cosas,
00:15:24
no se dan cuenta de que codifican
su normalidad como la de todos.
00:15:29
Y eso, en el ámbito de la seguridad
es problemático,
00:15:32
porque todo lo que no es normal,
es sospechoso.
00:15:35
Y todos tenemos derecho
a no ser sospechosos,
00:15:38
a no ser que hagamos algo
realmente sospechoso.
00:15:41
Con lo cual la cámara nos acaba
convirtiendo en sospechosos constantemente
00:15:44
por salir fuera de esa normalidad
tan pequeña definida por los tecnólogos.
00:15:52
Por no hablar de los algoritmos
predictivos en el ámbito de la seguridad.
00:15:58
Yo no sé cómo se puede decir
más alto y más claro.
00:16:01
No podemos predecir el futuro.
Eso es magia. Y no sabemos hacerlo.
00:16:07
Lo máximo que podemos hacer
con los algoritmos
00:16:10
es entender lo que ha pasado hasta hoy,
00:16:13
y a partir de ahí hacer
que emerjan ciertos patrones,
00:16:16
y decir: el pasado me lleva a pensar
que es posible que en el futuro ocurra eso
00:16:22
Esto es lo que podemos hacer.
Llamar a eso predicción es muy arriesgado.
00:16:28
Y la insistencia actual de las muchísimas
fuerzas policiales de todo el mundo
00:16:32
en pedir el algoritmo
de la radicalización, de la prevención,
00:16:36
el pre-crimen, es imposible.
00:16:39
La tecnología nos puede ayudar,
pero hasta cierto punto.
00:16:42
Y todos tenemos derecho
a la presunción de inocencia
00:16:45
hasta que cometamos un acto ilícito.
00:16:48
La tecnología tiende a olvidar eso
00:16:50
y se siente tan poderosa y tan poco
controlada por todos estos elementos
00:16:54
que se atreve a prometer
la capacidad de prever y de saber
00:16:58
lo que vamos a hacer antes de que
a nosotros se nos pase por la cabeza.
00:17:03
Y finalmente un último ejemplo:
el de movilidad.
00:17:06
Todos habéis oído hablar
de los coches autónomos ¿no?
00:17:09
Teóricamente en poco tiempo
todas las ciudades estarán llenas
00:17:12
de coches que conducen solos.
00:17:15
Pues el coche autónomo
es uno de los grandes ejemplos
00:17:17
de cómo la arrogancia de la ingeniería
puede llevar al fracaso una buena idea.
00:17:23
El coche autónomo es muchísimo más seguro
que el coche no autónomo.
00:17:28
Pero, ¿qué pasa?
00:17:30
A las muertes de los coches no autónomos
nos hemos acostumbrado,
00:17:33
pero cada vez que un coche autónomo
mata o hiere a alguien
00:17:38
es portada en todo el mundo.
00:17:40
Con lo cual la percepción social
es que es mucho más inseguro
00:17:44
el coche autónomo que el no autónomo.
00:17:46
Y mientras los ingenieros insistan
en decir tengo aquí todas estas cifras
00:17:50
que demuestran que es más seguro,
00:17:52
y no se preocupen
de convencer a la población,
00:17:56
de trabajar la aceptabilidad
de esa tecnología,
00:17:59
de incorporar los miedos
y las preocupaciones sociales
00:18:03
en la conceptualización de esa tecnología,
seguramente lo que va a pasar
00:18:06
es que lo que es una buena idea
que podría salvar muchísimas vidas,
00:18:10
tardará muchísimo más en implementarse,
porque los ingenieros
00:18:13
tienden a la arrogancia
de los números y de la técnica.
00:18:17
Para que veáis que la ética
de la tecnología no es solo un tema
00:18:21
de tu smartphone, de tu televisor,
de los aparatos de consumo que usamos.
00:18:26
Hay una infraestructura de datos
que marca todo lo que hacemos,
00:18:30
que requiere urgentemente
de un cierto control, o como mínimo,
00:18:34
de la incorporación de responsabilidad.
00:18:36
Lo que he encontrado en mi trabajo,
es que como hacemos tecnología actualmente
00:18:41
es profundamente irresponsable.
00:18:44
A ningún médico ni a ninguna
empresa farmacéutica se le ocurriría
00:18:48
pedirle a la sociedad poder lanzar
medicamentos no testados.
00:18:53
O lanzar medicamentos que dijeran: "Mira
esto cura el constipado pero da cáncer".
00:18:57
No lo aceptaríamos.
00:18:59
No se puede vender.
00:19:00
Y en cambio en ingeniería informática
se pide el derecho
00:19:04
a lanzar cosas a la sociedad
sin testarlas de ninguna manera,
00:19:07
sin tener ningún tipo de conciencia
de su impacto social.
00:19:12
La buena noticia es que creo
que esto está empezando a cambiar.
00:19:16
Que existan perfiles como el mío,
con conocimientos en ciencia social,
00:19:21
pero también en elementos técnicos
de la matemática y de la física,
00:19:25
muestra que empieza a haber
interés por estas cosas.
00:19:28
Cada vez hay más grupos de investigación
y de trabajo en empresas, en universidades
00:19:32
y en espacios público-privados que aúnan
a sociólogos, filósofos, abogados,
00:19:39
a físicos, matemáticos, ingenieros
e informáticos para intentar entender
00:19:44
cuáles son esos impactos legales,
sociales y éticos de las tecnologías,
00:19:49
que ayudan a dilucidar
cuál es la deseabilidad
00:19:53
y cómo aumentar esa deseabilidad
de los productos
00:19:55
que se quieren fabricar en el futuro.
00:19:58
Cada vez hay más grupos que trabajan
en mejorar la transparencia
00:20:02
y el control de los algoritmos,
por ejemplo.
00:20:05
La idea de los estudios de impacto
está cada vez más extendida.
00:20:11
De la misma forma que no podemos
construir un nuevo desarrollo
00:20:15
de infraestructuras, una nueva carretera,
sin justificar su impacto ambiental,
00:20:20
no deberíamos poder lanzar
productos tecnológicos al mercado
00:20:23
sin justificar antes que nos hemos
planteado en algún momento
00:20:27
qué impacto va a tener eso
sobre la sociedad
00:20:29
y si ese impacto es deseable o no,
y si no es deseable,
00:20:32
qué medidas hemos tomado para
aumentar la deseabilidad de ese producto.
00:20:38
Ahora mismo muchísima gente
estamos implicados en crear la innovación
00:20:42
responsable del futuro,
que creo que es muy necesaria.
00:20:47
Y no obstante, se siguen oyendo voces
que dicen constantemente
00:20:51
que la prevención, ética y regulación
van en contra de la innovación,
00:20:57
que no podemos poner límites
a la capacidad creadora
00:21:00
de los hombres ingenieros
y sus grandes ideas.
00:21:04
Pues lo siento pero no es así.
00:21:06
Como humanidad,
llevamos toda nuestra historia
00:21:09
domesticando a la tecnología.
00:21:11
¿Un coche necesita un cinturón
de seguridad para circular?
00:21:15
No.
00:21:17
¿Un coche necesita un límite de velocidad?
00:21:19
No.
00:21:20
Los coches podrían ir muchísimo más rápido
de lo que van por nuestras calles.
00:21:25
¿Un coche necesita pasos de cebra,
semáforos,
00:21:28
control de emisiones contaminantes?
00:21:30
No.
00:21:31
Todas estas cosas se las hemos añadido
las sociedad humana,
00:21:35
para asegurar que lo que es
una innovación tecnológica deseable,
00:21:39
que es un motor, algo que nos lleve
de A a B de forma más rápida,
00:21:43
sea también deseable
desde la perspectiva social.
00:21:47
Hemos limitado las posibilidades
de los coches,
00:21:50
porque hemos entendido
que queremos ir más rápido de A a B,
00:21:53
pero no queremos que muera
tanta gente en ese proceso.
00:21:58
Eso lo hemos hecho siempre.
00:21:59
Siempre hemos limitado
las capacidades de la tecnología,
00:22:02
porque la tecnología
solo tiene sentido si mejora,
00:22:04
si aborda las problemáticas sociales.
00:22:08
Y que desde la ingeniería informática
00:22:10
se hayan olvidado tantas veces esa lógica
es claramente preocupante.
00:22:16
Al final lo que hemos hecho con el coche
00:22:18
es tener debates
a lo largo de mucho tiempo,
00:22:20
el primero no tenía cinturón de seguridad,
ni había semáforos, ni pasos de cebra.
00:22:25
Pero durante mucho tiempo
creamos esos marcos, como sociedad,
00:22:29
esos consensos sociales que nos llevan
a poder utilizar hoy los vehículos
00:22:33
de forma normalizada.
00:22:35
Estos son los debates y consensos sociales
que deben emerger alrededor
00:22:38
de cualquier nueva tecnología.
00:22:41
Debemos dilucidar cuando aparece
un nuevo algoritmo,
00:22:43
una nueva innovación tecnológica,
un nuevo invento,
00:22:46
debemos decidir entre todos
cuáles van a ser
00:22:48
los cinturones de seguridad,
los límites de velocidad,
00:22:51
los límites de emisiones,
los pasos de cebra y los semáforos
00:22:54
de esa nueva innovación.
00:22:56
A eso se dedica la ética de la tecnología.
00:22:58
Primero a fomentar esos debates,
para que entre todos decidamos
00:23:02
si es mejor un control humano,
o uno mecánico para cruzar una frontera,
00:23:07
para tomar entre todos
responsabilidad de las decisiones
00:23:10
que tomamos en relación con la tecnología,
y a partir de esa deseabilidad
00:23:14
lo que vemos es cómo construir
valores fundamentales, cohesión social,
00:23:17
confianza, no discriminación, derechos
humanos en las especificaciones técnicas.
00:23:23
Porque no es solo un tema de dar discursos
00:23:25
Hay formas a través
de las especificaciones técnicas
00:23:28
para hacer que las tecnologías
respondan mucho mejor
00:23:31
a las expectativas y deseos de la sociedad
00:23:35
De la misma forma que hemos podido
construir coches que maten menos,
00:23:39
podemos construir tecnologías
que no solo sean menos lesivas
00:23:42
sino que contribuyan de forma definitiva
a mejorar el futuro de nuestras sociedades
00:23:47
En definitiva, de lo que se trata
la ética de la tecnología
00:23:50
es de poner a las personas
en el centro del desarrollo tecnológico,
00:23:53
y poner la tecnología
al servicio de las personas.
00:23:56
Y no como estamos ahora muchísimas veces,
las personas al servicio de la tecnologías
00:24:01
Gracias.
00:24:02
(Aplausos)