RESPONSABILIDAD CIVIL POR DAÑOS CAUSADOS POR IA.

00:45:35
https://www.youtube.com/watch?v=Qsz_TYVtYzI

Summary

TLDRRaquel Evangelio Yorca, profesora titular de Dereito Civil na Universidade de Alicante, realizou unha exposición sobre responsabilidade civil por danos causados pola intelixencia artificial no marco dun evento na Universidade de Valladolid. Ela destacou que a IA, aínda que non xera novos tipos de danos, crea dificultades para probar o nexo causal entre a súa acción e o dano causado, debido á súa opacidade, autonomía e complexidade técnica. A Comisión Europea modificou as propostas de regulación; nun principio avogaba por un regulamento autónomo, pero mudou cara a unha directiva que se centra en aspectos procesuais. A nova Directiva de Produtos Defectuosos amplia a definición de produto para incluír sistemas de IA e programas, mais a normativa en xeral segue sen dirimir certos conflitos de responsabilidade, como a inclusión de sistemas de IA xerativa. Raquel sinala que retoques adaptativos nas leis existentes poden ser insuficientes e é posible que no futuro retómese o debate sobre a personalidade xurídica da IA.

Takeaways

  • 🧑‍🏫 Raquel Evangelio Yorca é unha referencia en dereito civil especializado en IA.
  • ⚖️ A IA non introduce novos tipos de danos, senón complexidade na probanza de causalidade.
  • 📜 A Comisión Europea pasou dun regulamento a unha directiva centrada en medidas procesuais.
  • 🤖 A nova directiva tende a incluír IA e software no concepto de produto defectuoso.
  • 🛠️ Os sistemas abertos e conectados da IA poñen novos retos á regulación.
  • 📏 A directiva proponse suavizar a carga de proba para os prexudicados, pero con limitacións.
  • 🏭 A normativa busca equilibrar interese das vítimas e desenvolvemento tecnolóxico.
  • 🛡️ Amplía os indemnizables a danos psicolóxicos e perda de datos non profesionais.
  • 💽 Indefinición con respecto aos outputs xerados por sistemas de IA xerativa.
  • 🧪 Futuro incerto sobre outorgar personalidade xurídica a sistemas de IA.

Timeline

  • 00:00:00 - 00:05:00

    Raquel Evangelio, profesora de dereito civil na Universidade de Alacante, é presentada como unha experta en propiedade intelectual e responsabilidade civil, destacando a súa ampla experiencia e relevancia nacional e internacional.

  • 00:05:00 - 00:10:00

    A ponente introduce a temática de responsabilidade civil polos danos ocasionados pola intelixencia artificial, destacando que esta non xera danos diferentes en natureza, pero si preocupación pola dificultade de establecer nexo causal e a multiplicidade de causas.

  • 00:10:00 - 00:15:00

    Explícase como a natureza da intelixencia artificial (autonomía, opacidade, interconectividade) e a imprevisibilidade incrementan as complicacións para determinar a responsabilidade en casos de danos.

  • 00:15:00 - 00:20:00

    Desenvólvense tres posibles enfoques normativos para afrontar estes retos: aplicar normas actuais, adaptalas ás características da intelixencia artificial ou crear unha regulación específica. Descártase a primeira opción.

  • 00:20:00 - 00:25:00

    A Unión Europea transicionou dunha proposta de regulamento a unha proposta de directiva, enfatizando medidas procesuais para abordar a responsabilidade civil, complementando outras normativas sobre produtos defectuosos.

  • 00:25:00 - 00:30:00

    Exponse os avances da nova directiva sobre produtos defectuosos, ampliando conceptos clave relacionados coa intelixencia artificial, como "produto" e "defecto", ademais de introducir novos responsables.

  • 00:30:00 - 00:35:00

    Destácanse novidades sobre danos indemnizables, abranguendo especialmente a destrución ou corrupción de datos no ámbito doméstico, indicando tamén carencias na regulación para certos prexudicados.

  • 00:35:00 - 00:40:00

    Descríbense medidas procesuais comúns nas directivas propostas, coma a orde de exhibición de probas e presuncións refutables, que buscan equilibrar a protección das vítimas co desenvolvemento tecnolóxico.

  • 00:40:00 - 00:45:35

    Conclusións subliñan a necesidade de adaptar a normatividade existente sen un novo criterio xeral de imputación, recomendando regulamentos específicos para sistemas con riscos elevados.

Show more

Mind Map

Video Q&A

  • Quen é Raquel Evangelio Yorca?

    É profesora titular de Dereito Civil na Universidade de Alicante e especialista en propiedade intelectual, consumo e responsabilidade civil.

  • Que retos xurídicos presenta a intelixencia artificial?

    Dificultade para probar o nexo causal entre accións da IA e posibles danos, debido á súa opacidade, autonomía e complexidade técnica.

  • Que cambios propuxo a Comisión Europea respecto á IA?

    Pasou de propor un regulamento autónomo a unha directiva que se centra na adaptación procesual das normas existentes á IA.

  • Que define a nova Directiva de Produtos Defectuosos?

    Amplía a definición de produto para engadir software e sistemas de intelixencia artificial, incluíndo actualizacións e interconexións.

  • Por que é difícil regular danos causados por IA xerativa?

    Debido á falta de clareza sobre se os outputs que xeran poden considerarse responsabilidades dentro da normativa actual.

  • Hai harmonización a nivel europeo sobre danos por IA?

    Non completamente, especialmente en materias máis aló de produtos defectuosos, deixándose moito á interpretación e adaptación estatal.

  • En que se diferencia a responsabilidade de IA de alto risco e baixo risco?

    En sistemas de alto risco habería máis tendencia cara á responsabilidade obxectiva, mentres que a de baixo risco require probas adicionais.

  • Que representación xurídica teñen os sistemas de IA?

    Actualmente, a IA non ten personalidade xurídica propia e a responsabilidade recaería nos desenvolvedores ou usuarios aplicables.

  • Serán os sistemas de IA incluídos como persoas electrónicas no futuro?

    Raquel suxire que o debate pode retomarse, pero actualmente está descartado.

  • Que danos son indemnizables nas novas propostas?

    Inclúense lesións físicas, psicolóxicas, perda de datos no ámbito doméstico e danos materiais.

View more video summaries

Get instant access to free YouTube video summaries powered by AI!
Subtitles
es
Auto Scroll:
  • 00:00:04
    [Música]
  • 00:00:20
    Eh bueno me toca a mí el honor de
  • 00:00:23
    presentar a Raquel evangelio yorca
  • 00:00:25
    Raquel Es profesora titular de derecho
  • 00:00:27
    civil la universidad de alicante Eh
  • 00:00:30
    bueno no voy a mencionar las
  • 00:00:32
    publicaciones que tiene porque bueno son
  • 00:00:36
    muy numerosas ella ha trabajado sobre
  • 00:00:38
    todo eh o sus líneas de investigación
  • 00:00:41
    son la propiedad intelectual la
  • 00:00:42
    protección de los consumidores y la
  • 00:00:44
    responsabilidad civil digo sobre todo
  • 00:00:46
    porque no son solamente estas pero bueno
  • 00:00:48
    es una especialista en la materia no
  • 00:00:51
    actualmente es directora de la cátedra
  • 00:00:54
    iberoamericana de de cultura digital y
  • 00:00:56
    propiedad intelectual es directora
  • 00:00:58
    también de un grupo de investigación
  • 00:01:00
    sobre propiedad intelectual y y miembro
  • 00:01:02
    de del grupo de investigación derecho y
  • 00:01:04
    nuevas tecnologías de la Universidad de
  • 00:01:05
    licante eh En fin y luego docencia ha
  • 00:01:09
    impartido en parte Bueno pues en
  • 00:01:11
    diversos másters de la Universidad de
  • 00:01:13
    alicante de la universidad Carlos iero
  • 00:01:15
    de la Universidad Autónoma materias de
  • 00:01:18
    propiedad intelectual propiedad
  • 00:01:19
    Industrial en nuevas tecnologías en fin
  • 00:01:22
    yo no me quiero alargar mucho Sí que
  • 00:01:23
    puedo decir que todos los que nos hemos
  • 00:01:25
    acercado y hemos tratado cuestiones
  • 00:01:28
    relativas al derecho de daño aos o a la
  • 00:01:30
    propiedad intelectual o a la propiedad
  • 00:01:32
    Industrial bueno Raquel Es un referente
  • 00:01:35
    en todos los sentidos a nivel nacional
  • 00:01:37
    internacional con lo cual creo que es un
  • 00:01:39
    acierto tenerla entre nosotros y vamos
  • 00:01:42
    para mí para la universidad de bal creo
  • 00:01:43
    que es un lujo que puedas intervenir en
  • 00:01:45
    este día nada más y te cedo la palabra
  • 00:01:48
    porque es lo que a lo que hemos venido
  • 00:01:49
    aquí a escucharte Muchas gracias muchas
  • 00:01:52
    gracias por la presentación Andrés bueno
  • 00:01:54
    en primer lugar y y y muy muy muy rápido
  • 00:01:57
    doy por supuesto las gracias a los
  • 00:02:00
    organizadores eh de de esta jornada
  • 00:02:04
    especialmente a a a Javier y la
  • 00:02:07
    Enhorabuena porque desde luego eh el
  • 00:02:10
    tema lo merece y los ponentes que me han
  • 00:02:14
    precedido y maitane que vendrá después
  • 00:02:16
    pues pues pues son de primer orden
  • 00:02:19
    fantásticos voy a aprender muchísimo y
  • 00:02:21
    además no los conocía y tampoco conocía
  • 00:02:23
    la universidad de valladolit con lo cual
  • 00:02:25
    estoy encantadísima de de poder estar
  • 00:02:28
    aquí bueno sin más preámbulos voy al al
  • 00:02:31
    al tema que me corresponde tratar que es
  • 00:02:33
    el de la responsabilidad civil por daños
  • 00:02:36
    causados por Inteligencia artificial
  • 00:02:39
    bien eh Me gustaría hacer dos dos
  • 00:02:43
    aclaraciones previas la primera es que
  • 00:02:46
    la Inteligencia artificial no causa unos
  • 00:02:49
    daños distintos diferentes en cuanto a a
  • 00:02:53
    su naturaleza de los que se causan sin
  • 00:02:56
    intervención de la Inteligencia
  • 00:02:57
    artificial y el segundo es que el uso de
  • 00:03:00
    la Inteligencia artificial tampoco
  • 00:03:02
    aumenta el número de daños que se
  • 00:03:05
    ocasionan salvo puede que en alguna en
  • 00:03:09
    algún ámbito por ejemplo en la
  • 00:03:10
    Inteligencia artificial generativa y las
  • 00:03:13
    infracciones a la propiedad intelectual
  • 00:03:15
    hay sí se ha multiplicado por 1000 los
  • 00:03:18
    los los daños por infracciones a obras y
  • 00:03:20
    prestaciones protegidas como después se
  • 00:03:23
    verá pero en general no solo es que no
  • 00:03:25
    aumenta el número de daños sino que en
  • 00:03:27
    muchos de los ámbitos en los que se
  • 00:03:29
    utiliza
  • 00:03:30
    como ya se ha dicho
  • 00:03:32
    anteriormente la Inteligencia artificial
  • 00:03:34
    es más segura es más precisa que los
  • 00:03:36
    seres humanos entonces teniendo en
  • 00:03:39
    cuenta estas dos circunstancias Por qué
  • 00:03:41
    existe esa preocupación por regular la
  • 00:03:46
    responsabilidad civil por daños causados
  • 00:03:48
    por Inteligencia artificial Bueno hay
  • 00:03:50
    varios hay varios motivos e Uno de ellos
  • 00:03:54
    es que muchas veces los daños que se
  • 00:03:56
    causan son daños que que llamamos
  • 00:03:59
    especialmente sensibles porque afectan a
  • 00:04:01
    derechos de la personalidad vida
  • 00:04:04
    integridad física eh el derecho al honor
  • 00:04:06
    a la intimidad etcétera etcétera Y en
  • 00:04:10
    segundo lugar otro de los motivos que se
  • 00:04:12
    aducen es una especie de robofobia o sea
  • 00:04:16
    ese recelo a lo desconocido
  • 00:04:19
    eh Supongo que muy alentado también por
  • 00:04:22
    las películas que todos hemos visto y
  • 00:04:25
    que son catastróficas la hecatombe o sea
  • 00:04:28
    los robots van a ser la hecatombe
  • 00:04:30
    pero sobre todo yo creo que el motivo
  • 00:04:32
    principal es que las especiales
  • 00:04:34
    características de la Inteligencia
  • 00:04:36
    artificial
  • 00:04:38
    dificultan la prueba del nexo de
  • 00:04:41
    causalidad entre la actuación del
  • 00:04:44
    sistema inteligente y los daños y claro
  • 00:04:48
    el temor que se tiene es que en los
  • 00:04:51
    pleitos o mejor que en los que los daños
  • 00:04:54
    causados por Inteligencia artificial al
  • 00:04:56
    final resulten menos resarcido o menos
  • 00:05:00
    resarcibles que el resto en cuanto a
  • 00:05:03
    esas características de la Inteligencia
  • 00:05:06
    artificial que dificultan la prueba de
  • 00:05:09
    de la causalidad principalmente bueno eh
  • 00:05:13
    No las voy a repetir se se ha hablado de
  • 00:05:15
    ellas en las en las ponencias anteriores
  • 00:05:18
    simplemente las recuerdo las la
  • 00:05:20
    complejidad técnica de estos sistemas
  • 00:05:22
    tanto del Hardware como del Software la
  • 00:05:24
    opacidad ese famoso efecto ir reiterado
  • 00:05:28
    de la caja negra la apertura pero aquí
  • 00:05:32
    yo hablo de apertura no en el mismo
  • 00:05:34
    sentido en el que hablaba antes el
  • 00:05:36
    profesor cotino sino en el sentido de
  • 00:05:38
    que en los sistemas de Inteligencia
  • 00:05:40
    artificial cuando se ponen en
  • 00:05:41
    circulación no son como otros productos
  • 00:05:44
    por ejemplo unos zapatos unos pantalones
  • 00:05:46
    que ya se ponen en circulación cerrados
  • 00:05:48
    o sea los sistemas de Inteligencia
  • 00:05:50
    artificial por su propio diseño tienen
  • 00:05:51
    que estar abiertos porque necesitan
  • 00:05:54
    actualizaciones porque necesitan mejoras
  • 00:05:56
    porque necesitan interconectarse con
  • 00:05:59
    otros sistemas un sistema de navegación
  • 00:06:02
    eh de un vehículo por ejemplo necesita
  • 00:06:06
    estar conectado con datos externos por
  • 00:06:10
    ejemplo datos de del tráfico la
  • 00:06:13
    interconectividad esa dependencia de los
  • 00:06:16
    datos externos Y por último la autonomía
  • 00:06:20
    que nos lleva a la imprevisibilidad de
  • 00:06:22
    la que también se se ha hablado los
  • 00:06:25
    sistemas hay distintos sistemas de
  • 00:06:28
    Inteligencia artificial también se ha
  • 00:06:29
    dicho la la se distingue entre la ía
  • 00:06:32
    débil la ía fuerte bueno pues Cuanto más
  • 00:06:35
    autónomo es el sistema Cuanto más
  • 00:06:38
    capacidad tiene de autoaprender y de
  • 00:06:41
    tomar decisiones
  • 00:06:43
    libres más riesgo hay de que de lugar a
  • 00:06:46
    resultados imprevisibles que no eran los
  • 00:06:49
    que esperaba el desarrollador ni el
  • 00:06:51
    entrenador ni quién lo está
  • 00:06:54
    utilizando todo esto nos lleva a que es
  • 00:06:58
    muy difícil muchas veces conectar el
  • 00:07:01
    daño con la una actuación humana y en
  • 00:07:04
    otras ocasiones a que puede haber una
  • 00:07:07
    multitud de causas que han podido dar
  • 00:07:09
    lugar a ese daño pensemos en un vehículo
  • 00:07:12
    autónomo que eh choca contra un local y
  • 00:07:16
    causa unos daños pues las causas pueden
  • 00:07:19
    ser muchas eh puede ser un defecto en la
  • 00:07:23
    fabricación o puede ser que el defecto
  • 00:07:25
    no estuviera en la fabricación sino en
  • 00:07:27
    una actualización posterior
  • 00:07:30
    que eh se ha integrado en ese sistema no
  • 00:07:32
    bajo el control del primer fabricante
  • 00:07:34
    sino bajo el control de un tercero o
  • 00:07:37
    puede haber un ataque de un ataque
  • 00:07:41
    Cibernético tercero un hacker que ha
  • 00:07:44
    manipulado el sistema o puede ser debido
  • 00:07:47
    a una defectuosa manipulación o
  • 00:07:50
    conservación por el por el usuario y
  • 00:07:53
    claro ante esa multiplicidad de causas
  • 00:07:55
    es muy muy difícil en en en este tipo de
  • 00:07:58
    pleitos determinar el nexo causal que
  • 00:08:01
    como digo para mí es el principal
  • 00:08:04
    problema que
  • 00:08:06
    existe bien ante esta realidad las
  • 00:08:09
    posibilidades eh desde el punto de vista
  • 00:08:12
    del derecho de La regulación
  • 00:08:14
    pues son tres la primera aplicar las
  • 00:08:17
    reglas vigentes de responsabilidad civil
  • 00:08:19
    que tenemos la normativa especial de
  • 00:08:22
    responsabilidad civil por productos
  • 00:08:24
    defectuosos es decir la que procede de
  • 00:08:26
    la directiva del 85 que es la la la
  • 00:08:29
    gente y en el resto aplicar la normativa
  • 00:08:33
    sobre responsabilidad Civil del código
  • 00:08:35
    civil por hecho propio responsabilidad
  • 00:08:38
    por culpa o aplicar las normas de
  • 00:08:41
    responsabilidad civil por cosas cuando
  • 00:08:43
    se den los requisitos o analógicamente
  • 00:08:46
    la responsabilidad civil por los daños
  • 00:08:49
    causados por animales Bueno se puede
  • 00:08:52
    hacer ese paralelismo aunque yo no acabo
  • 00:08:54
    de verlo una segunda una segunda
  • 00:08:58
    posibilidad es partir de lo que tenemos
  • 00:09:00
    pero adaptándolo a esas especiales
  • 00:09:03
    características que tiene la
  • 00:09:05
    Inteligencia artificial y una tercera
  • 00:09:08
    posibilidad es crear un régimen
  • 00:09:11
    específico para los daños causados por
  • 00:09:14
    sistemas inteligentes una regulación ad
  • 00:09:17
    hoc en general la primera alternativa la
  • 00:09:21
    primera vía está descartada porque no
  • 00:09:24
    son suficientes las normas que tenemos
  • 00:09:27
    tal cual están red adas por tanto nos
  • 00:09:30
    quedan las otras dos Qué ha hecho la
  • 00:09:33
    Unión Europea pues la Unión Europea en
  • 00:09:37
    cuestión de poco tiempo ha cambiado de
  • 00:09:40
    rumbo inicialmente la propuesta de
  • 00:09:44
    reglamento eh del parlamento europeo de
  • 00:09:47
    2020 optó por la tercera alternativa es
  • 00:09:52
    decir propuso a la comisión europea la
  • 00:09:56
    adopción de un reglamento que cont era
  • 00:09:59
    un régimen de responsabilidad civil
  • 00:10:02
    distinguiendo para ello entre los
  • 00:10:04
    sistemas de alto riesgo que estarían
  • 00:10:07
    sujetos a una responsabilidad objetiva y
  • 00:10:10
    los sistemas no de alto riesgo que
  • 00:10:12
    estarían sujetos a una responsabilidad
  • 00:10:14
    subjetiva o por culpa con inversión de
  • 00:10:17
    la carga de la prueba y se establecían
  • 00:10:20
    también reglas sobre los sujetos
  • 00:10:22
    responsables sobre el cuantum
  • 00:10:24
    indemnizatorio los daños indemnizables
  • 00:10:27
    los plazos de prescripción
  • 00:10:30
    Solo dos años más tarde en 2022 la
  • 00:10:33
    comisión europea desechó por completo
  • 00:10:37
    esa propuesta de reglamento del
  • 00:10:38
    parlamento europeo para empezar descartó
  • 00:10:42
    la vía del reglamento y optó por la vía
  • 00:10:45
    de la directiva de una propuesta de
  • 00:10:48
    directiva Y en segundo
  • 00:10:50
    lugar descartó también una nueva
  • 00:10:54
    regulación específica para los daños
  • 00:10:56
    causados por Inteligencia artificial en
  • 00:11:00
    la propuesta de directiva sobre
  • 00:11:02
    responsabilidad civil e Inteligencia
  • 00:11:03
    artificial de 28 de septiembre de 2022
  • 00:11:06
    que es la que viene a sustituir esa
  • 00:11:09
    propuesta de reglamento que hizo el
  • 00:11:11
    parlamento el parlamento europeo a pesar
  • 00:11:15
    del su título muy ambicioso adaptación
  • 00:11:19
    de las normas de responsabilidad civil a
  • 00:11:21
    la Inteligencia artificial Únicamente se
  • 00:11:24
    contienen medidas de tipo procesal a las
  • 00:11:27
    que después me referiré
  • 00:11:29
    esta propuesta de directiva vino
  • 00:11:31
    acompañada por otra de la misma fecha
  • 00:11:34
    sobre responsabilidad civil por daños
  • 00:11:36
    causados por productos
  • 00:11:38
    defectuosos esta propuesta de directiva
  • 00:11:41
    de de productos vendrá a sustituir a la
  • 00:11:46
    del año 85 es decir la comisión europea
  • 00:11:48
    sí tenía claro que los cambios que había
  • 00:11:51
    que hacer en La regulación vigente de
  • 00:11:54
    daños por productos defectuosos eran
  • 00:11:56
    tantos y de tal calado que no bastaba
  • 00:11:58
    con una modif ición había que aprobar
  • 00:12:01
    una nueva directiva que sustituyera a la
  • 00:12:03
    anterior en estas dos propuestas se
  • 00:12:06
    presentaron como complemento de la
  • 00:12:09
    entonces propuesta de reglamento de
  • 00:12:10
    Inteligencia artificial hoy como sabemos
  • 00:12:13
    todos Ya reglamento de Inteligencia
  • 00:12:14
    artificial de
  • 00:12:16
    2024 y además son propuestas
  • 00:12:19
    complementarias entre sí porque no
  • 00:12:22
    coinciden en cuanto a su ámbito de
  • 00:12:24
    aplicación ni en cuanto al alcance que
  • 00:12:27
    tienen de tal manera que una viene a
  • 00:12:30
    complementar a la
  • 00:12:33
    otra En qué punto estamos en este
  • 00:12:35
    momento Bueno pues estamos
  • 00:12:38
    eh en una fase en la que cada una de
  • 00:12:42
    estas propuestas ha seguido una suerte
  • 00:12:44
    distinta la propuesta de produc de
  • 00:12:48
    directiva por daños causados por
  • 00:12:50
    productos defectuosos ya está aprobada
  • 00:12:53
    todavía no está publicada si no se ha
  • 00:12:54
    publicado hoy no está no está publicada
  • 00:12:57
    pero se aprobó ya el 23 de de octubre
  • 00:13:02
    mientras que la propuesta de
  • 00:13:03
    responsabilidad civil e Inteligencia
  • 00:13:05
    artificial está parada si se me permite
  • 00:13:08
    la la la expresión lo último que al
  • 00:13:11
    menos eh yo sé de ella es que en
  • 00:13:15
    septiembre de este de este año se
  • 00:13:17
    publicó un informe por Philip hacker
  • 00:13:20
    informe encargado por el parlamento
  • 00:13:21
    europeo en el que bueno pues se ponen de
  • 00:13:25
    relieve los que a juicio de de del autor
  • 00:13:28
    de del informe son las carencias de la
  • 00:13:31
    propuesta de directiva bueno para
  • 00:13:33
    empezar vuelve a recomendar que en vez
  • 00:13:35
    de una directiva volvamos a la senda del
  • 00:13:37
    del reglamento y que se establezca
  • 00:13:40
    responsabilidad objetiva para ciertos eh
  • 00:13:43
    daños en cuanto al plazo de trasposición
  • 00:13:46
    el mismo en ambas directivas 24 meses
  • 00:13:49
    desde la entrada en vigor pero claro en
  • 00:13:50
    el caso de la directiva de daños por
  • 00:13:52
    productos pues ya estamos más cerca en
  • 00:13:55
    la de responsabilidad civil e
  • 00:13:56
    Inteligencia artificial veremos qué pasa
  • 00:13:58
    con ella también hay distinción en
  • 00:14:01
    cuanto a la armonización la directiva de
  • 00:14:05
    productos por abreviar el el el nombre
  • 00:14:08
    es de armonización máxima es decir los
  • 00:14:11
    estados miembros no pueden modificar no
  • 00:14:14
    pueden cambiar las reglas que se
  • 00:14:17
    contienen en esa directiva mientras que
  • 00:14:19
    la la propuesta de directiva de
  • 00:14:21
    responsabilidad civil e Inteligencia
  • 00:14:23
    artificial es de armonización mínima con
  • 00:14:25
    lo cual siempre que hablamos de
  • 00:14:27
    armonización mínima al final lo que
  • 00:14:29
    estamos queriendo decir es No
  • 00:14:31
    armonización porque cada estado miembro
  • 00:14:33
    podrá después adaptarla y mejorar las
  • 00:14:37
    previsiones que en ella se
  • 00:14:40
    contengan una última diferencia que
  • 00:14:43
    quiero destacar Es que la
  • 00:14:46
    responsabilidad en el caso de la
  • 00:14:48
    directiva por productos es una
  • 00:14:49
    responsabilidad objetiva igual que en la
  • 00:14:51
    directiva vigente del del 85 y que
  • 00:14:54
    contiene un régimen completo para esta
  • 00:14:58
    responsabilid por daños causados por
  • 00:15:00
    productos defectuosos un régimen es
  • 00:15:03
    completo en cuanto que trata todos los
  • 00:15:06
    aspectos pero no completo en el sentido
  • 00:15:09
    de
  • 00:15:09
    suficiente porque hay limitaciones por
  • 00:15:12
    ejemplo en cuanto a los sujetos que son
  • 00:15:14
    que pueden beneficiarse de la directiva
  • 00:15:16
    en cuanto a los daños y eso hace que su
  • 00:15:19
    alcance su utilidad en cierta manera eh
  • 00:15:24
    se rebaje en cambio la propuesta de
  • 00:15:27
    responsabilidad civil la inteligencia
  • 00:15:29
    artificial en ese sentido no tiene
  • 00:15:31
    limitaciones se aplicaría a cualesquiera
  • 00:15:35
    pleitos de responsabilidad civil por
  • 00:15:37
    culpa
  • 00:15:38
    e por daños causados por Inteligencia
  • 00:15:41
    artificial pero tiene la limitación como
  • 00:15:44
    decía de que solamente adopta medidas de
  • 00:15:47
    tipo procesal y además como luego
  • 00:15:50
    veremos también que solamente se aplica
  • 00:15:53
    En aquellos casos en los que el daño
  • 00:15:56
    procede de un sistema de inteligencia
  • 00:15:58
    artif
  • 00:15:59
    y no a aquellos daños en los que una
  • 00:16:02
    persona ha tomado una decisión basándose
  • 00:16:05
    en un sistema de Inteligencia artificial
  • 00:16:07
    que esto también se ha dicho
  • 00:16:09
    anteriormente es decir la propuesta de
  • 00:16:11
    responsabilidad civil e Inteligencia
  • 00:16:13
    artificial se va a aplicar por ejemplo
  • 00:16:15
    al robot Star cuando opere o a los
  • 00:16:18
    nanobots que se meten en el cuerpo
  • 00:16:21
    humano para reparar tejidos pero no se
  • 00:16:24
    va a aplicar a la decisión que toma un
  • 00:16:28
    médico basándose en una herramienta de
  • 00:16:31
    diagnóstico o al policía que toma
  • 00:16:35
    determinades decisión basándose en el
  • 00:16:38
    sistema
  • 00:16:40
    biogen bien dicho esto
  • 00:16:43
    e lo que me propongo hacer muy
  • 00:16:46
    rápidamente es destacar solamente
  • 00:16:49
    algunos puntos de la directiva de
  • 00:16:53
    productos defectuosos que creo que
  • 00:16:54
    tienen más relación con la Inteligencia
  • 00:16:57
    artificial y despu es eh tratar esos
  • 00:17:01
    mecanismos procesales que se repiten en
  • 00:17:04
    ambas directivas que se contemplan en
  • 00:17:06
    ambas por lo que se refiere a los eh
  • 00:17:09
    elementos concretos de la directiva por
  • 00:17:12
    daños causados por productos defectuosos
  • 00:17:14
    una primera cuestión interesante es la
  • 00:17:17
    del concepto de producto y la del
  • 00:17:18
    concepto de defecto
  • 00:17:20
    em bajo la directiva vigente del año
  • 00:17:24
    85 se duda si los daños causados por
  • 00:17:29
    sistemas de Inteligencia artificial
  • 00:17:30
    quedarían amparados por esta directiva
  • 00:17:33
    porque el concepto de producto es el de
  • 00:17:35
    bien mueble no habrá problema Por tanto
  • 00:17:38
    con los robots cuando el sistema de
  • 00:17:40
    Inteligencia artificial esté integrado
  • 00:17:43
    forme parte de un robot que tiene un
  • 00:17:46
    soporte físico que es un bien mueble eh
  • 00:17:49
    No hay problema pero en el caso de
  • 00:17:51
    sistemas inteligentes que no están
  • 00:17:54
    integrados en un robot existe esa duda
  • 00:17:57
    Bueno pues la duda la ipa la nueva
  • 00:18:00
    directiva porque dentro del concepto de
  • 00:18:02
    producto incluye expresamente los los
  • 00:18:06
    programas de ordenador los programas
  • 00:18:08
    informáticos y dentro de ellos aunque no
  • 00:18:11
    en el articulado pero sí en los
  • 00:18:13
    considerandos los sistemas de
  • 00:18:15
    Inteligencia
  • 00:18:17
    artificial una segunda cuestión
  • 00:18:19
    interesante es que igual que en la
  • 00:18:21
    directiva vigente también se considera
  • 00:18:24
    producto no solo el producto final sino
  • 00:18:26
    también las partes integrantes los
  • 00:18:29
    componentes la nueva directiva eso lo
  • 00:18:31
    mantiene y además aclara que como
  • 00:18:36
    componente hay que entender también los
  • 00:18:38
    servicios conexos esto tiene mucho que
  • 00:18:41
    ver con esa característica de la
  • 00:18:43
    apertura y la interconectividad de los
  • 00:18:45
    sistemas de Inteligencia artificial de
  • 00:18:48
    la que hablaba los servicios conexos son
  • 00:18:50
    los que están integrados en un producto
  • 00:18:54
    o aquellos que se conectan con ese
  • 00:18:57
    producto de tal manera que sin ellos el
  • 00:18:59
    productor no puede cumplir sus funciones
  • 00:19:03
    esenciales por ejemplo un frigorífico
  • 00:19:06
    inteligente que e tiene un servicio
  • 00:19:11
    interconectado de medición de la
  • 00:19:13
    temperatura del del frigo Bueno pues
  • 00:19:15
    pues sin ese servicio no va a funcionar
  • 00:19:17
    bien el servicio se va a considerar un
  • 00:19:20
    componente lo cual es por decirlo de
  • 00:19:24
    alguna manera algo extraño porque
  • 00:19:25
    hablamos de una directiva de productos H
  • 00:19:28
    pero aquí excepcionalmente se incluye un
  • 00:19:30
    servicio como producto que entraría en
  • 00:19:33
    el ámbito de
  • 00:19:36
    aplicación en cuanto al defecto
  • 00:19:39
    o en qué casos podemos considerar que un
  • 00:19:42
    producto es defectuoso se mantiene la
  • 00:19:45
    definición el concepto de que el
  • 00:19:48
    producto será defectuoso cuando no
  • 00:19:50
    ofrezca la seguridad que una persona
  • 00:19:53
    legítimamente puede esperar igual que en
  • 00:19:56
    la directiva vigente del año 85
  • 00:19:59
    la nueva
  • 00:20:00
    directiva dice Establece que para
  • 00:20:03
    apreciar el carácter defectuoso de un
  • 00:20:05
    producto hay que tener en cuenta ciertas
  • 00:20:08
    circunstancias ciertos elementos entre
  • 00:20:11
    ellos son relevantes a los efectos de la
  • 00:20:14
    Inteligencia artificial primero la
  • 00:20:16
    capacidad de
  • 00:20:18
    autoaprendizaje la capacidad de
  • 00:20:20
    autoaprendizaje lo que quiere la
  • 00:20:22
    comisión europea es evitar que por esa
  • 00:20:26
    autonomía esa capacidad de autoaprender
  • 00:20:29
    que nos lleva a resultados a veces
  • 00:20:32
    imprevisibles del sistema El fabricante
  • 00:20:36
    diga a mí que me registren es que el el
  • 00:20:40
    el el el el el sistema inteligente
  • 00:20:43
    act ha actuado de forma imprevisible eso
  • 00:20:46
    no es un defecto es que está en su
  • 00:20:47
    propia naturaleza Bueno qué dice la
  • 00:20:50
    directiva la directiva en los
  • 00:20:52
    considerandos dice que un fabricante que
  • 00:20:53
    diseña un producto con la capacidad de
  • 00:20:56
    desarrollar un comportamiento inesperado
  • 00:20:59
    debe seguir siendo responsable de todo
  • 00:21:02
    comportamiento que cause daños eso es
  • 00:21:04
    muy importante a efectos de pedir una
  • 00:21:07
    indemnización por estos daños Y en
  • 00:21:10
    segundo lugar otra circunstancia que me
  • 00:21:12
    parece interesante en la materia que nos
  • 00:21:14
    ocupa es las posibilidades de
  • 00:21:17
    modificación de esos sistemas
  • 00:21:20
    abiertos después de su introducción en
  • 00:21:22
    el Mercado o de su puesta en servicio
  • 00:21:25
    posibilidades de
  • 00:21:26
    modificación que se tienen que tener en
  • 00:21:30
    cuenta a lo largo de la utilización del
  • 00:21:34
    producto antes o mejor cuando hablamos
  • 00:21:37
    de productos que no son sistemas de
  • 00:21:39
    Inteligencia artificial lo que tenemos
  • 00:21:40
    en cuenta es qué pasa con ese producto
  • 00:21:43
    cuando se introduce en el mercado ahora
  • 00:21:46
    ya no porque es un producto sujeto a
  • 00:21:49
    actualizaciones a mejoras a
  • 00:21:52
    interconexiones en cuanto a los sujetos
  • 00:21:55
    responsables Pues hay una ampliación de
  • 00:21:58
    los posibles sujetos responsables
  • 00:22:00
    también en parte debida a la
  • 00:22:02
    introducción de los sistemas de
  • 00:22:04
    Inteligencia artificial que básicamente
  • 00:22:07
    se integran en una macr categoría que es
  • 00:22:11
    la de los operadores económicos aquí no
  • 00:22:14
    voy a no voy a
  • 00:22:16
    detenerme pero básicamente El fabricante
  • 00:22:19
    del producto del componente eh el
  • 00:22:22
    importador y el representante autorizado
  • 00:22:25
    cuando sea un producto fabricado fuera
  • 00:22:27
    de la Unión Europea en defecto de ellos
  • 00:22:29
    El prestador de servicios logísticos y a
  • 00:22:32
    falta de identificación de cualquiera de
  • 00:22:34
    los anteriores va a responder el el
  • 00:22:37
    distribuidor se le da un plazo para
  • 00:22:39
    identificarlos y si no puede pues
  • 00:22:41
    responder a él igual que en la directiva
  • 00:22:44
    vigente la responsabilidad entre todos
  • 00:22:47
    los sujetos responsables es solidaria
  • 00:22:50
    sin perjuicio de la acción de repetición
  • 00:22:53
    del que haya respondido eh el que haya
  • 00:22:56
    indemnizado a la víctima frente al
  • 00:22:59
    verdadero causante del
  • 00:23:02
    daño bien en cuanto a la exoneración de
  • 00:23:05
    responsabilidad también la nueva
  • 00:23:07
    directiva mantiene las causas de
  • 00:23:10
    exoneración que se preven en la del año
  • 00:23:12
    85 y añade algunas nuevas
  • 00:23:16
    e por lo que se refiere a la
  • 00:23:18
    Inteligencia artificial Yo quiero
  • 00:23:21
    destacar la que ya se viene discutiendo
  • 00:23:24
    desde que se aprobó la directiva del 85
  • 00:23:26
    sobre si se mantiene si no se mantiene
  • 00:23:29
    si se da libertad a los Estados miembros
  • 00:23:32
    que es la de los riesgos del desarrollo
  • 00:23:34
    que en los sistemas de Inteligencia
  • 00:23:36
    artificial puede ser un coladero de
  • 00:23:39
    exoneraciones si tenemos en cuenta la
  • 00:23:43
    velocidad vertiginosa con la que estos
  • 00:23:46
    sistemas
  • 00:23:48
    evolucionan Claro si El fabricante puede
  • 00:23:51
    exonerarse porque eh en el momento en
  • 00:23:55
    que puso en circulación el producto los
  • 00:23:59
    el estado de los conocimientos técnicos
  • 00:24:02
    no permitía eh prevenir o predecir ese
  • 00:24:06
    tipo de de defecto y ese tipo de daño
  • 00:24:09
    Pues claro a lo mejor en 6 meses ya no
  • 00:24:12
    responde ya no responde
  • 00:24:15
    nadie avanzo en cuanto a los sujetos con
  • 00:24:18
    legitimación activa por supuesto el
  • 00:24:21
    perjudicado la víctima pero la
  • 00:24:25
    directiva limita la posibilidad de ser
  • 00:24:29
    perjudicado solamente a las personas
  • 00:24:31
    físicas lo cual no parece que tenga
  • 00:24:34
    mucho sentido porque los daños causados
  • 00:24:37
    por sistemas de Inteligencia artificial
  • 00:24:39
    afectan no solo a personas físicas sino
  • 00:24:42
    también a personas jurídicas novedades
  • 00:24:45
    respecto de la directiva vigente se
  • 00:24:47
    añade la posibilidad de que interponga
  • 00:24:51
    una acción lo interpongan una acción los
  • 00:24:54
    causava que tampoco hacía falta que la
  • 00:24:57
    directiva
  • 00:24:59
    diera de igual manera que se añade
  • 00:25:01
    también la posibilidad de que haya un
  • 00:25:03
    representante de uno o más sujetos
  • 00:25:05
    perjudicados que interpongan la demanda
  • 00:25:08
    en su nombre cosa que en mi opinión
  • 00:25:10
    tampoco hacía falta que la directiva lo
  • 00:25:12
    dijera
  • 00:25:14
    expresamente en cuanto a los daños
  • 00:25:16
    indemnizables eh se mantiene la
  • 00:25:19
    posibilidad de indemnizar daños eh Por
  • 00:25:23
    muerte o lesiones corporales añadiéndose
  • 00:25:27
    en este
  • 00:25:28
    grupo los daños a la salud psicológica
  • 00:25:32
    que se puedan demostrar con un informe
  • 00:25:35
    médico se mantienen también los daños a
  • 00:25:38
    bienes y aquí sí hay cierta ampliación
  • 00:25:42
    respecto de la directiva del 85 porque
  • 00:25:45
    los únicos daños a bienes que se
  • 00:25:46
    excluyen son los que se destinen
  • 00:25:49
    exclusivamente A fines profesionales lo
  • 00:25:52
    cual quiere decir que los daños a bienes
  • 00:25:56
    de uso mixto los que se utilizan tanto
  • 00:25:59
    en el ámbito privado doméstico como los
  • 00:26:02
    que se utilizan para fines profesionales
  • 00:26:04
    un portátil un vehículo un teléfono
  • 00:26:08
    móvil sí estarían incluidos en eh el
  • 00:26:12
    ámbito de aplicación de la directiva y
  • 00:26:15
    finalmente una una novedad también
  • 00:26:18
    interesante es que se admiten como daños
  • 00:26:21
    indemnizables los la destrucción o
  • 00:26:24
    corrupción de datos ahora sí no usados
  • 00:26:27
    con fines
  • 00:26:29
    profesionales por tanto solamente en el
  • 00:26:31
    ámbito doméstico y siempre y cuando que
  • 00:26:34
    la persona perjudicada no pueda
  • 00:26:37
    recuperar pues ese archivo que se le ha
  • 00:26:39
    borrado porque tenga una copia en ese
  • 00:26:42
    caso no cabría la demanda
  • 00:26:45
    eh por este tipo de daños se pueden
  • 00:26:48
    indemnizar daños materiales y también
  • 00:26:52
    daños morales H novedad también respecto
  • 00:26:55
    de la directiva del 85
  • 00:26:59
    bien hasta aquí eh esas cuestiones que
  • 00:27:02
    afectan exclusivamente a la directiva de
  • 00:27:04
    responsabilidad civil por daños causados
  • 00:27:06
    por productos defectuosos entro ahora en
  • 00:27:10
    eh esas medidas que se contemplan en en
  • 00:27:14
    la directiva de productos y en la
  • 00:27:16
    propuesta de directiva de
  • 00:27:17
    responsabilidad civil e Inteligencia
  • 00:27:19
    artificial que son mecanismos para
  • 00:27:22
    aliviar la carga de la prueba que tiene
  • 00:27:25
    el perjudicado y básicamente son dos la
  • 00:27:28
    orden de exhibición de pruebas y ciertas
  • 00:27:31
    presunciones jurist anum o refutables
  • 00:27:34
    como las
  • 00:27:36
    llama Las llaman los dos los dos textos
  • 00:27:39
    de causalidad y en el caso de la de
  • 00:27:42
    productos también presunción jurist
  • 00:27:45
    tantum de existencia de un defecto en el
  • 00:27:48
    producto en La regulación de estas
  • 00:27:51
    medidas eh queda latente Es evidente esa
  • 00:27:57
    intención ese propósito esa búsqueda de
  • 00:28:00
    proporcionalidad de equilibrio entre la
  • 00:28:04
    protección de los perjudicados por eh
  • 00:28:07
    sistemas de Inteligencia artificial y el
  • 00:28:10
    desarrollo o el tratar de evitar que
  • 00:28:14
    esta regulación impida la inversión y el
  • 00:28:17
    desarrollo de este tipo de
  • 00:28:20
    tecnologías
  • 00:28:22
    Aunque En mi
  • 00:28:25
    opinión La regulación en en
  • 00:28:28
    por ese miedo de frenar la la la el
  • 00:28:31
    desarrollo de la Inteligencia
  • 00:28:35
    artificial no alcanza el equilibrio sino
  • 00:28:38
    que en muchas ocasiones ahora lo veremos
  • 00:28:40
    e perjudica a la a la
  • 00:28:44
    víctima bien en cuanto a la exhibición
  • 00:28:46
    de pruebas en en la directiva de
  • 00:28:49
    productos defectuosos y en la propuesta
  • 00:28:52
    de de directiva de responsabilidad civil
  • 00:28:55
    e Inteligencia artificial consiste en
  • 00:28:58
    que el juez nacional que tenga que
  • 00:29:00
    conocer de una demanda por daños
  • 00:29:04
    causados
  • 00:29:05
    eh En nuestro caso por sistemas de
  • 00:29:07
    Inteligencia artificial vale En el caso
  • 00:29:09
    de la directiva de productos por
  • 00:29:10
    cualquier producto pueda
  • 00:29:14
    ordenar al demandante Perdón al
  • 00:29:17
    demandado la exhibición de pruebas para
  • 00:29:21
    que el demandante y a petición del
  • 00:29:24
    demandante pueda fundamentar su demanda
  • 00:29:27
    pero ojo con una diferencia en la
  • 00:29:29
    propuesta de responsabilidad por
  • 00:29:31
    productos defectuosos también el
  • 00:29:33
    demandado puede pedirle al juez que
  • 00:29:37
    ordene al demandante que presente las
  • 00:29:41
    pruebas que tenga a efectos del rechazar
  • 00:29:45
    esa demanda que se le interpone cosa que
  • 00:29:48
    no existe en la propuesta de
  • 00:29:49
    responsabilidad civil por Inteligencia
  • 00:29:51
    artificial en esta en cambio esa
  • 00:29:55
    orden del juez de ición de pruebas se
  • 00:29:59
    puede hacer a petición del demandante o
  • 00:30:01
    del potencial demandante de ese
  • 00:30:03
    perjudicado que está pensando si va a
  • 00:30:06
    demandar y que pide esa exhibición de
  • 00:30:09
    pruebas para acabar de decidir si le
  • 00:30:11
    conviene o no le conviene si tiene
  • 00:30:12
    posibilidades de éxito o si no las
  • 00:30:14
    tendrá en ambos casos hay unos
  • 00:30:16
    requisitos en los que no me voy a a
  • 00:30:19
    detener y también se establece
  • 00:30:22
    expresamente en ambos textos que esa
  • 00:30:25
    orden de exhibición de pruebas tiene
  • 00:30:27
    tiene que ser necesaria tiene que
  • 00:30:29
    ajustarse a los principios de necesidad
  • 00:30:31
    y de proporcionalidad y en esta
  • 00:30:34
    proporcionalidad se tiene en cuenta la
  • 00:30:36
    protección de intereses de terceros por
  • 00:30:38
    ejemplo los deberes de confidencialidad
  • 00:30:41
    o por ejemplo los secretos comerciales
  • 00:30:44
    en todo caso es importante en ambos
  • 00:30:47
    textos que el incumplimiento de la
  • 00:30:51
    persona requerida para la exhibición de
  • 00:30:54
    pruebas en en cualquiera de estos dos
  • 00:30:57
    casos
  • 00:30:58
    da lugar a una presunción jurist anum en
  • 00:31:02
    el caso de eh la responsabilidad por
  • 00:31:05
    productos defectuosos si el demandado
  • 00:31:08
    incumple con ese deber de con esa orden
  • 00:31:12
    de exhibición de pruebas se presumirá
  • 00:31:15
    jurist tantum la existencia de un
  • 00:31:17
    defecto en el producto y en el caso de
  • 00:31:20
    los pleitos de responsabilidad civil e
  • 00:31:23
    por culpa regulados en la en la
  • 00:31:25
    propuesta de responsabilidad civil e
  • 00:31:27
    inteligencia artificial ese
  • 00:31:29
    incumplimiento de ese deber de exhibir
  • 00:31:31
    las pruebas se traduce en una presunción
  • 00:31:35
    jurist anum de culpa del
  • 00:31:37
    demandado bien eh Por lo que se refiere
  • 00:31:42
    a las
  • 00:31:43
    presunciones también voy a ir muy rápido
  • 00:31:46
    bueno Andrés cuando me quieras cortar
  • 00:31:48
    porque me cortas
  • 00:31:50
    porque bueno no me queda mucho voy a
  • 00:31:53
    intentar resumir todo lo que pueda
  • 00:31:56
    presunciones en la propuesta bueno
  • 00:31:59
    perdón en la directiva claro voy tan
  • 00:32:02
    rápido que me atropello en la directiva
  • 00:32:04
    ya de responsabilidad por daños causados
  • 00:32:07
    por productos defectuosos hay por una
  • 00:32:10
    parte presunciones de existencia de
  • 00:32:12
    defecto y por otra parte presunciones de
  • 00:32:16
    existencia de nexo causal entre el
  • 00:32:19
    producto defectuoso y el daño causado
  • 00:32:22
    por lo que se refiere a las presunciones
  • 00:32:24
    de defecto simplemente voy a detenerme
  • 00:32:28
    en una que es la segunda y es el
  • 00:32:31
    incumplimiento de los requisitos
  • 00:32:32
    obligatorios de seguridad de productos
  • 00:32:35
    dirigidos precisamente a evitar el daño
  • 00:32:38
    producido Por qué Me detengo en esta
  • 00:32:41
    porque
  • 00:32:42
    en a la hora de determinar el carácter
  • 00:32:45
    defectuoso de un producto eh el artículo
  • 00:32:48
    7 de la directiva entre esas
  • 00:32:51
    circunstancias que hemos dicho que hay
  • 00:32:53
    que tener en cuenta eh incluye
  • 00:32:56
    precisamente el cumplimiento de los
  • 00:32:59
    deberes de las obligaciones de seguridad
  • 00:33:02
    dirigidas a evitar los daños
  • 00:33:05
    Entonces si incumplir los deberes de
  • 00:33:09
    seguridad dirigidos a evitar el daño
  • 00:33:11
    hacen que el producto sea defectuoso
  • 00:33:14
    para qué quiero yo una
  • 00:33:17
    presunción jurist anum de defecto si ese
  • 00:33:21
    incumplimiento me debería llevar
  • 00:33:23
    directamente a que el producto es
  • 00:33:25
    defectuoso ahí lo dejo en cuanto a las
  • 00:33:28
    presunciones de nexo causal entre el
  • 00:33:30
    defecto y el daño
  • 00:33:33
    eh Son dos la
  • 00:33:37
    primera se basa en dos indicios primero
  • 00:33:41
    que se pruebe Que el producto es
  • 00:33:44
    defectuoso y aquí me pregunto hay que
  • 00:33:46
    probarlo cumplidamente o me sirven esas
  • 00:33:49
    presunciones de existencia de defecto
  • 00:33:53
    que estaba Estableciendo la directiva
  • 00:33:56
    Esto no se aclara pero es que además de
  • 00:33:58
    probar que el producto es defectuoso hay
  • 00:34:00
    que probar que el daño que se ha causado
  • 00:34:02
    es de los que habitualmente causa ese
  • 00:34:05
    tipo de defecto lo que dice la directiva
  • 00:34:07
    es de un tipo normalmente compatible con
  • 00:34:10
    dicho defecto y la segunda presunción es
  • 00:34:13
    que el juez compruebe la existencia de
  • 00:34:16
    dificultades excesivas para demostrar el
  • 00:34:18
    nexo lo cual en la práctica como ya se
  • 00:34:22
    ha visto por las por las ponencias
  • 00:34:25
    anteriores va a ser muy muy difícil
  • 00:34:27
    Claro si hablamos de sistemas opacos que
  • 00:34:29
    no son explicables que no son
  • 00:34:31
    interpretables Pues cómo vamos a
  • 00:34:34
    demostrar que las dificultades son
  • 00:34:35
    excesivas Pues claro que son excesivas
  • 00:34:37
    prácticamente en todos los casos pero es
  • 00:34:40
    que además de que el juez llegue a esa
  • 00:34:44
    comprobación o a esa conclusión de que
  • 00:34:46
    hay dificultades excesivas para
  • 00:34:48
    demostrar el nexo causal se exige
  • 00:34:51
    también que el actor pruebe la
  • 00:34:53
    probabilidad del nexo con lo cual como
  • 00:34:57
    decía antes las exigencias son tan
  • 00:35:00
    estrictas tan elevadas que estas
  • 00:35:03
    presunciones algunas de ellas sí son eh
  • 00:35:06
    Muy útiles y facilitarán mucho la prueba
  • 00:35:08
    pero hay otras que bueno cabe
  • 00:35:11
    dudarlo en cuanto a la propuesta de
  • 00:35:13
    directiva de responsabilidad civil e
  • 00:35:15
    Inteligencia artificial solo contiene
  • 00:35:17
    una presunción que es de causalidad
  • 00:35:20
    entre la conducta culpable de una
  • 00:35:23
    persona a la que queremos hacer
  • 00:35:25
    responder y el daño
  • 00:35:28
    aquí me gustaría eh Antes de hablar de
  • 00:35:31
    la presunción
  • 00:35:32
    em que reparemos en que desde el momento
  • 00:35:37
    en que se ha descartado al menos hoy por
  • 00:35:40
    hoy atribuir personalidad jurídica a los
  • 00:35:43
    sistemas de Inteligencia artificial
  • 00:35:46
    obviamente necesitamos un humano Que
  • 00:35:48
    responda Esta presunción es una
  • 00:35:51
    presunción de causalidad jurídica no una
  • 00:35:54
    presunción de causalidad en sentido
  • 00:35:56
    físico porque esas las presunciones de
  • 00:36:00
    causalidad en sentido físico entre la
  • 00:36:02
    actuación del sistema de Inteligencia
  • 00:36:04
    artificial y el daño y la conducta del
  • 00:36:06
    humano y el daño son indicios que hay
  • 00:36:09
    que demostrar para llegar a esta
  • 00:36:11
    presunción de causalidad para poder
  • 00:36:13
    presumir que hay una causalidad entre la
  • 00:36:17
    conducta de una persona y el daño
  • 00:36:19
    eh una empresa agrícola que contrata a
  • 00:36:24
    una empresa de de drones por ejemplo
  • 00:36:26
    para sus campos y los drones en vez de
  • 00:36:30
    fumigar esos Campos Pues fumigan los
  • 00:36:32
    campos del vecino del campo vecino y
  • 00:36:35
    ocasionan unos daños y lo que queremos
  • 00:36:37
    es que la empresa de drones responda
  • 00:36:40
    porque el operario que ha introducido
  • 00:36:42
    las coordenadas en en ese dron pues lo
  • 00:36:46
    ha introducido mal no lo no lo ha hecho
  • 00:36:50
    bien sí
  • 00:36:52
    necesitamos el nexo primero entre la
  • 00:36:55
    actuación del dron y el daño Y en
  • 00:36:58
    segundo lugar que es el que queremos es
  • 00:37:01
    al que lleva esta presunción entre esa
  • 00:37:04
    conducta del operario de la empresa de
  • 00:37:07
    drones y ese daño bien
  • 00:37:12
    em la propuesta de directiva opta por
  • 00:37:16
    esta presunción refutable en vez de por
  • 00:37:19
    la inversión de la carga de la prueba
  • 00:37:21
    porque considera que de esta manera se
  • 00:37:23
    alcanza ese equilibrio entre los
  • 00:37:26
    intereses afectados pero al ser una
  • 00:37:29
    directiva de mínimos expresamente dice
  • 00:37:32
    que los estados miembros podrán
  • 00:37:35
    establecer mantener o establecer otras
  • 00:37:37
    normas más beneficiosas y que esas
  • 00:37:40
    normas nacionales más beneficiosas se
  • 00:37:42
    van a aplicar de forma preferente lo
  • 00:37:44
    cual por ejemplo en España significa que
  • 00:37:48
    en materia de eh daños causados
  • 00:37:51
    discriminación por sesgos que presenta
  • 00:37:54
    un sistema inteligente se va a con
  • 00:37:58
    preferencia la ley del año 2022 de
  • 00:38:02
    igualdad de trato que establece Aquí sí
  • 00:38:06
    una inversión de la carga de la prueba
  • 00:38:08
  • 00:38:10
    bien no voy a entrar en los
  • 00:38:13
    indicios que hacen falta para la
  • 00:38:16
    presunción porque vamos muy mal de
  • 00:38:18
    tiempo lo único que voy a decir es que
  • 00:38:20
    hace falta indicios cumulativos y que no
  • 00:38:24
    basta con la existencia de esos indicios
  • 00:38:27
    cumulativos sino que además aunque se
  • 00:38:31
    den la propuesta de directiva limita
  • 00:38:36
    según el tipo de sistema si es de alto
  • 00:38:38
    riesgo o no lo es y según quien sea el
  • 00:38:41
    demandado si es un proveedor si es un
  • 00:38:45
    usuario profesional Bueno ahora
  • 00:38:47
    responsable del despliegue eh si nos
  • 00:38:50
    adaptamos a la a la terminología del
  • 00:38:52
    reglamento ia o si es un usuario no
  • 00:38:55
    profesional H cualquiera cualquier
  • 00:38:58
    usuario que usa el sistema de
  • 00:39:00
    Inteligencia artificial para un uso
  • 00:39:02
    privado o doméstico los se añaden como
  • 00:39:06
    requisitos adicionales además de la
  • 00:39:08
    prueba de estos indicios para que la
  • 00:39:10
    presunción opere bien todo esto me lo
  • 00:39:13
    salto me lo salto y voy ya a las
  • 00:39:16
    conclusiones
  • 00:39:17
    e
  • 00:39:19
    primera creo que es razonable que la
  • 00:39:22
    Inteligencia artificial no se utilice
  • 00:39:25
    como un nuevo criterio de imputación
  • 00:39:28
    para establecer un nuevo régimen
  • 00:39:31
    completo de eh responsabilidad civil es
  • 00:39:34
    decir por el hecho de que el daño
  • 00:39:35
    proceda de un sistema de Inteligencia
  • 00:39:37
    artificial eso no puede ser un nuevo
  • 00:39:39
    criterio de imputación por tanto me
  • 00:39:41
    parece razonable mantener La regulación
  • 00:39:45
    que tenemos pero adaptándola adaptando
  • 00:39:48
    como ya se ha hecho la normativa de eh
  • 00:39:51
    de responsabilidad por daños causados
  • 00:39:53
    por productos defectuosos y también la
  • 00:39:57
    de responsabilidad civil por
  • 00:40:00
    culpa ahora bien Creo que en
  • 00:40:03
    determinados supuestos puesto que como
  • 00:40:05
    ya se ha dicho también dentro de lo que
  • 00:40:07
    es la Inteligencia artificial hay
  • 00:40:09
    sistemas de todo tipo y de que presentan
  • 00:40:14
    todo tipo de riesgos Quizá en algunos
  • 00:40:17
    casos sí sea preciso Establecer un
  • 00:40:20
    régimen específico o sea café para todos
  • 00:40:23
    cuando estamos hablando de cosas tan
  • 00:40:26
    dispares como productos sanitarios
  • 00:40:28
    vehículos automóviles chatbots drones
  • 00:40:32
    pues probablemente no sea lo lo más
  • 00:40:36
    razonable una cuarta conclusión es que
  • 00:40:40
    en materia de responsabilidad civil por
  • 00:40:42
    daños causados por productos defectuosos
  • 00:40:44
    sí tenemos armonización pero en
  • 00:40:48
    responsabilidad civil por Inteligencia
  • 00:40:50
    artificial al margen de esos productos
  • 00:40:53
    defectuosos no la tenemos como como
  • 00:40:56
    hemos visto una quinta conclusión la
  • 00:40:59
    nueva directiva de responsabilidad civil
  • 00:41:01
    por productos defectuosos es loable y
  • 00:41:04
    significa un importante Avance en cuanto
  • 00:41:08
    a cubrir esos daños causados por
  • 00:41:10
    sistemas de Inteligencia artificial pero
  • 00:41:12
    tiene algunas carencias como la
  • 00:41:14
    limitación de los sujetos beneficiados o
  • 00:41:17
    por ejemplo los daños que se pueden
  • 00:41:19
    resarcir al Amparo de esta directiva Y
  • 00:41:23
    por último en la propuesta de directiva
  • 00:41:26
    de responsabilidad civil e Inteligencia
  • 00:41:28
    artificial ese propósito de aliviar la
  • 00:41:32
    carga de la prueba de la víctima Pues en
  • 00:41:35
    realidad no acaba de conseguirse por las
  • 00:41:39
    exigencias tan altas como decía a la
  • 00:41:42
    hora de poder establecer esas
  • 00:41:45
    presunciones que además son presunciones
  • 00:41:47
    yuris tantum y no presunciones yuris de
  • 00:41:51
    yure Bueno y con esto
  • 00:41:53
    eh acabo Muchas gracias por por vuestra
  • 00:41:57
    atención y bueno no sé si podrá haber
  • 00:42:00
    preguntas Pero bueno
  • 00:42:03
    [Aplausos]
  • 00:42:08
    gracias muchas gracias Raquel por tu
  • 00:42:11
    exposición yo no sé Javier si da tiempo
  • 00:42:14
    [Música]
  • 00:42:16
    a una o ninguna una o ninguna lo digo
  • 00:42:21
    por el tiempo si alguien quiere hacer
  • 00:42:23
    alguna
  • 00:42:25
    pregunta si pasamos sí era solamente
  • 00:42:30
    saber si sabía lo del caso de mozara y
  • 00:42:32
    Canadá que es muy famoso en este tema de
  • 00:42:35
    la responsabilidad civil si tenía
  • 00:42:37
    conocimiento de eso no del caso mozar
  • 00:42:40
    que iba este eso es muy interesante
  • 00:42:41
    porque a mí a parecer el problema que
  • 00:42:44
    tiene aparte la directiva del 2022 que
  • 00:42:46
    atascada A mi parecer no por una
  • 00:42:48
    cuestión de competitividad porque para
  • 00:42:49
    que haya competitividad tiene que haber
  • 00:42:51
    empresas con competitividad en Europa y
  • 00:42:53
    no las hay eh groso modo en el tema de
  • 00:42:56
    la por lo menos sino que creo que es
  • 00:42:58
    porque Europa ha cedido a ciertos lobis
  • 00:43:00
    máxime porque si no no tendría una no
  • 00:43:02
    tendría responsabilidad no objetiva
  • 00:43:05
    precisamente en en lo que no sea alto
  • 00:43:07
    riesgo
  • 00:43:08
    pero el tema de la guía generativa en
  • 00:43:11
    estas en esta directiva de productos
  • 00:43:12
    defectuosos cómo se cómo se subsume y
  • 00:43:15
    hay otra cosa que me que que también
  • 00:43:18
    saber su reflexión que es el tema de
  • 00:43:19
    creo que ha entendido que las personas
  • 00:43:21
    físicas es decir nosotros o las personas
  • 00:43:24
    de la unión como dice el reglamento sí
  • 00:43:26
    que se sí que se subsume en este
  • 00:43:28
    reglamento del 85 no O sea que no en la
  • 00:43:31
    directiva quieres decir Pero te refieres
  • 00:43:34
    a las personas perjudicadas el supuesto
  • 00:43:37
    es una persona que cona generativa
  • 00:43:39
    genera un output que genera daños Ajá se
  • 00:43:42
    subsumir dentro Ah vale hablas entonces
  • 00:43:45
    no de la víctima estás hablando del
  • 00:43:47
    causante del daño vale En el caso de la
  • 00:43:50
    directiva del 85 por ejemplo
  • 00:43:54
    chpt se discute si en el ámbito de
  • 00:43:58
    aplicación vale con la nueva directiva
  • 00:44:00
    claramente Sí pero con la directiva
  • 00:44:03
    vigente que todavía se aplicará por lo
  • 00:44:05
    menos en los dos años siguientes y más
  • 00:44:08
    porque la la directiva del 85 a pesar de
  • 00:44:13
    esos 24 meses se seguirá aplicando a los
  • 00:44:16
    productos puestos en circulación antes
  • 00:44:18
    de de la entrada en vigor de la nueva se
  • 00:44:21
    discute si no hay un soporte físico que
  • 00:44:24
    se pueda considerar bien mueble o sea
  • 00:44:26
    eso hoy por hoy no está resuelto no está
  • 00:44:29
    resuelto
  • 00:44:31
    desde mi punto de vista creo que sí
  • 00:44:34
    están incluidos que hay razones
  • 00:44:36
    suficientes como para entender que los
  • 00:44:38
    sistemas de Inteligencia artificial
  • 00:44:40
    aunque no sean robots Eh sí están en el
  • 00:44:44
    ámbito de aplicación de la directiva del
  • 00:44:45
    85 pero no está nada claro y lo último
  • 00:44:48
    cree que se va a recuperar alguna vez el
  • 00:44:50
    debate de la persona
  • 00:44:52
    electrónica creo que sí creo que sí pero
  • 00:44:56
    que no estamos todavía en en ese punto
  • 00:44:59
    Pero esto avanza A pasos tan agigantados
  • 00:45:03
    que bueno si le hemos otorgado
  • 00:45:06
    personalidad jurídica a la Laguna del
  • 00:45:07
    mar menor
  • 00:45:09
    yo vamos no dudo de que en algún momento
  • 00:45:12
    se retomará pero hoy por hoy desde luego
  • 00:45:14
    está totalmente descartado Muchas
  • 00:45:17
    gracias de nada bien pues muchísimas
  • 00:45:19
    gracias y damos
  • 00:45:25
    bueno y
Tags
  • responsabilidade civil
  • intelixencia artificial
  • direito europeo
  • produtos defectuosos
  • regulación xurídica
  • directiva europea
  • nexo causal
  • autonomía da IA
  • complexidade técnica
  • proba de danos