A.I. Act | Interview avec Sandra Wachter | ARTE Info Plus

00:10:08
https://www.youtube.com/watch?v=5Xl9I1Mdm4c

الملخص

TLDRBruxelles har antagit en viktig lag om artificiell intelligens efter intensiva förhandlingar. Lagen syftar till att reglera AI:s användning, särskilt inom områden med hög risk, och skydda mänskliga rättigheter. Den förbjuder oetiska tillämpningar som social kreditvärdering och känslomässig igenkänning. Det finns också mekanismer för att ge individer rätt att överklaga beslut tagna av AI-system. Trots att lagen ses som ofullständig, framhävs den som ett viktigt steg mot att sätta standarder för AI på global nivå, där EU strävar efter att vara en ledande aktör.

الوجبات الجاهزة

  • 🎉 Historisk lag antagen efter 35 timmar av förhandlingar
  • 📊 Olika kategorier av AI-risker definierade
  • 🚫 Förbud mot oetiska tillämpningar som kreditvärdering
  • 🛡️ Skyddar mänskliga rättigheter och konsumenter
  • 🔍 Rättigheter att överklaga AI-beslut
  • 🌍 EU som ledande aktör i global AI-reglering
  • 🔧 Lagen föreskriver mekanismer för framtida förbättringar
  • 🤝 Samarbete mellan lagstiftare, företag och civilsamhälle
  • 💡 Lagen syftar att befrämja positiva innovationer
  • 📈 Effekten av Bryssel påverkar global lagstiftning

الجدول الزمني

  • 00:00:00 - 00:05:00

    Bruxelles firar en historisk lag efter 35 timmars förhandlingar, där beslutet som gör EU till en pionjär inom reglering av artificiell intelligens (AI) har uppnåtts. Även om lagen inte är perfekt, innebär den en viktig framsteg för att sätta rättsliga ramar för AI-användning, med fokus på att skydda grundläggande rättigheter. Diskussioner har varit intensiva, men det har instiftats regler för att hantera de olika riskkategorier som AI medför. Hög risk teknologi, som påverkar områden som rättsväsendet och kreditgivning, är särskilt reglerade.

  • 00:05:00 - 00:10:08

    Lagen kategoriserar riskerna inom AI i en pyramidstruktur med absolut förbjudna användningar högst upp, som sociala kreditpoäng och känslomässig igenkänning. Den centrala delen behandlar högriskteknologier med strikta regler, medan låg riskteknologier har färre begränsningar. Kritiska röster har höjts angående självcertifiering av AI-produkter, vilket kan ge utrymme för oetiska handlingar. En viktig seger i lagen är rätten till överklagande och efterfrågan på förklaringar av algoritmers beslut, vilket syftar till att stärka individens skydd mot diskriminering och orättvisor.

الخريطة الذهنية

فيديو أسئلة وأجوبة

  • Vad handlar den nya lagen om?

    Den nya lagen reglerar användningen av artificiell intelligens och syftar till att skydda mänskliga rättigheter.

  • Vilka typer av risker omfattar lagen?

    Lagen skiljer mellan hög-, medel- och lågriskapplikationer av AI.

  • Vilka användningar av AI är förbjudna?

    Användning av social kreditvärdering och känslomässig igenkänning i skolor och arbetsplatser är förbjudna.

  • Hur påverkar denna lag innovation?

    Lagen är avsedd att skydda rättigheter och mänskliga värden utan att helt hindra innovation.

  • Vad är kritiken mot lagen?

    Kritiker pekar på risken att utvecklare själva utvärderar lagligheten av sina produkter.

  • Finns det rättigheter för individer under denna lag?

    Ja, individer har rätt att överklaga beslut och begära förklaringar till algoritmisk bedömning.

  • Hur påverkar detta Europas roll globalt?

    EU siktar på att sätta en internationell standard för AI-reglering.

  • Vad innebär "effekten av Bryssel"?

    Det refererar till hur europeiska lagar ofta påverkar lagstiftningen i andra länder.

عرض المزيد من ملخصات الفيديو

احصل على وصول فوري إلى ملخصات فيديو YouTube المجانية المدعومة بالذكاء الاصطناعي!
الترجمات
fr
التمرير التلقائي:
  • 00:00:03
    à Bruxelles on se félicite de cette loi
  • 00:00:05
    historique après 35 heur de négociation
  • 00:00:07
    jour et nuit c'est le soulagement qui
  • 00:00:09
    domine l'Europe s'est positionné en
  • 00:00:11
    pionnière reconnaissant l'importance de
  • 00:00:13
    son rôle pour veiller aux normes
  • 00:00:15
    globales nous abordons ensemble ce
  • 00:00:17
    nouveau
  • 00:00:19
    [Musique]
  • 00:00:23
    voyage l'Union européenne pour une fois
  • 00:00:26
    n'est pas à la train au contraire elle
  • 00:00:28
    est pionnière elle est la toute première
  • 00:00:31
    à élaborer un ensemble de dispositions
  • 00:00:34
    juridiques avec son ai Act censé donner
  • 00:00:38
    un cadre à l'intelligence artificielle
  • 00:00:41
    vous avez participé à ce travail
  • 00:00:43
    qu'est-ce que vous en
  • 00:00:45
    pensez cette loi n'est pas parfaite mais
  • 00:00:49
    une loi imparfaite c'est toujours mieux
  • 00:00:51
    que pas de loi du
  • 00:00:53
    tout et de ce point de vue nous devrions
  • 00:00:56
    être extrêmement fiers d'avoir réussi à
  • 00:00:58
    trouver un accord
  • 00:01:02
    jusqu'à la fin il n'était pas du tout
  • 00:01:04
    certain que l'accord soit adopté les
  • 00:01:06
    débats ont été
  • 00:01:07
    intenses donc oui ce n'est pas parfait
  • 00:01:10
    mais c'est toujours beaucoup mieux que
  • 00:01:12
    rien du
  • 00:01:13
    tout et puis comme je l'ai dit rien n
  • 00:01:16
    gravé dans le marbre d'autant que la loi
  • 00:01:18
    prévoit aussi des mécanismes pour
  • 00:01:19
    améliorer les choses dans les années à
  • 00:01:22
    venir les possibilités
  • 00:01:28
    d'améliorationiste
  • 00:01:31
    européne parlons à présent des
  • 00:01:33
    différentes catégories de
  • 00:01:35
    risque qu'est-ce qui sera un interdit
  • 00:01:38
    absolu la meilleure façon de se
  • 00:01:41
    représenter la loi sur l'IA est
  • 00:01:43
    d'imaginer une pyramide au sommet il y a
  • 00:01:46
    les domaines où le législateur a estimé
  • 00:01:48
    qu'il serait irresponsable pour la
  • 00:01:50
    société qu'on a recours à l'intelligence
  • 00:01:52
    artificielle comme par exemple la
  • 00:01:55
    notification de crédit social qui existe
  • 00:01:57
    notamment en
  • 00:01:58
    Chine les gens sont scannés et notés sur
  • 00:02:01
    leur civisme et cela alimente leur
  • 00:02:03
    profil ce genre de chose est
  • 00:02:06
    interdit tout comme les application de
  • 00:02:08
    reconnaissance des émotions par exemple
  • 00:02:09
    dans les écoles ou au travail on a dit
  • 00:02:12
    non à ces
  • 00:02:13
    usages mais cela concerne peu
  • 00:02:15
    d'application en
  • 00:02:21
    définitive les enjeux importants
  • 00:02:23
    concernent le domaine des technologies à
  • 00:02:24
    haut risque soit la partie centrale de
  • 00:02:27
    la
  • 00:02:28
    pyramide le législateur a défini h
  • 00:02:31
    groupes de risques li a peut-être
  • 00:02:34
    utilisé dans ces domaines mais à
  • 00:02:35
    condition de respecter certaines
  • 00:02:38
    règles sont concernés notamment
  • 00:02:40
    l'immigration l'administration de la
  • 00:02:42
    justice pénale le travail l'octroie de
  • 00:02:45
    crédit autant de domaines où les enjeux
  • 00:02:47
    sont vraiment
  • 00:02:51
    importants et puis il y a le domaine à
  • 00:02:53
    bas risque qui concerne peu
  • 00:02:54
    d'applications en réalité et où la loi
  • 00:02:56
    est moins
  • 00:02:57
    contraignante en d'autres termes
  • 00:03:00
    plus une application présente des
  • 00:03:02
    risques plus elle est encadrée par des
  • 00:03:05
    règles c'est un véritable exploit malgré
  • 00:03:09
    la complexité de la question les États
  • 00:03:12
    de l'Union européenne ont réussi à
  • 00:03:13
    trouver en peu de temps un
  • 00:03:15
    accord mais certaines voies critiques ne
  • 00:03:18
    vont-elles pas s'élever pour dire que
  • 00:03:19
    toute forme d'intervention limitera la
  • 00:03:22
    créativité ou
  • 00:03:28
    l'inventivité ce serait mal comprendre
  • 00:03:31
    l'objectif de la loi sur l'intelligence
  • 00:03:35
    artificielle la loi n'est pas là pour
  • 00:03:37
    stopper les innovations ou brider la
  • 00:03:39
    créativité
  • 00:03:42
    elle est là pour protéger les droits
  • 00:03:44
    fondamentaux et les droits de l'homme
  • 00:03:46
    alors oui il y aura peut-être moins
  • 00:03:48
    d'innovations qui sont dégradantes et
  • 00:03:49
    qui violent les droits de l'homme mais
  • 00:03:52
    dans ce cas ce n'est vraiment pas une
  • 00:03:53
    perte pour notre
  • 00:03:55
    société ce que nous souhaitons ce sont
  • 00:03:58
    des innovations qui les dros fondaux et
  • 00:04:01
    les droits de l'homme des innovations
  • 00:04:03
    qui protèent ces
  • 00:04:07
    droits néanmoins vous avez mis certaines
  • 00:04:10
    critiques par exemple sur le fait que ce
  • 00:04:12
    sont les développeurs qui procèdent eux
  • 00:04:15
    même à l'évaluation de la conformité de
  • 00:04:17
    leur application c'est-à-dire que c'est
  • 00:04:20
    une
  • 00:04:20
    autoévaluation du respect de la
  • 00:04:22
    législation européenne c'est discutable
  • 00:04:26
    non je dois avouer que c'est ce qui me
  • 00:04:29
    dérange le plus
  • 00:04:30
    c'est aussi à mon avis le grand point
  • 00:04:32
    faible de cette loi à savoir que les
  • 00:04:34
    développeurs certifient eux-mêmes leurs
  • 00:04:36
    produit s'ils estiment qu'il est
  • 00:04:38
    conforme à la
  • 00:04:42
    loi en clair celui qui est censé être
  • 00:04:45
    réglementé peut décider lui-même si son
  • 00:04:47
    travail est conforme à la
  • 00:04:49
    réglementation ce n'est pas banal comme
  • 00:04:54
    situation et ce qui complique encore les
  • 00:04:56
    choses c'est que l'industrie est très
  • 00:04:58
    impliqué dans de la
  • 00:05:01
    lo la manière dont les normes ont été
  • 00:05:03
    rédigées a été très fortement influencée
  • 00:05:06
    par les entreprises concernées cela
  • 00:05:08
    signifie que non seulement je certifie
  • 00:05:10
    moi-même si je suis conforme à la loi
  • 00:05:12
    mais aussi que j'ai écrit les règles qui
  • 00:05:14
    définissent la
  • 00:05:15
    certification c'est un
  • 00:05:19
    problème bien sûr il y a des entreprises
  • 00:05:21
    qui peuvent se comporter de manière
  • 00:05:22
    éthique si les enjeux sont importants
  • 00:05:25
    mais le risque que le droit soit en
  • 00:05:26
    frein existe et il faut le prendre au
  • 00:05:28
    sérieux
  • 00:05:30
    donc en somme le risque existe que des
  • 00:05:34
    développeurs de logiciel peu soucieux de
  • 00:05:36
    la déontologie pourrait contourner les
  • 00:05:39
    règles et les interdictions que vous
  • 00:05:41
    venez de citer avec un impact redoutable
  • 00:05:44
    sur les droits des personnes concernées
  • 00:05:46
    vous avez déjà cité des exemples
  • 00:05:48
    d'application qui pourrai poser problème
  • 00:05:50
    qu'est-ce qui est prévu en terme de
  • 00:05:51
    responsabilité peut-on faire appel de
  • 00:05:53
    ces
  • 00:05:54
    décisions
  • 00:05:56
    oui et c'est l'une de nos plus grandes
  • 00:05:58
    victoires concernant cette
  • 00:06:01
    loi j'en suis très
  • 00:06:06
    heureuse il y a deux
  • 00:06:08
    choses nous avons des droits de recours
  • 00:06:11
    ce qui signifie que si je pense que l' a
  • 00:06:13
    fait preuve de discrimination à mon
  • 00:06:15
    égard m'a causé un quelconque préjudice
  • 00:06:17
    je peux déposer plainte ça c'est le
  • 00:06:19
    premier droit dont je
  • 00:06:21
    dispose le deuxème droit c'est celui de
  • 00:06:24
    demander des
  • 00:06:25
    explications si un algorithme a pris une
  • 00:06:27
    décision qui me concerne qu' s'ag d'une
  • 00:06:29
    décision de justice d'un prêt de
  • 00:06:32
    l'admission ou non dans une université
  • 00:06:34
    d'un licenciement ou que sais-je encore
  • 00:06:36
    je peux demander pourquoi l'algorithme a
  • 00:06:39
    pris cette décision j'ai droit à des
  • 00:06:41
    explications c'est une énorme victoire
  • 00:06:44
    parce que les premiers projet de l'a Act
  • 00:06:46
    ne contenait aucun droit
  • 00:06:49
    individuel le Parlement européen a voulu
  • 00:06:51
    l'intégrer en juin dernier et
  • 00:06:53
    heureusement cela a été
  • 00:06:55
    voté c'est l'une de nos plus grandes
  • 00:06:58
    victoires
  • 00:07:01
    Bruxelles fait le
  • 00:07:02
    pari que si l'Europe est la première à
  • 00:07:05
    définir des règles strictes
  • 00:07:08
    alors toute la teque américaine va lui
  • 00:07:10
    emboîter le pas Microsoft et les autres
  • 00:07:13
    acteurs n aucun intérêt à perdre leurs
  • 00:07:16
    clients européens ni non plus de devoir
  • 00:07:18
    s'adapter à plusieurs normes parallèles
  • 00:07:20
    C coûterait beaucoup trop
  • 00:07:22
    cher donc l'espoir de Bruxelles est que
  • 00:07:26
    le premier à fixer les règles du jeu les
  • 00:07:28
    plus strictes définira les règles au
  • 00:07:29
    niveau international qu'
  • 00:07:33
    pensez-ous je crois qu'il est toujours
  • 00:07:35
    bon d'être le premier dans tous les
  • 00:07:38
    domaines le droit ne fait pas
  • 00:07:42
    exception et puis ce n'est pas une si
  • 00:07:44
    mauvaise chose pour les autres pays
  • 00:07:46
    parce qu'ils vont pouvoir s'inspirer de
  • 00:07:47
    notre
  • 00:07:49
    loi pas besoin de réinventer la roue nos
  • 00:07:52
    connaissances peuvent servir aux
  • 00:07:56
    autres d'ailleurs on l'a déjà constaté
  • 00:07:58
    par le passé appelle l'effet
  • 00:08:01
    Bruxelles lorsquune nouvelle loi est
  • 00:08:03
    adoptée en Europe il est très probable
  • 00:08:05
    que les paystiers s'y
  • 00:08:07
    conformment c'est lié au fait que
  • 00:08:09
    l'Europe est le plus grand marché du
  • 00:08:10
    monde et le pouvoir n'est pas là où on
  • 00:08:12
    produit mais là où on
  • 00:08:15
    achète et ceux qui veulent vendre
  • 00:08:18
    respecteront les règles de notre
  • 00:08:21
    marché on entend souvent dire le
  • 00:08:23
    contraire mais en réalité il faut être
  • 00:08:26
    bien conscient que c'est le consommateur
  • 00:08:28
    qui a le pouvoir
  • 00:08:29
    bewsein dass die Macht liegt beim
  • 00:08:31
    konsumenten und nicht beimentwiler genau
  • 00:08:34
    also noch einmal Gan kurz die letzte
  • 00:08:36
    Frage an sie selon vous il serait donc
  • 00:08:38
    possible de ne pas laisser la main au
  • 00:08:40
    géant de la tech mais d'en conserver la
  • 00:08:43
    maîtrise c'estàdire que l'Union
  • 00:08:44
    européenne lancer un processus un cadre
  • 00:08:47
    dans lequel l'humain est au centre des
  • 00:08:51
    préoccupations et à partir de ce
  • 00:08:53
    moment-l c'est un outil
  • 00:08:58
    exceptionnel
  • 00:09:00
    je pense que tout le monde peut y
  • 00:09:02
    gagner en réalité l'industrie n'a aucun
  • 00:09:05
    intérêt à développer des produits qui
  • 00:09:07
    n'aide pas le consommateur qui ne lui
  • 00:09:09
    procure pas de plaisir et qui n'améliore
  • 00:09:11
    pas sa
  • 00:09:13
    vie il est très important de réfléchir à
  • 00:09:16
    la manière d'intégrer au mieux les
  • 00:09:17
    souhaits des
  • 00:09:18
    consommateurs si on laisse les géants de
  • 00:09:20
    la tech géreria tout seul on aura non
  • 00:09:23
    seulement des produits de moins bonne
  • 00:09:24
    qualité mais également des produits qui
  • 00:09:26
    restreignent et violent les droits de
  • 00:09:28
    l'homme
  • 00:09:30
    les innovations doivent enrichir et
  • 00:09:31
    améliorer la vie de la plupart des gens
  • 00:09:33
    et non pas la faire
  • 00:09:35
    empirer et cela n'est possible qu'en
  • 00:09:37
    impliquant le plus grand nombre possible
  • 00:09:39
    de personnes en réfléchissant à ce que
  • 00:09:41
    la science peut apporter à ce que la
  • 00:09:43
    société civile peut apporter à ce que le
  • 00:09:46
    législateur et d'autres groupes
  • 00:09:47
    d'intérêt peuvent apporter en matière de
  • 00:09:49
    technologie d'innovation et de
  • 00:09:51
    réglementation afin que l'intelligence
  • 00:09:53
    artificielle profite au plus grand
  • 00:09:57
    nombre merci à vous
  • 00:10:01
    [Musique]
الوسوم
  • artificiell intelligens
  • EU
  • lagstiftning
  • mänskliga rättigheter
  • innovation
  • riskbedömning
  • social kreditvärdering
  • konsumenträttigheter
  • teknologireglering
  • etiska frågor