00:00:03
à Bruxelles on se félicite de cette loi
00:00:05
historique après 35 heur de négociation
00:00:07
jour et nuit c'est le soulagement qui
00:00:09
domine l'Europe s'est positionné en
00:00:11
pionnière reconnaissant l'importance de
00:00:13
son rôle pour veiller aux normes
00:00:15
globales nous abordons ensemble ce
00:00:17
nouveau
00:00:19
[Musique]
00:00:23
voyage l'Union européenne pour une fois
00:00:26
n'est pas à la train au contraire elle
00:00:28
est pionnière elle est la toute première
00:00:31
à élaborer un ensemble de dispositions
00:00:34
juridiques avec son ai Act censé donner
00:00:38
un cadre à l'intelligence artificielle
00:00:41
vous avez participé à ce travail
00:00:43
qu'est-ce que vous en
00:00:45
pensez cette loi n'est pas parfaite mais
00:00:49
une loi imparfaite c'est toujours mieux
00:00:51
que pas de loi du
00:00:53
tout et de ce point de vue nous devrions
00:00:56
être extrêmement fiers d'avoir réussi à
00:00:58
trouver un accord
00:01:02
jusqu'à la fin il n'était pas du tout
00:01:04
certain que l'accord soit adopté les
00:01:06
débats ont été
00:01:07
intenses donc oui ce n'est pas parfait
00:01:10
mais c'est toujours beaucoup mieux que
00:01:12
rien du
00:01:13
tout et puis comme je l'ai dit rien n
00:01:16
gravé dans le marbre d'autant que la loi
00:01:18
prévoit aussi des mécanismes pour
00:01:19
améliorer les choses dans les années à
00:01:22
venir les possibilités
00:01:28
d'améliorationiste
00:01:31
européne parlons à présent des
00:01:33
différentes catégories de
00:01:35
risque qu'est-ce qui sera un interdit
00:01:38
absolu la meilleure façon de se
00:01:41
représenter la loi sur l'IA est
00:01:43
d'imaginer une pyramide au sommet il y a
00:01:46
les domaines où le législateur a estimé
00:01:48
qu'il serait irresponsable pour la
00:01:50
société qu'on a recours à l'intelligence
00:01:52
artificielle comme par exemple la
00:01:55
notification de crédit social qui existe
00:01:57
notamment en
00:01:58
Chine les gens sont scannés et notés sur
00:02:01
leur civisme et cela alimente leur
00:02:03
profil ce genre de chose est
00:02:06
interdit tout comme les application de
00:02:08
reconnaissance des émotions par exemple
00:02:09
dans les écoles ou au travail on a dit
00:02:12
non à ces
00:02:13
usages mais cela concerne peu
00:02:15
d'application en
00:02:21
définitive les enjeux importants
00:02:23
concernent le domaine des technologies à
00:02:24
haut risque soit la partie centrale de
00:02:27
la
00:02:28
pyramide le législateur a défini h
00:02:31
groupes de risques li a peut-être
00:02:34
utilisé dans ces domaines mais à
00:02:35
condition de respecter certaines
00:02:38
règles sont concernés notamment
00:02:40
l'immigration l'administration de la
00:02:42
justice pénale le travail l'octroie de
00:02:45
crédit autant de domaines où les enjeux
00:02:47
sont vraiment
00:02:51
importants et puis il y a le domaine à
00:02:53
bas risque qui concerne peu
00:02:54
d'applications en réalité et où la loi
00:02:56
est moins
00:02:57
contraignante en d'autres termes
00:03:00
plus une application présente des
00:03:02
risques plus elle est encadrée par des
00:03:05
règles c'est un véritable exploit malgré
00:03:09
la complexité de la question les États
00:03:12
de l'Union européenne ont réussi à
00:03:13
trouver en peu de temps un
00:03:15
accord mais certaines voies critiques ne
00:03:18
vont-elles pas s'élever pour dire que
00:03:19
toute forme d'intervention limitera la
00:03:22
créativité ou
00:03:28
l'inventivité ce serait mal comprendre
00:03:31
l'objectif de la loi sur l'intelligence
00:03:35
artificielle la loi n'est pas là pour
00:03:37
stopper les innovations ou brider la
00:03:39
créativité
00:03:42
elle est là pour protéger les droits
00:03:44
fondamentaux et les droits de l'homme
00:03:46
alors oui il y aura peut-être moins
00:03:48
d'innovations qui sont dégradantes et
00:03:49
qui violent les droits de l'homme mais
00:03:52
dans ce cas ce n'est vraiment pas une
00:03:53
perte pour notre
00:03:55
société ce que nous souhaitons ce sont
00:03:58
des innovations qui les dros fondaux et
00:04:01
les droits de l'homme des innovations
00:04:03
qui protèent ces
00:04:07
droits néanmoins vous avez mis certaines
00:04:10
critiques par exemple sur le fait que ce
00:04:12
sont les développeurs qui procèdent eux
00:04:15
même à l'évaluation de la conformité de
00:04:17
leur application c'est-à-dire que c'est
00:04:20
une
00:04:20
autoévaluation du respect de la
00:04:22
législation européenne c'est discutable
00:04:26
non je dois avouer que c'est ce qui me
00:04:29
dérange le plus
00:04:30
c'est aussi à mon avis le grand point
00:04:32
faible de cette loi à savoir que les
00:04:34
développeurs certifient eux-mêmes leurs
00:04:36
produit s'ils estiment qu'il est
00:04:38
conforme à la
00:04:42
loi en clair celui qui est censé être
00:04:45
réglementé peut décider lui-même si son
00:04:47
travail est conforme à la
00:04:49
réglementation ce n'est pas banal comme
00:04:54
situation et ce qui complique encore les
00:04:56
choses c'est que l'industrie est très
00:04:58
impliqué dans de la
00:05:01
lo la manière dont les normes ont été
00:05:03
rédigées a été très fortement influencée
00:05:06
par les entreprises concernées cela
00:05:08
signifie que non seulement je certifie
00:05:10
moi-même si je suis conforme à la loi
00:05:12
mais aussi que j'ai écrit les règles qui
00:05:14
définissent la
00:05:15
certification c'est un
00:05:19
problème bien sûr il y a des entreprises
00:05:21
qui peuvent se comporter de manière
00:05:22
éthique si les enjeux sont importants
00:05:25
mais le risque que le droit soit en
00:05:26
frein existe et il faut le prendre au
00:05:28
sérieux
00:05:30
donc en somme le risque existe que des
00:05:34
développeurs de logiciel peu soucieux de
00:05:36
la déontologie pourrait contourner les
00:05:39
règles et les interdictions que vous
00:05:41
venez de citer avec un impact redoutable
00:05:44
sur les droits des personnes concernées
00:05:46
vous avez déjà cité des exemples
00:05:48
d'application qui pourrai poser problème
00:05:50
qu'est-ce qui est prévu en terme de
00:05:51
responsabilité peut-on faire appel de
00:05:53
ces
00:05:54
décisions
00:05:56
oui et c'est l'une de nos plus grandes
00:05:58
victoires concernant cette
00:06:01
loi j'en suis très
00:06:06
heureuse il y a deux
00:06:08
choses nous avons des droits de recours
00:06:11
ce qui signifie que si je pense que l' a
00:06:13
fait preuve de discrimination à mon
00:06:15
égard m'a causé un quelconque préjudice
00:06:17
je peux déposer plainte ça c'est le
00:06:19
premier droit dont je
00:06:21
dispose le deuxème droit c'est celui de
00:06:24
demander des
00:06:25
explications si un algorithme a pris une
00:06:27
décision qui me concerne qu' s'ag d'une
00:06:29
décision de justice d'un prêt de
00:06:32
l'admission ou non dans une université
00:06:34
d'un licenciement ou que sais-je encore
00:06:36
je peux demander pourquoi l'algorithme a
00:06:39
pris cette décision j'ai droit à des
00:06:41
explications c'est une énorme victoire
00:06:44
parce que les premiers projet de l'a Act
00:06:46
ne contenait aucun droit
00:06:49
individuel le Parlement européen a voulu
00:06:51
l'intégrer en juin dernier et
00:06:53
heureusement cela a été
00:06:55
voté c'est l'une de nos plus grandes
00:06:58
victoires
00:07:01
Bruxelles fait le
00:07:02
pari que si l'Europe est la première à
00:07:05
définir des règles strictes
00:07:08
alors toute la teque américaine va lui
00:07:10
emboîter le pas Microsoft et les autres
00:07:13
acteurs n aucun intérêt à perdre leurs
00:07:16
clients européens ni non plus de devoir
00:07:18
s'adapter à plusieurs normes parallèles
00:07:20
C coûterait beaucoup trop
00:07:22
cher donc l'espoir de Bruxelles est que
00:07:26
le premier à fixer les règles du jeu les
00:07:28
plus strictes définira les règles au
00:07:29
niveau international qu'
00:07:33
pensez-ous je crois qu'il est toujours
00:07:35
bon d'être le premier dans tous les
00:07:38
domaines le droit ne fait pas
00:07:42
exception et puis ce n'est pas une si
00:07:44
mauvaise chose pour les autres pays
00:07:46
parce qu'ils vont pouvoir s'inspirer de
00:07:47
notre
00:07:49
loi pas besoin de réinventer la roue nos
00:07:52
connaissances peuvent servir aux
00:07:56
autres d'ailleurs on l'a déjà constaté
00:07:58
par le passé appelle l'effet
00:08:01
Bruxelles lorsquune nouvelle loi est
00:08:03
adoptée en Europe il est très probable
00:08:05
que les paystiers s'y
00:08:07
conformment c'est lié au fait que
00:08:09
l'Europe est le plus grand marché du
00:08:10
monde et le pouvoir n'est pas là où on
00:08:12
produit mais là où on
00:08:15
achète et ceux qui veulent vendre
00:08:18
respecteront les règles de notre
00:08:21
marché on entend souvent dire le
00:08:23
contraire mais en réalité il faut être
00:08:26
bien conscient que c'est le consommateur
00:08:28
qui a le pouvoir
00:08:29
bewsein dass die Macht liegt beim
00:08:31
konsumenten und nicht beimentwiler genau
00:08:34
also noch einmal Gan kurz die letzte
00:08:36
Frage an sie selon vous il serait donc
00:08:38
possible de ne pas laisser la main au
00:08:40
géant de la tech mais d'en conserver la
00:08:43
maîtrise c'estàdire que l'Union
00:08:44
européenne lancer un processus un cadre
00:08:47
dans lequel l'humain est au centre des
00:08:51
préoccupations et à partir de ce
00:08:53
moment-l c'est un outil
00:08:58
exceptionnel
00:09:00
je pense que tout le monde peut y
00:09:02
gagner en réalité l'industrie n'a aucun
00:09:05
intérêt à développer des produits qui
00:09:07
n'aide pas le consommateur qui ne lui
00:09:09
procure pas de plaisir et qui n'améliore
00:09:11
pas sa
00:09:13
vie il est très important de réfléchir à
00:09:16
la manière d'intégrer au mieux les
00:09:17
souhaits des
00:09:18
consommateurs si on laisse les géants de
00:09:20
la tech géreria tout seul on aura non
00:09:23
seulement des produits de moins bonne
00:09:24
qualité mais également des produits qui
00:09:26
restreignent et violent les droits de
00:09:28
l'homme
00:09:30
les innovations doivent enrichir et
00:09:31
améliorer la vie de la plupart des gens
00:09:33
et non pas la faire
00:09:35
empirer et cela n'est possible qu'en
00:09:37
impliquant le plus grand nombre possible
00:09:39
de personnes en réfléchissant à ce que
00:09:41
la science peut apporter à ce que la
00:09:43
société civile peut apporter à ce que le
00:09:46
législateur et d'autres groupes
00:09:47
d'intérêt peuvent apporter en matière de
00:09:49
technologie d'innovation et de
00:09:51
réglementation afin que l'intelligence
00:09:53
artificielle profite au plus grand
00:09:57
nombre merci à vous
00:10:01
[Musique]