00:00:00
salut aujourd'hui on va parler d'un
00:00:01
moteur de recherche qui est ultra
00:00:03
glauque et qui en dit beaucoup sur le
00:00:04
futur d'internet
00:00:05
on a tous déjà utilisé la recherche la
00:00:08
fonction recherche par images de google
00:00:09
ok en fait la recherche par images de
00:00:10
google ce qu'elle fait c'est qu'elle va
00:00:12
allez utiliser les caractéristiques de
00:00:13
votre image les couleurs la composition
00:00:15
pour rechercher des images similaires
00:00:17
c'est littéralement du truc c'est
00:00:18
recherche d'image similaire donc ce soit
00:00:20
un peu plus clair je l'étais récupérer
00:00:21
une photo d'amy les rattache à skis avec
00:00:23
une robe rouge comme on pouvait la
00:00:24
trouver sur n'importe quel événement à
00:00:26
droite à gauche voilà bref c'est une
00:00:28
photo de femme en robe rouge et c'est
00:00:29
une photo d'une femme connue en plus en
00:00:31
robe rouge
00:00:31
donc on va aller sur google images
00:00:32
cliquer ici on fait un petit une petite
00:00:35
recherche par images on va imploser
00:00:36
notre photo des matins c'est en train de
00:00:38
charger et on regarde visual similar
00:00:40
images il est là on se rend compte que m
00:00:41
rata apparaît sur la première mais
00:00:43
n'apparaît plus nulle part ailleurs a
00:00:45
que des photos de femmes en robe rouge
00:00:47
point barre mais vraiment de point barre
00:00:48
et ça c'est ce que fait la recherche par
00:00:50
images de google c'est qu'en fait elle
00:00:51
pas allée chercher des images similaires
00:00:52
n'est pas forcément la même personne
00:00:54
là j'ai un atelier j'ai plein de femmes
00:00:56
inconnues g mila kunis ici-même rata
00:00:58
apparaît dans la première recherche et
00:01:00
c'est tout le reste c'est uniquement des
00:01:01
images similaires bon ça c'est pas très
00:01:03
compliqué c'est ce que fait google
00:01:04
c'est ce qu'a toujours fait google c'est
00:01:06
ce que fera encore je pense on n'entend
00:01:07
qu'eux mais mais mais mais mais si eux
00:01:09
en sont entre guillemets que là il y en
00:01:10
a qui se sont pas privés d'aller
00:01:11
beaucoup beaucoup plus appris
00:01:13
l'existence d'un moteur de recherche
00:01:14
russe qui s'appelle et yandex alors on
00:01:16
va aller sur yandex yandex - comme c'est
00:01:19
un moteur de recherche russe que
00:01:20
personne ici n'utilisent en france
00:01:22
moi j'ai jamais vu personne s'en servir
00:01:23
c'est encore moins répandue que bing ok
00:01:25
en fait ce que fait yandex est ce qu a
00:01:27
autorisé yandex est ce que ne fait pas
00:01:28
google c'est pour ça que je voulais
00:01:29
absolument vous montrer c'est que via
00:01:31
leur recherche par image ce qui est
00:01:32
d'ailleurs la première chose qui
00:01:32
apparaît quand tu arrives sur le moteur
00:01:33
de recherche ont autorisé la
00:01:35
reconnaissance faciale et celle là ça
00:01:36
devient sacrément bon ok donc pour vous
00:01:38
montrer comment ça fonctionne on va
00:01:39
reprendre notre photo dm rate à nouveau
00:01:40
ce est en train de charger et l'a de
00:01:42
suite la première chose que fait yandex
00:01:44
sur la droite c'est non identifiés dont
00:01:46
l'ascendant cyrillique mais exactement
00:01:47
la personne qui se trouve sur la photo
00:01:48
on comprend vite fait américaine actress
00:01:50
modèle je parle pas russe du tout cas je
00:01:52
suppose
00:01:52
sandro le suspense que ça veut dire et
00:01:54
me rattache à skis
00:01:55
traduction bingo il a reconnu en une
00:01:59
seule photo avec des lunettes même pas
00:02:00
en grosses qualités en plus qui c'était
00:02:02
ça c'est le début ça c'est vraiment le
00:02:03
début on va essayer avec ma tête
00:02:04
et pour être sûr sûr sûr sûr que n'est
00:02:07
pas des métadonnées qui se baladent dans
00:02:09
les coteaux quoi on va faire des
00:02:10
screenshots de photos de moi ok nager
00:02:12
été récupéré une photo de moi qui devait
00:02:14
servir normalement à faire la miniature
00:02:16
de la dernière vidéo qui est sorti mais
00:02:17
pour être vraiment vraiment vraiment sûr
00:02:19
on va faire un screenshot de cette image
00:02:22
on va supprimer l'original cette capture
00:02:24
d'écran va la renommée photo on va la
00:02:27
passer dans photoshop et on va appeler
00:02:29
sa carte
00:02:30
là on a repassé repasser est repassé
00:02:33
notre image
00:02:34
il n'y a aucune chance qu'il a moins de
00:02:35
métadonnées qui a dit quoi que c'était
00:02:36
sûrement qu'ils menacent de choquer
00:02:37
c'est parti on va tester avec matin
00:02:39
carton point jpeg
00:02:40
super non plus trop où on va voir ce que
00:02:43
hyundai va me trouvais alors déjà il
00:02:47
trouve direct la vidéo sur battlefield
00:02:49
il trouve direct des gens qui parlent de
00:02:51
moi avec ma tête en miniature la vidéo
00:02:53
sur dix au nord de la vidéo avec une
00:02:55
exclue si la vidéo sur shogun la vidéo
00:02:57
sur l'argent la vidéo sur le soldat
00:02:59
inconnu avec bruit au tchad il trouve ma
00:03:01
tête partout trop aussi raphaël des
00:03:02
cracks mais ça c'est la coupe de jeu je
00:03:04
pense
00:03:04
ayem et daniel radcliffe aussi ok daniel
00:03:07
radcliffe vient plus une fois daniel
00:03:09
radcliffe qui vient trois fois robert
00:03:11
pattinson
00:03:11
moi je penche trop tôt
00:03:14
on va pas se mentir en bref juste avec
00:03:17
une photo parmi des millions et des
00:03:18
milliards de photos sur internet en 5
00:03:20
secondes il m'a retrouvé et en 5
00:03:22
secondes l'a vu le nombre de fois que je
00:03:24
reviens et c'est sur le moteur de
00:03:25
recherche il n'y a pas de doute vous
00:03:26
savez tout de suite que c'est moi et
00:03:28
j'aimerais qu'on s'amuse avec des photos
00:03:29
de youtube heures doit commencer avec un
00:03:32
créatif par exemple ça très bien cette
00:03:34
photo sur la villa c'est qu'on va faire
00:03:36
un screenshot postale si la qualité sera
00:03:38
dégueulasse maintenant la capture
00:03:39
d'écran on va voir s'ils retrouveront
00:03:40
créatif
00:03:40
allez c'est parti [ __ ] mais direct par
00:03:47
le grand jd le grand jd on va prendre sa
00:03:50
tête
00:03:51
ici on va même pas l'apprendre entier
00:03:52
encore une fois c'est des résolutions
00:03:53
dégueulasse sur 94 73
00:03:55
bingo julien il est là il est là il est
00:03:58
là alala 1000 photos sur trois casinos
00:04:01
et partout dans des journaux suisses
00:04:04
affaire thomas gautier prendre sa tête
00:04:06
là dessus et là et on est sur 50 pixels
00:04:09
c'est ridicule c'est catastrophique a
00:04:15
essayé hugo décrypte c'est qu'on
00:04:19
apprenne de cette dernière vidéo
00:04:20
on va juste là il est vachement en avant
00:04:22
ça s'est désolé désolé les gars vraiment
00:04:24
je vais pas faire ça on va voir si van
00:04:26
hool en trouver même si c'est pas trop
00:04:27
d'où tu allais ben voilà hélas ce qui
00:04:29
est vraiment banon est ce que vous
00:04:30
réalisez peut-être pas c'est que les
00:04:31
photos que je lui donne c'est des
00:04:32
screenshots
00:04:33
donc il ya littéralement aucune
00:04:34
métadonnées dans la photo dans l'image
00:04:35
en elle-même dans le fichier image qui
00:04:37
pourrait laisser entendre qui est la
00:04:38
personne dessus c'est juste ma des
00:04:40
pixels colorés et encore plus
00:04:41
impressionnant c'est que là on parle
00:04:42
d'un moteur de recherche russe qui
00:04:44
creuse est pas non plus outre à
00:04:46
perfectionner dans le référencement des
00:04:47
sites d'europe de l'ouest où américains
00:04:49
et pourtant il ne prend que quelques
00:04:51
secondes sur des millions et des
00:04:54
milliards de photos qui se baladent sur
00:04:55
internet a retrouvé la personne dont je
00:04:56
viens de donner l'image d'un vrai on
00:04:57
peut en faire on peut en faire comme ça
00:04:58
on peut on peut ne jamais s'arrêter
00:05:00
franchement mettre une fille pour être
00:05:01
un peu équitable là dedans on va mettre
00:05:02
la pote m'a m marine vraiment désolé je
00:05:05
me sers de cette vidéo qui parle d'un
00:05:06
sujet badens pour fish aller les potes
00:05:08
en tapant des screenshots et il m'a
00:05:10
retrouvé imo a mis ce top 10 la galère
00:05:13
un peu plus à partir du moment où elle
00:05:14
est maquillée mais il la retrouve quand
00:05:15
même
00:05:15
il la retrouve quand même alors
00:05:17
avec un matin c'était plus ou moins
00:05:19
facile pour lui de la retrouver parce
00:05:20
que comme c'est une personnalité
00:05:21
publique
00:05:21
il a des centaines et des centaines de
00:05:24
milliers d'informations à disposition
00:05:25
qui met carrément le nom à côté etc et
00:05:27
pour le reste des photos il va
00:05:28
essentiellement trouver les visages qui
00:05:30
trouve le plus ressemblant
00:05:30
là par exemple quand je me recherche il
00:05:31
va pas mettre simon plus à chaque côté m
00:05:33
photo ila aux collines à visage pas en
00:05:35
fait voilà je pense que vous avez
00:05:36
compris l'idée c'est ça la vraie
00:05:38
différence entre les index et du google
00:05:40
mattel parmi vous qui vont se dire ouais
00:05:41
mais c'est russes les russes et
00:05:43
l'informatique vas-y on sait que ces
00:05:44
bretons on est tous machin ouest en fin
00:05:46
de nuit d'aix les gains signant d'aix
00:05:48
arrive à le faire arrive à faire de la
00:05:49
reconnaissance faciale aussi facilement
00:05:51
en quelques secondes
00:05:52
t'inquiète c'est que google il n'y a pas
00:05:55
de souci pour les outils comme celui
00:05:56
dont se serviront des textes pour
00:05:57
retracer les visages et les gens se
00:05:58
basent sur des algorithmes qui tourne
00:06:00
via dei acquis fonctionnement diplôme
00:06:01
c'est à dire qu'elle apprenne
00:06:02
d'elle-même et s'améliore au fur et à
00:06:03
mesure qu'elle fonctionne
00:06:04
c'est ça qui est pas d'enfant c'est
00:06:05
qu'on se retrouve avec yandex
00:06:06
littéralement comme étant un shazam pour
00:06:08
visage shazam de personnes et la
00:06:10
comparaison est injuste il ya une époque
00:06:11
où tu aller carrément sur les forums
00:06:13
pour retrouver des musiques en mettant
00:06:14
way est ce que quelqu'un connaît la
00:06:15
musique qui fait ta ta ta ta ta ta ta ta
00:06:17
et puis après est apparue chazal
00:06:19
faciliter la vie à tout le monde eh bien
00:06:20
on va peut-être un futur proche où les
00:06:22
gens prendront des photos de vous en
00:06:23
secret dans le transport en commun
00:06:24
devenir complètement dégueulasse et
00:06:25
irons vous chercher par la suite via ce
00:06:27
genre d'outil sur internet aujourd'hui
00:06:28
faut bien comprendre que le lien
00:06:29
facebook
00:06:30
instagram apple est fait ici dit
00:06:32
énormément de services en ligne vous
00:06:34
acceptez pour une simplicité dosage de
00:06:36
sacrifier une énorme partie de vie
00:06:37
privée c'est qu'on est en train de voir
00:06:38
avec qui on d'aix s'est littéralement la
00:06:41
mort de l'anonymat il ya même plus fort
00:06:43
que yandex mais je peux pas m'en servir
00:06:45
c'est fine clown ce point et russe c'est
00:06:47
carrément un site qui va allez vous
00:06:48
retrouver les réseaux sociaux des gens
00:06:50
que vous lui a donné
00:06:52
il ya un article dessus rebelles
00:06:55
hincapie et de haricots leurs gars que
00:06:57
j'ai découvert notamment nos bureaux de
00:06:58
vote ce qui parlent quasiment du même
00:07:00
sujet dont je suis en train de vous
00:07:00
parler en gros via fine clown il arrive
00:07:03
à retrouver via des vidéos de hooligans
00:07:06
russe sur un match avec la pologne où on
00:07:08
veut en pologne un truc comme ça
00:07:09
il n'arrive carrément en faisant des
00:07:10
screenshots de leur tête et en ayant un
00:07:11
code avec un numéro de téléphone russes
00:07:13
les raisons de ces mecs les réseaux de
00:07:14
tous ces mecs que la qualité soit bonne
00:07:16
pas là dans l'article on peut voir que
00:07:17
via des photos de militaires de gars
00:07:19
perdu au fin fond de l'europe de l'est
00:07:20
il retrouve ultra facilement leurs
00:07:22
réseaux sociaux le briquet bic et c'est
00:07:23
l'équivalent de facebook nord aussi et
00:07:24
c'est pour ça que ce qu on pas
00:07:25
d'ailleurs trop me servir de fans claude
00:07:26
même pas du tout parce que je n'ai pas
00:07:27
accès a indiqué en tout cas je fais
00:07:28
inscrit dessus et au delà de ça j'ai pas
00:07:30
numéro russe va faire un test
00:07:31
d'apprendre à billabong pro pour vous
00:07:32
montrer voilà donc là vous le voyez ça
00:07:34
raccroche de suite il faut bien
00:07:36
comprendre que toutes les photos que
00:07:37
vous avez en public sur internet servent
00:07:39
à nourrir ce genre de sites
00:07:40
vraiment c'est pas pour rien qu'on dit
00:07:42
aussi ne mettait pas de photos de vos
00:07:44
enfants très jeunes sur les réseaux
00:07:45
sociaux fait on se rend compte de
00:07:47
réellement ce genre de service oui ils
00:07:49
vont se perfectionner plus beau être
00:07:50
capable d'ouvrir connaître jeunes vieux
00:07:52
sur les photos de bronze et peut-être
00:07:54
après des accidents peut-être points
00:07:55
portent être masqué déjà que la qualité
00:07:57
est dégueulasse et il arrive à retrouver
00:07:59
c'est un truc de ouf avec ce genre
00:08:00
d'outils plus le temps avance plus on se
00:08:02
rapproche des scénarios de science
00:08:03
fiction tels qu'on les imaginait il ya
00:08:04
encore dix ans impossible
00:08:05
typiquement aujourd'hui un braqueur 2.0
00:08:08
entre guillemets ça serait un mec qui se
00:08:09
poste avec une voiture devant une grande
00:08:11
banque attendent que quelqu'un qui
00:08:12
allait remplacer en sorte mont blanc une
00:08:14
voiture de luxe traîne un bal de photos
00:08:16
ni même si la qualité est dégueulasse
00:08:18
m'a bien vu on s'en fout allez ensuite
00:08:19
sur internet retrouver son identité
00:08:20
classe mêmes photos qu'il a prises
00:08:22
auparavant
00:08:22
à partir de ce moment-là alliant d'aix
00:08:24
et les autres réseaux ont fait leur
00:08:25
travail il retrouve toutes les
00:08:26
informations dont il a besoin
00:08:27
il est capable d'établir un profil d'une
00:08:29
faillite de la personne et puis comme il
00:08:32
y avait la vidéo de barack obama là que
00:08:34
je me retrouve
00:08:35
c'était jordan king qui avait utilisé
00:08:36
unis appareils crédit bail de barack
00:08:39
obama où il faisait dire à peu près
00:08:40
n'importe quoi en conférence de presse
00:08:41
mais concrètement avant se met à dire
00:08:42
n'importe quoi sans quasiment impossible
00:08:45
de voir un diptyque ça va devenir de
00:08:47
plus en plus simple à faire il suffit de
00:08:48
voir des outils comme niang texte on se
00:08:50
rend compte que de plus en plus avec le
00:08:51
temps ça ne l'a pas touché que des
00:08:52
personnalités publiques mais
00:08:53
potentiellement tout le monde puisque ça
00:08:54
va être ultra simple on peut retrouver
00:08:56
les fichiers et les photos de n'importe
00:08:57
qui vient une simple recherche je crois
00:08:59
vraiment que j'en avais déjà parlé mais
00:09:00
parmi les personnes qui pâtissent le
00:09:01
plus des 10 pays qu'à l'heure actuelle
00:09:02
aujourd'hui c'est pas forcément les
00:09:03
politiques c'est surtout les actrices
00:09:05
hollywoodiennes qui se retrouvent avec
00:09:06
leurs visages incrusté sur des films
00:09:07
pornographiques pour assouvir les
00:09:09
plaisirs de certains parce qu'il ya des
00:09:10
personnes qui arrivent très simplement
00:09:11
avec toutes les données qu'elles
00:09:12
collectent sur ses stars là à mettre
00:09:14
leur visage à peu près n'importe où
00:09:15
encore une fois c'est pas parce que vous
00:09:16
ne voulez pas avoir de vie publique en
00:09:17
ligne de ce genre d'outil ne vont pas
00:09:19
forcément en avoir une et là on parle
00:09:21
que l'image mais la voix aussi et de
00:09:23
plus en plus faciles à récupérer et à
00:09:25
truquer via désirs la vessie cas là
00:09:27
qu'il faudrait je vous retrouve voilà
00:09:28
c'est ça en 2019 il y avait une
00:09:30
entreprise britannique qui avait
00:09:31
apparemment un siège social en allemagne
00:09:33
la maison mère en allemagne c'est ça qui
00:09:34
a réussi à se faire dérober 220000 euros
00:09:37
via une voix d'yves fake en fait ce qui
00:09:39
s'est passé ce qui est de placer de la
00:09:40
maison mère en allemagne qui avez votre
00:09:42
entreprise botanique en lui disant de
00:09:43
faire un virement de 220000 euros à une
00:09:45
société basée à anglet et pour imiter la
00:09:47
voix du patron c'est pas compliqué ils
00:09:49
ont utilisé une voix dit fake
00:09:51
complètement passée et les deux cent
00:09:53
vingt mille euros sont partis en gueule
00:09:55
il ya un concept qui a un nom anglais
00:09:57
qui s'appelle l'obscurité
00:09:58
j'ai pas trouvé d'équivalent de
00:09:59
traduction française littéralement
00:10:01
l'équivalent en français ça serait
00:10:02
l'obscurité
00:10:02
c'est l'idée selon laquelle
00:10:03
l'information est protégée à partir du
00:10:05
moment où elle est difficile d'accès ou
00:10:06
alors difficilement interprétables et en
00:10:08
découle de sa la possibilité de pouvoir
00:10:10
masquer les informations qu'on souhaite
00:10:11
à différentes personnes en bref pouvoir
00:10:13
gérer la quantité d'informations qu'on
00:10:15
donne aux gens ça nous permet
00:10:16
d'équilibrer nos relations avec nos
00:10:17
conjoints conjointe avec nos amis ni
00:10:19
avec notre famille ou avec des inconnus
00:10:20
dans la rue
00:10:21
on ne se comporte pas de la même manière
00:10:22
avec eux on leur donne pas du tout les
00:10:24
mêmes niveaux d'accès à qui nous sommes
00:10:25
le problème c'est que la reconnaissance
00:10:27
faciale tels que je suis en train de
00:10:28
vous la montrer la est telle qu'elle est
00:10:29
super facilement accessibles sur
00:10:30
internet c'est probablement la plus
00:10:31
grosse menace à ce concept d'obscurité
00:10:33
je me suis dit que ça serait intéressant
00:10:34
que je vous en parle comme ça dans une
00:10:36
vidéo qui n'était pas écrite et je pense
00:10:37
que ça peut être vraiment intéressant
00:10:38
aussi que j'en parle avec michael qui
00:10:40
pour le coup est beaucoup plus calés sur
00:10:41
le côté pointu et techniques du trou
00:10:43
coucou voyant la vidéo je me suis dit
00:10:44
que j'allais te parler d'un truc qui
00:10:45
était encore plus mal blowing que yandex
00:10:48
qui s'appelle clearview à une start-up
00:10:50
new-yorkaise
00:10:51
à la différence de l'index fait un truc
00:10:52
plutôt axé europe de l'est
00:10:54
ça c'est un truc qui vient donc de new
00:10:55
york et qui a beaucoup donné donc sur
00:10:58
trois du monde c'est des mecs qui ont
00:10:59
utilisé comme base de données google
00:11:01
facebook et bien sûr les résultats sont
00:11:03
complètement impressionnant il ça
00:11:05
reconnaît n'importe qui beaucoup mieux
00:11:06
d'ailleurs que yonex même si yonex un
00:11:08
peu la version grand public
00:11:09
parfois tu arrive à choper un nom c'est
00:11:11
stylé tu vois mais là c'est vraiment une
00:11:12
pointe n'importe qui ça fonctionne pas
00:11:14
pour l'instant qu'il a view c'est un
00:11:15
truc est fermé c'est à dire que toi moi
00:11:16
on peut pas aller dessus comme yandex
00:11:17
est encore mieux parce que ça marche il
00:11:19
faut mieux il ya le new york times qui a
00:11:20
fait une enquête sur vos d'ailleurs
00:11:21
parce que vraiment il frôle très souvent
00:11:23
les limites de ce qui est correct
00:11:25
matthew à la base c'est un truc qui
00:11:26
était uniquement fait pour les forces de
00:11:28
l'ordre c'est un peu leur pays chase qui
00:11:29
a conquis et déjà actuellement utilisés
00:11:31
sais pas d'où on n'est pas dans la
00:11:32
science fiction dans un truc qui va
00:11:33
arriver dans longtemps tu vois ça arrive
00:11:35
en ce moment et cette start up est
00:11:37
vraiment très très préoccupante parce
00:11:38
que leurs premiers clients donc c'est la
00:11:40
police de lindau les agents raconte
00:11:41
qu'il n'y a pas photo avant il avait que
00:11:43
des logiciels de reconnaissance faciale
00:11:44
qui était hyper limitée qui permettait
00:11:46
de faire des recoupements avec des bancs
00:11:47
d'image avec seulement des dizaines de
00:11:49
millions de clichés alors il dit
00:11:50
seulement tu vas c'est pour dire à quel
00:11:51
point clearview ali c'est n'importe quoi
00:11:53
ça devait être parfaitement nettes alors
00:11:55
que maintenant
00:11:56
mon truc à moitié caché lisez ça
00:11:59
marchera ce qui est fou en fait c'est
00:12:00
que c'est même pas un google qui aurait
00:12:02
énormément de données sur google ou
00:12:04
facebook
00:12:05
ils ont déjà des monumentales sur des
00:12:07
milliards de gens c'est même pas un
00:12:08
acteur qui est assez donné privilégier
00:12:09
la c1 une start up qui utilise des
00:12:11
données publiques c'est juste ils ont
00:12:13
des robots exactement qui vont l on
00:12:15
appelle ça seras pépère qui vont aller
00:12:16
sur les pages et qui vont aller
00:12:17
récupérer des informations de façon
00:12:18
automatisée les photos les informations
00:12:20
étaient déjà tous apprécié automatisé
00:12:21
comme un moteur de recherche le faire et
00:12:23
s'est octroyé qu'ils ont pas de
00:12:25
d'informations personnelles sur les gens
00:12:27
c'est que des infos public et ça marche
00:12:29
très beau début désisté que juste pour
00:12:31
les forces de l'ordre mais donc buzzfeed
00:12:32
qui a fait aussi une enquête dessus
00:12:34
s'est rendu compte qu'il y avait des
00:12:35
centaines d'entreprises qui avait déjà
00:12:36
eu accès à ce truc là qu'ils aient eu
00:12:37
des centaines de milliers de requêtes
00:12:38
qui ont déjà été faits il ya déjà
00:12:39
walmart best buy la bank of america la
00:12:43
nba des chaînes de casinos de las vegas
00:12:44
qui ont utilisé ça et que c'est aussi ça
00:12:47
a été aussi ouvert et quelques
00:12:48
investisseurs etc
00:12:49
comme d'habitude
00:12:50
des bus ont dit c'est que pour un cas
00:12:52
très précis et puis après ça grignote ça
00:12:54
grignote et à la fin donc ça donne ça
00:12:55
déjà permis riches milliardaires de
00:12:57
trouver l'identité d'un inconnu qui
00:12:58
dînait avec sa fille policier a pu
00:13:00
identifier un prédateur sexuel
00:13:02
absent des bases de données officielles
00:13:03
mais dont le reflet du visage
00:13:05
apparaissait dans un miroir sur une
00:13:06
photo prise par quelqu'un dans une salle
00:13:08
de gym
00:13:08
c'est à quoi ça peut penser ça me fait
00:13:10
penser c'est au vieux épisodes de ncis
00:13:11
mifo ways to be sont coincés pour une
00:13:13
photo de caméras de surveillance en
00:13:15
ayant envie pixels parmi ces cinq mais
00:13:17
en vrai c'est sa mère de magic rigole
00:13:21
johnny c'était sûr que ça que ça allait
00:13:25
arriver
00:13:25
c'était sûr que ça arrive et pourquoi
00:13:26
pas ce que tu as deux choses qui se
00:13:27
passent en même temps tu as d'à côté
00:13:28
tout le monde publie des photos de soi
00:13:29
partout première chose et deuxièmement
00:13:31
on a dès aujourd'hui les bases de
00:13:32
données qui sont monumentales deux
00:13:34
milliards de personnes de une photo avec
00:13:36
un nom à côté donc avec ces deux
00:13:37
composantes là c'était évident que ça
00:13:39
allait arriver un jour obligations roald
00:13:40
dahl retrouve le nom de la personne et
00:13:42
son poste des détails sur sa vie et
00:13:44
c'est parce que ça marche automatique
00:13:46
alors pour le côté positif du ai'a et
00:13:48
forcément on te vend toujours le truc en
00:13:50
mode c'est au final ça va permettre de
00:13:52
résoudre des problèmes par exemple ça a
00:13:53
permis de retrouver des brodeurs des
00:13:55
voleurs à l'étalagé des pédophiles ça a
00:13:57
même permis de retrouver le nom d'un
00:13:59
cadavre non identifié
00:14:00
avant on avait des soldats inconnus
00:14:02
plein de morts du sida mais non on les
00:14:04
scans avec une appli l'espagne une appli
00:14:06
à les contacter la famille ça c'est pour
00:14:09
le côté politique mais ça c'est comme
00:14:10
pour toutes les technologies on va ya
00:14:11
toujours une raison derrière qui va être
00:14:13
présentée comme un truc positif
00:14:15
la réunion c'est que qu'il ya des
00:14:16
dérives qui s'observe instantanément en
00:14:18
fait il ne peut pas ne pas y en avoir
00:14:20
et le truc le plus flippant c'est là où
00:14:22
je voulais en venir c'est que dans le
00:14:23
code de l'apli ils ont trouvé quelque
00:14:25
chose c'est que ils ont prévu de pouvoir
00:14:26
intégrer ça dans des lunettes de réalité
00:14:28
augmentée tu marches dans la rue et à la
00:14:33
vie des gens devant toi en temps réel et
00:14:34
donc ils ont dit après mais non mais en
00:14:36
fait on a abandonné cette idée était là
00:14:38
mais il ya je pense qu'il faut arriver à
00:14:40
essayer de voir un impact à l'échelle
00:14:42
microscopique saisir pour toi en tant
00:14:43
qu'individu on fait quoi on fait
00:14:44
attention bas comme tu disais dans la
00:14:46
vidéo on fait attention ces enfants
00:14:47
passent au minimum de vote aux deux ont
00:14:49
fait attention à soi aussi tu va nous
00:14:51
apprendre un métier public dont les
00:14:53
pirates et voilà à l'échelle
00:14:56
macroscopique comment comment on peut
00:14:58
éviter que ce genre de truc se répandent
00:15:00
et deviennent la norme c'est compliqué
00:15:02
c'est compliqué parce qu'une fois que ça
00:15:03
a été fait ça un jour tu vois même si
00:15:06
c'est interdit a été c'est que les
00:15:07
services ils utiliseront forcément la
00:15:09
nsa et s'est même pas l'ombre d'un doute
00:15:11
qu'ils utilisent des techniques comme ça
00:15:12
c'est ça donc voila voila vous ai fait
00:15:15
un tour du sujet je trouve passionnant
00:15:16
je vous conseille clairement dans
00:15:17
quelques secondes d'aller voir la vidéo
00:15:18
de boxe qui traitent du sujet mais qui
00:15:20
est écrit tel pour le coup et qui pourra
00:15:21
vous apporter encore plus d'infos je
00:15:22
blâme et en descriptions et puis quant à
00:15:24
nous on se retrouve dans une prochaine
00:15:25
vidéo bientôt
00:15:30
[Musique]