WEBVTT 00:00:00.000 --> 00:00:02.640 align:middle line:90% [MUSIQUE LIVEWORX] 00:00:02.640 --> 00:00:05.100 align:middle line:90% Bienvenue sur LiveWorx 2020. 00:00:05.100 --> 00:00:07.200 align:middle line:84% Je m'appelle Andia Winslow et je vais vous présenter 00:00:07.200 --> 00:00:09.420 align:middle line:90% le live stream d'aujourd'hui. 00:00:09.420 --> 00:00:10.920 align:middle line:84% Nous avons déjà écouté les présentations 00:00:10.920 --> 00:00:12.810 align:middle line:84% de grands leaders d'opinion sur la technologie de pointe 00:00:12.810 --> 00:00:14.580 align:middle line:90% dans le monde industriel. 00:00:14.580 --> 00:00:17.730 align:middle line:84% Si vous n'avez pas pu assister à ces premières sessions, 00:00:17.730 --> 00:00:21.090 align:middle line:84% n'oubliez pas de les visionner sur le catalogue à la demande LiveWorx, 00:00:21.090 --> 00:00:24.180 align:middle line:84% qui est à votre disposition jusqu'au 19 juin. 00:00:24.180 --> 00:00:27.810 align:middle line:84% Cette bibliothèque en ligne a plus de 100 sessions supplémentaires 00:00:27.810 --> 00:00:29.340 align:middle line:90% avec du bon contenu. 00:00:29.340 --> 00:00:31.800 align:middle line:84% Vous recevrez sous peu un e-mail 00:00:31.800 --> 00:00:35.800 align:middle line:84% vous donnant accès à nos archives une année entière. 00:00:35.800 --> 00:00:38.220 align:middle line:84% Maintenant, démarrons notre prochaine session-- 00:00:38.220 --> 00:00:40.770 align:middle line:84% l'intelligence émotionnelle artificielle ou l'IA émotionnelle, 00:00:40.770 --> 00:00:44.100 align:middle line:84% ce que c'est et pourquoi c'est important. 00:00:44.100 --> 00:00:48.810 align:middle line:84% Le Dr Rana el Kaliouby est la PDG et co-fondatrice d'Affectiva. 00:00:48.810 --> 00:00:52.890 align:middle line:84% Division du Media Lab de MIT, Affectiva a créé et défini 00:00:52.890 --> 00:00:54.750 align:middle line:90% la catégorie IA émotionnelle. 00:00:54.750 --> 00:00:57.630 align:middle line:84% Des logiciels qui peuvent détecter des émotions humaines nuancées 00:00:57.630 --> 00:01:01.740 align:middle line:84% et des états cognitifs complexes à partir du visage et de la voix. 00:01:01.740 --> 00:01:05.099 align:middle line:84% Le Dr el Kaliouby est une pionnière en IA émotionnelle et l'auteure 00:01:05.099 --> 00:01:07.680 align:middle line:84% de "Girl Decoded: la quête d'une scientifique 00:01:07.680 --> 00:01:10.080 align:middle line:84% pour la reconquête de notre humanité grâce à l'alliance entre 00:01:10.080 --> 00:01:12.240 align:middle line:90% intelligence émotionnelle et technologie". 00:01:12.240 --> 00:01:17.690 align:middle line:84% Je suis très heureuse d'accueillir le Dr Rana el Kaliouby. 00:01:17.690 --> 00:01:18.740 align:middle line:90% Merci, Andia. 00:01:18.740 --> 00:01:22.020 align:middle line:84% C'est un plaisir d'être avec vous tous aujourd'hui. 00:01:22.020 --> 00:01:24.770 align:middle line:84% Ma mission est d'humaniser la technologie 00:01:24.770 --> 00:01:29.180 align:middle line:84% avant qu'elle ne nous déshumanise en créant de l'intelligence émotionnelle 00:01:29.180 --> 00:01:32.900 align:middle line:84% et de l'empathie dans nos appareils et nos technologies. 00:01:32.900 --> 00:01:35.420 align:middle line:84% Et pour ce faire, mon objectif est de réimaginer 00:01:35.420 --> 00:01:38.690 align:middle line:84% les interfaces humain-ordinateur 00:01:38.690 --> 00:01:42.100 align:middle line:90% ainsi que la connexion entre êtres humains. 00:01:42.100 --> 00:01:45.250 align:middle line:84% Nous avons tous été catapultés dans cet univers 00:01:45.250 --> 00:01:46.479 align:middle line:84% dans lequel nous travaillons virtuellement. 00:01:46.479 --> 00:01:49.210 align:middle line:84% C'est ainsi que nous interagissons avec les membres de notre équipe. 00:01:49.210 --> 00:01:50.800 align:middle line:84% Nous apprenons en ligne, c'est comme ça 00:01:50.800 --> 00:01:52.420 align:middle line:90% que mes enfants apprennent. 00:01:52.420 --> 00:01:55.870 align:middle line:84% Et nous interagissons avec les amis et la famille virtuellement. 00:01:55.870 --> 00:01:57.680 align:middle line:90% Cependant, il manque quelque chose. 00:01:57.680 --> 00:01:59.410 align:middle line:90% Ce n'est pas tout à fait la même chose. 00:01:59.410 --> 00:02:03.610 align:middle line:84% Et c'est vraiment ce concept que tous nos signaux non-verbaux 00:02:03.610 --> 00:02:07.180 align:middle line:84% ne sont pas visibles dans ces espaces virtuels. 00:02:07.180 --> 00:02:11.570 align:middle line:84% L'IA joue des rôles qui étaient traditionnellement tenus par les humains, 00:02:11.570 --> 00:02:13.990 align:middle line:84% tels que l'assistance à la conduite de nos voitures, 00:02:13.990 --> 00:02:17.620 align:middle line:84% l'assistance en matière de santé, nous aider à être plus productifs 00:02:17.620 --> 00:02:21.310 align:middle line:84% et peut-être même le recrutement de votre prochain collaborateur. 00:02:21.310 --> 00:02:25.240 align:middle line:84% Le problème est qu'il nous faut un nouveau contrat social entre les humains 00:02:25.240 --> 00:02:26.380 align:middle line:90% et l'IA. 00:02:26.380 --> 00:02:30.130 align:middle line:84% Un contrat qui soit basé sur la confiance réciproque et mutuelle. 00:02:30.130 --> 00:02:32.200 align:middle line:84% Bien sûr, nous devons faire confiance à l'IA 00:02:32.200 --> 00:02:34.450 align:middle line:84% et il y a beaucoup de conversations sur le sujet. 00:02:34.450 --> 00:02:40.030 align:middle line:84% Mais plus important encore, l'IA doit nous faire confiance à nous, les humains. 00:02:40.030 --> 00:02:43.060 align:middle line:84% Après tout, nous n'avons pas toujours été irréprochables 00:02:43.060 --> 00:02:46.420 align:middle line:90% quand il s'agit de bien se conduire. 00:02:46.420 --> 00:02:49.480 align:middle line:84% Malheureusement, il y a déjà de nombreux exemples montrant 00:02:49.480 --> 00:02:51.650 align:middle line:90% que ce lien de confiance a mal tourné. 00:02:51.650 --> 00:02:56.500 align:middle line:84% Un chatbot Twitter qui est devenu raciste du jour au lendemain, 00:02:56.500 --> 00:02:59.470 align:middle line:84% les voitures intelligentes impliquées dans des accidents mortels, 00:02:59.470 --> 00:03:03.040 align:middle line:84% et la technologie de reconnaissance faciale qui discrimine 00:03:03.040 --> 00:03:05.230 align:middle line:90% certaines populations-- 00:03:05.230 --> 00:03:08.740 align:middle line:90% surtout les femmes de couleur. 00:03:08.740 --> 00:03:13.090 align:middle line:84% Pour rebâtir cette confiance, il faut regarder comment les humains se comportent. 00:03:13.090 --> 00:03:15.160 align:middle line:84% Chaque jour, nous prenons des milliers de décisions 00:03:15.160 --> 00:03:17.150 align:middle line:84% qui impliquent de se faire confiance, 00:03:17.150 --> 00:03:21.329 align:middle line:84% tant dans notre vie personnelle que nos relations professionnelles. 00:03:21.329 --> 00:03:24.060 align:middle line:84% Parfois, cette confiance est basée sur des conditions et 00:03:24.060 --> 00:03:25.890 align:middle line:90% des termes juridiques. 00:03:25.890 --> 00:03:30.360 align:middle line:84% Mais le plus souvent, l'implicite, le non-verbal, les indices 00:03:30.360 --> 00:03:33.930 align:middle line:84% subtiles que nous échangeons les uns avec les autres avec empathie 00:03:33.930 --> 00:03:36.450 align:middle line:84% se trouvent au cœur de ce lien de confiance. 00:03:36.450 --> 00:03:38.970 align:middle line:84% La technologie aujourd'hui possède un QI élevé-- 00:03:38.970 --> 00:03:42.690 align:middle line:84% une grande intelligence cognitive, mais pas de QE-- 00:03:42.690 --> 00:03:44.410 align:middle line:90% pas d'intelligence émotionnelle. 00:03:44.410 --> 00:03:47.340 align:middle line:90% C'est le chainon manquant. 00:03:47.340 --> 00:03:50.950 align:middle line:84% Au cours de ma carrière, je me suis demandée 00:03:50.950 --> 00:03:54.990 align:middle line:84% si la technologie pouvait identifier les émotions humaines 00:03:54.990 --> 00:03:56.942 align:middle line:90% tout comme nous ? 00:03:56.942 --> 00:03:58.900 align:middle line:84% Et si votre ordinateur pouvait faire la différence 00:03:58.900 --> 00:04:01.750 align:middle line:90% entre un sourire et une grimace ? 00:04:01.750 --> 00:04:03.890 align:middle line:84% Les deux impliquent le bas du visage, 00:04:03.890 --> 00:04:06.770 align:middle line:84% mais ils ont des significations très différentes. 00:04:06.770 --> 00:04:11.690 align:middle line:84% Comment construire une IA qui comprend l'humain ? 00:04:11.690 --> 00:04:14.570 align:middle line:84% Pour cela, il faut observer comment les humains se comportent. 00:04:14.570 --> 00:04:18.320 align:middle line:84% Seul 7% de l'expression de notre état mental 00:04:18.320 --> 00:04:21.760 align:middle line:84% repose sur le choix des mots que nous utilisons. 00:04:21.760 --> 00:04:26.960 align:middle line:84% 93% de notre communication est non-verbale, divisée entre nos expressions faciales 00:04:26.960 --> 00:04:27.950 align:middle line:90% et nos gestes-- 00:04:27.950 --> 00:04:30.420 align:middle line:90% J'en fais beaucoup-- 00:04:30.420 --> 00:04:34.040 align:middle line:84% et 38% d'intonations dans la voix, à quelle vitesse 00:04:34.040 --> 00:04:37.640 align:middle line:84% parlez-vous, quelle énergie votre voix dégage t-elle ?. 00:04:37.640 --> 00:04:40.080 align:middle line:84% J'ai consacré une grande partie de ma carrière à étudier le visage. 00:04:40.080 --> 00:04:44.240 align:middle line:84% C'est une fenêtre ouverte sur les émotions humaines. 00:04:44.240 --> 00:04:49.740 align:middle line:84% La science des émotions faciales existe depuis plus de 200 ans. 00:04:49.740 --> 00:04:52.700 align:middle line:84% Cet homme, Duchenne, stimulait électriquement 00:04:52.700 --> 00:04:57.740 align:middle line:84% nos muscles faciaux afin de déterminer comment ces muscles faciaux bougent. 00:04:57.740 --> 00:05:00.790 align:middle line:84% Nous ne faisons plus cela, heureusement. 00:05:00.790 --> 00:05:04.740 align:middle line:84% Et puis, à la fin des années 1970, Paul Ekman et son équipe 00:05:04.740 --> 00:05:07.770 align:middle line:84% ont publié le "Facial Action Coding System"-- 00:05:07.770 --> 00:05:11.760 align:middle line:84% une méthode objective qui cartographie chaque mouvement des muscles faciaux 00:05:11.760 --> 00:05:13.960 align:middle line:90% avec une unité d'action, un code. 00:05:13.960 --> 00:05:16.650 align:middle line:84% Ainsi, par exemple, lorsque vous souriez-- et faites-le avec moi-- 00:05:16.650 --> 00:05:19.800 align:middle line:84% quand vous souriez, vous étirez vos zygomatiques 00:05:19.800 --> 00:05:24.180 align:middle line:84% et c'est essentiellement l'étirement du coin des lèvres ou l'unité d'action 12. 00:05:24.180 --> 00:05:28.210 align:middle line:84% Quand vous froncez les sourcils, c'est l'unité d'action 4, 00:05:28.210 --> 00:05:29.910 align:middle line:90% c'est le sillon frontal. 00:05:29.910 --> 00:05:32.310 align:middle line:84% Et c'est généralement un indicateur d'émotion négative 00:05:32.310 --> 00:05:36.080 align:middle line:90% comme la confusion ou la colère. 00:05:36.080 --> 00:05:39.530 align:middle line:84% Il existe environ 45 muscles faciaux 00:05:39.530 --> 00:05:42.290 align:middle line:84% et il faut environ 100 heures de formation 00:05:42.290 --> 00:05:47.090 align:middle line:84% pour devenir un codeur facial certifié ou un lecteur de visage-- 00:05:47.090 --> 00:05:49.790 align:middle line:84% très laborieux, très chronophage. 00:05:49.790 --> 00:05:51.650 align:middle line:84% Et coder les vidéos minute par minute 00:05:51.650 --> 00:05:54.140 align:middle line:84% nécessite que vous les regardiez pendant cinq minutes 00:05:54.140 --> 00:05:56.890 align:middle line:84% au ralenti et disiez, oh, je vois 00:05:56.890 --> 00:05:59.570 align:middle line:84% un sourcil qui se lève ou un plissement des yeux. 00:05:59.570 --> 00:06:01.040 align:middle line:84% Nous ne devons plus passer par là. 00:06:01.040 --> 00:06:04.370 align:middle line:84% Nous utilisons plutôt la vision par ordinateur l'apprentissage par machine et un apprentissage 00:06:04.370 --> 00:06:07.670 align:middle line:84% poussé pour entraîner des algorithmes à détecter automatiquement 00:06:07.670 --> 00:06:10.720 align:middle line:90% ces expressions faciales. 00:06:10.720 --> 00:06:13.450 align:middle line:84% Nous utilisons des centaines de milliers d'exemples 00:06:13.450 --> 00:06:17.140 align:middle line:84% de personnes souriant, grimaçant et fronçant les sourcils 00:06:17.140 --> 00:06:18.670 align:middle line:90% pour créer ces algorithmes. 00:06:18.670 --> 00:06:23.290 align:middle line:84% Et le réseau d'apprentissage poussé est capable de distinguer 00:06:23.290 --> 00:06:25.480 align:middle line:84% ce qui est commun entre tous ces sourires, ce qui est 00:06:25.480 --> 00:06:29.710 align:middle line:84% commun entre tous ces froncements de sourcils, et c'est ainsi qu'il apprend. 00:06:29.710 --> 00:06:32.320 align:middle line:84% Et donc, pour simplifier, la première étape du processus 00:06:32.320 --> 00:06:34.930 align:middle line:90% est de trianguler le visage, 00:06:34.930 --> 00:06:39.130 align:middle line:84% de trouver des repères faciaux comme vos sourcils, votre bouche, 00:06:39.130 --> 00:06:40.240 align:middle line:90% ou votre nez. 00:06:40.240 --> 00:06:43.750 align:middle line:84% Et puis, vous transposez cette région vers un réseau neuronal profond 00:06:43.750 --> 00:06:46.300 align:middle line:84% qui est capable de distinguer les différentes expressions visibles 00:06:46.300 --> 00:06:49.450 align:middle line:84% sur le visage et les cartographier en un certain nombre 00:06:49.450 --> 00:06:51.760 align:middle line:84% d'états émotionnels et cognitifs. 00:06:51.760 --> 00:06:55.090 align:middle line:84% Tout, la joie, la surprise, la colère, le dégoût 00:06:55.090 --> 00:06:58.720 align:middle line:84% et des états plus complexes comme la fatigue, l'attention, 00:06:58.720 --> 00:07:02.470 align:middle line:84% la surcharge cognitive, la confusion et plus encore. 00:07:02.470 --> 00:07:04.540 align:middle line:84% Dans le cadre de notre travail, au cours de ces dernières années, 00:07:04.540 --> 00:07:08.260 align:middle line:84% nous avons accumulé le plus grand catalogue d'émotions au monde. 00:07:08.260 --> 00:07:11.680 align:middle line:84% 9,5 millions de vidéos de visages que nous avons recueillies-- 00:07:11.680 --> 00:07:13.930 align:middle line:84% avec le consentement de tout le monde-- 00:07:13.930 --> 00:07:16.280 align:middle line:84% dans 90 pays à travers le monde. 00:07:16.280 --> 00:07:19.900 align:middle line:84% Cela se traduit en gros par environ 5 milliards d'images faciales. 00:07:19.900 --> 00:07:22.450 align:middle line:84% C'est de loin le plus grand catalogue 00:07:22.450 --> 00:07:25.090 align:middle line:84% de véritables réponses émotionnelles en date. 00:07:25.090 --> 00:07:27.280 align:middle line:84% Et nous utilisons ces données pour nous entraîner, mais aussi 00:07:27.280 --> 00:07:30.690 align:middle line:90% pour valider nos algorithmes. 00:07:30.690 --> 00:07:33.800 align:middle line:84% Il y a tant d'applications à cette technologie 00:07:33.800 --> 00:07:37.340 align:middle line:90% qui transforment les industries. 00:07:37.340 --> 00:07:39.980 align:middle line:84% Mon grand rêve est qu'on voie dans les prochaines années, 00:07:39.980 --> 00:07:43.159 align:middle line:84% l'IA émotionnelle devenir l'interface 00:07:43.159 --> 00:07:44.900 align:middle line:90% homme-machine de facto. 00:07:44.900 --> 00:07:47.810 align:middle line:84% Donc, en gros, nous pourrions interagir avec nos appareils 00:07:47.810 --> 00:07:50.150 align:middle line:84% comme nous le faisons entre nous. 00:07:50.150 --> 00:07:51.260 align:middle line:90% En discutant. 00:07:51.260 --> 00:07:53.600 align:middle line:84% On le voit déjà avec des dispositifs de conversation 00:07:53.600 --> 00:07:55.550 align:middle line:90% comme Alexa et Siri. 00:07:55.550 --> 00:07:56.540 align:middle line:90% Par la perception. 00:07:56.540 --> 00:07:58.520 align:middle line:84% Encore une fois, nous commençons déjà à voir des appareils 00:07:58.520 --> 00:08:00.530 align:middle line:90% avec des caméras intégrées. 00:08:00.530 --> 00:08:04.070 align:middle line:84% Mais plus important encore, grâce à l'empathie et l'intelligence 00:08:04.070 --> 00:08:05.550 align:middle line:90% émotionnelle. 00:08:05.550 --> 00:08:06.800 align:middle line:90% Il y a beaucoup de domaines d'application. 00:08:06.800 --> 00:08:09.120 align:middle line:90% Je vais en décrire quelques-uns. 00:08:09.120 --> 00:08:11.420 align:middle line:84% Le premier domaine d'application permet de quantifier 00:08:11.420 --> 00:08:14.960 align:middle line:84% comment les consommateurs, sur le plan émotionnel, interagissent avec les produits et les marques 00:08:14.960 --> 00:08:16.730 align:middle line:90% autour d'eux. 00:08:16.730 --> 00:08:20.240 align:middle line:84% Pour ce faire, nous envoyons des enquêtes à des gens 00:08:20.240 --> 00:08:22.710 align:middle line:84% et leur demandons de regarder une vidéo. 00:08:22.710 --> 00:08:26.120 align:middle line:84% Ça peut être une publicité en ligne, ça peut être une bande-annonce, 00:08:26.120 --> 00:08:30.380 align:middle line:84% ça peut être une vraie émission de télévision, ça peut être une vidéo pédagogique. 00:08:30.380 --> 00:08:32.299 align:middle line:84% Mais l'idée est d'enregistrer 00:08:32.299 --> 00:08:35.510 align:middle line:84% l'engagement émotionnel et les réactions émotionnelles des personnes 00:08:35.510 --> 00:08:37.789 align:middle line:90% pendant le visionnage. 00:08:37.789 --> 00:08:39.990 align:middle line:84% Nous avons demandé aux gens d'allumer leurs caméras-- 00:08:39.990 --> 00:08:42.182 align:middle line:84% consentement et accord sont vraiment importants-- 00:08:42.182 --> 00:08:44.390 align:middle line:84% et ensuite nous avons pu saisir ces réactions 00:08:44.390 --> 00:08:46.710 align:middle line:90% seconde par seconde. 00:08:46.710 --> 00:08:52.170 align:middle line:84% Notre technologie est utilisée par 25% du Fortune Global 500, 00:08:52.170 --> 00:08:55.080 align:middle line:84% ainsi que les plus grandes entreprises de recherche du marché 00:08:55.080 --> 00:08:59.400 align:middle line:84% qui utilisent notre technologie pour quantifier la réaction émotionnelle 00:08:59.400 --> 00:09:02.898 align:middle line:84% des consommateurs et téléspectateurs au contact de leur contenu. 00:09:02.898 --> 00:09:04.440 align:middle line:84% Je me suis dit qu'il serait amusant en fait de 00:09:04.440 --> 00:09:08.580 align:middle line:84% vous montrer une des publicités que nous avons testées 00:09:08.580 --> 00:09:11.200 align:middle line:84% et nous avons la permission de la partager publiquement. 00:09:11.200 --> 00:09:12.250 align:middle line:90% Regardons ensemble. 00:09:12.250 --> 00:09:15.666 align:middle line:90% [MUSIQUE - TONY DALLARA, "COME PRIMA"] 00:09:18.106 --> 00:09:21.522 align:middle line:90% [CHANSON EN ITALIEN] 00:10:13.124 --> 00:10:16.390 align:middle line:90% Euh, maman est arrivée la première. 00:10:16.390 --> 00:10:21.380 align:middle line:84% Aujourd'hui, nous avons donc testé plus de 50 000 pubs dans le monde entier. 00:10:21.380 --> 00:10:27.520 align:middle line:84% Et cette pub en particulier se classe dans les 10% de tête 00:10:27.520 --> 00:10:30.760 align:middle line:84% des publicités dans le quatre-vingt-dixième percentile. 00:10:30.760 --> 00:10:34.060 align:middle line:84% Elle obtient un engagement émotionnel très fort, ce qu'on 00:10:34.060 --> 00:10:36.040 align:middle line:90% appelle score d'expressivité. 00:10:36.040 --> 00:10:37.570 align:middle line:90% Elle fait naitre beaucoup de sourires. 00:10:37.570 --> 00:10:40.960 align:middle line:84% Et vous pouvez voir l'évolution de la courbe des sourires 00:10:40.960 --> 00:10:43.660 align:middle line:84% de tous ceux qui ont regardé cette publicité 00:10:43.660 --> 00:10:46.400 align:middle line:84% et sur qui nous avons pu récolter des données. 00:10:46.400 --> 00:10:48.710 align:middle line:84% Ce qui est vraiment fascinant dans cette publicité, 00:10:48.710 --> 00:10:51.410 align:middle line:84% c'est que si vous comparez la première fois que les gens l'ont vue, 00:10:51.410 --> 00:10:53.300 align:middle line:90% c'est la solide ligne verte. 00:10:53.300 --> 00:10:55.130 align:middle line:84% À la deuxième fois que les gens l'ont vue, 00:10:55.130 --> 00:10:57.050 align:middle line:90% c'est la ligne verte en pointillés. 00:10:57.050 --> 00:11:00.140 align:middle line:84% Vous pouvez en fait voir que les gens se souviennent de la pub. 00:11:00.140 --> 00:11:02.420 align:middle line:84% Ils anticipent les moments vraiment drôles 00:11:02.420 --> 00:11:05.420 align:middle line:84% et ils rient avant même que cette scène ne commence, ce qui 00:11:05.420 --> 00:11:07.640 align:middle line:90% est exactement ce que vous voulez. 00:11:07.640 --> 00:11:09.920 align:middle line:84% Et plus important encore, nous faisons faire aux spectateurs 00:11:09.920 --> 00:11:12.050 align:middle line:84% un voyage émotionnel qui culmine 00:11:12.050 --> 00:11:15.650 align:middle line:90% par une réaction très positive 00:11:15.650 --> 00:11:16.700 align:middle line:90% quand la marque est révélée. 00:11:16.700 --> 00:11:19.280 align:middle line:84% Et encore une fois, nous savons grâce à nos recherches 00:11:19.280 --> 00:11:22.990 align:middle line:84% que ce genre de mesures est très positif. 00:11:22.990 --> 00:11:25.020 align:middle line:84% J'aime cet exemple en particulier parce que c'est 00:11:25.020 --> 00:11:29.130 align:middle line:84% un exemple de la manière dont des marques comme Coca-Cola et Unilever 00:11:29.130 --> 00:11:32.820 align:middle line:84% utilisent cette technologie pour vraiment promouvoir une vidéo 00:11:32.820 --> 00:11:36.720 align:middle line:84% en ligne et devenir plus inclusives et progressistes. 00:11:36.720 --> 00:11:39.780 align:middle line:84% Mais ils doivent le faire d'une manière très réfléchie. 00:11:39.780 --> 00:11:42.750 align:middle line:84% Et ils peuvent saisir ces réactions viscérales 00:11:42.750 --> 00:11:45.830 align:middle line:90% pendant leurs publicités. 00:11:45.830 --> 00:11:48.800 align:middle line:84% Nous savons aussi, grâce à un travail considérable que nous avons fait avec ces marques 00:11:48.800 --> 00:11:51.650 align:middle line:84% où nous avons mis en corrélation les réactions émotionnelles 00:11:51.650 --> 00:11:54.860 align:middle line:84% avec les comportements de consommation, que ce genre 00:11:54.860 --> 00:11:58.460 align:middle line:84% de voyage émotionnel et de réactions émotionnelles positives 00:11:58.460 --> 00:12:00.620 align:middle line:84% sont en forte corrélation avec des phénomènes 00:12:00.620 --> 00:12:03.800 align:middle line:84% comme l'augmentation des ventes, l'intention d'achat et le dynamisme. 00:12:06.790 --> 00:12:09.910 align:middle line:84% Et parce que nous avons testé 50 000 pubs dans le monde entier, 00:12:09.910 --> 00:12:12.280 align:middle line:84% nous pouvons créer des points de référence. 00:12:12.280 --> 00:12:14.680 align:middle line:84% Ainsi, par exemple, nous savons qu'aux États-Unis, 00:12:14.680 --> 00:12:19.070 align:middle line:84% les pubs avec les animaux et les bébés suscitent le plus de plaisir. 00:12:19.070 --> 00:12:22.400 align:middle line:84% Il est intéressant de noter qu'au Canada, c'est la publicité pour les céréales 00:12:22.400 --> 00:12:24.980 align:middle line:90% qui suscitent le plus de plaisir. 00:12:24.980 --> 00:12:28.950 align:middle line:84% Et, malheureusement, les publicités pour les télécoms ne suscitent presque aucun plaisir 00:12:28.950 --> 00:12:29.450 align:middle line:90% du tout. 00:12:29.450 --> 00:12:32.010 align:middle line:90% Elles sont assez ennuyeuses à regarder. 00:12:32.010 --> 00:12:34.470 align:middle line:84% Donc, ces données sont vraiment, vraiment pertinentes 00:12:34.470 --> 00:12:36.510 align:middle line:84% et fournissent aux marques et aux spécialistes du marketing 00:12:36.510 --> 00:12:39.120 align:middle line:84% des nouvelles perspectives qui les aident 00:12:39.120 --> 00:12:41.400 align:middle line:84% à prendre des décisions par rapport aux dépenses en média 00:12:41.400 --> 00:12:44.510 align:middle line:84% ainsi que sur la manière d'optimiser leur contenu publicitaire. 00:12:44.510 --> 00:12:46.140 align:middle line:84% Et ce n'est pas seulement la publicité, vous 00:12:46.140 --> 00:12:50.803 align:middle line:84% pouvez générer ce même type de données avec les émissions de télévision. 00:12:50.803 --> 00:12:52.470 align:middle line:84% Et c'est l'un de mes exemples préférés. 00:12:52.470 --> 00:12:56.430 align:middle line:84% Il s'agit d'une sitcom que nous avons testée il y a quelque temps pour la CBS. 00:12:56.430 --> 00:12:58.260 align:middle line:84% Ça s'appelait "Friends With Better Lives". 00:12:58.260 --> 00:12:59.610 align:middle line:84% Je ne pense pas qu'elle soit restée longtemps à l'antenne. 00:12:59.610 --> 00:13:01.120 align:middle line:90% Cela n'a pas très bien marché. 00:13:01.120 --> 00:13:03.810 align:middle line:84% Mais là encore, vous pouvez voir la courbe des sourires. 00:13:03.810 --> 00:13:06.690 align:middle line:84% Et nous superposons les personnages 00:13:06.690 --> 00:13:08.850 align:middle line:90% de la scène sur cette courbe. 00:13:08.850 --> 00:13:11.490 align:middle line:84% Et vous pouvez voir qu'il y a deux personnages en particulier, 00:13:11.490 --> 00:13:14.770 align:middle line:84% dont les interventions ne sont absolument pas drôles. 00:13:14.770 --> 00:13:19.120 align:middle line:84% Ils représentent le creux de cette courbe de sourires. 00:13:19.120 --> 00:13:21.210 align:middle line:84% Et encore une fois, des données très intéressantes 00:13:21.210 --> 00:13:23.730 align:middle line:84% que les producteurs ont pu utiliser 00:13:23.730 --> 00:13:27.780 align:middle line:90% pour modifier ces personnages. 00:13:27.780 --> 00:13:32.240 align:middle line:84% Passons maintenant du monde de la compréhension 00:13:32.240 --> 00:13:33.840 align:middle line:84% des réactions émotionnelles des individus 00:13:33.840 --> 00:13:36.240 align:middle line:84% avec leur consentement, à un autre domaine 00:13:36.240 --> 00:13:37.830 align:middle line:84% auquel nous consacrons beaucoup de temps. 00:13:37.830 --> 00:13:41.430 align:middle line:84% Et c'est l'avenir de la mobilité et des transports. 00:13:41.430 --> 00:13:43.320 align:middle line:84% Lorsque nous avons commencé à travailler dans ce domaine, 00:13:43.320 --> 00:13:45.780 align:middle line:84% de nombreux constructeurs automobiles nous ont contactés 00:13:45.780 --> 00:13:49.710 align:middle line:84% dans le monde entier afin que nous réorientions notre technologie 00:13:49.710 --> 00:13:51.780 align:middle line:84% de détection émotionnelle vers l'automobile. 00:13:51.780 --> 00:13:54.360 align:middle line:84% Et pour ce faire, nous voulions voir 00:13:54.360 --> 00:13:57.640 align:middle line:84% comment les gens se comportent en voiture, surtout les conducteurs. 00:13:57.640 --> 00:14:00.330 align:middle line:84% Nous avons donc entrepris de collecter des données. 00:14:00.330 --> 00:14:03.683 align:middle line:84% Beaucoup d'entre nous dans l'entreprise redoutaient qu'étant donné que 00:14:03.683 --> 00:14:05.100 align:middle line:84% les gens savaient qu'il y aurait 00:14:05.100 --> 00:14:06.725 align:middle line:84% une caméra sur leur tableau de bord, 00:14:06.725 --> 00:14:09.990 align:middle line:84% il n'y aurait pas d'émotions ou de réactions 00:14:09.990 --> 00:14:12.210 align:middle line:90% cognitives intéressantes. 00:14:12.210 --> 00:14:13.060 align:middle line:90% Et nous avions tort. 00:14:13.060 --> 00:14:16.920 align:middle line:84% Je vais donc vous montrer quelques vidéos. 00:14:16.920 --> 00:14:19.920 align:middle line:84% Encore une fois, ces personnes savaient que la caméra était 00:14:19.920 --> 00:14:22.320 align:middle line:84% dans leur véhicule, ils l'ont installée, 00:14:22.320 --> 00:14:27.090 align:middle line:84% ils ont donné leur consentement, et nous avons vu des comportements 00:14:27.090 --> 00:14:28.030 align:middle line:90% de conduite très intéressants. 00:14:28.030 --> 00:14:32.610 align:middle line:84% Dans ce cas particulier, ce papa conduit le véhicule. 00:14:32.610 --> 00:14:33.920 align:middle line:90% Il somnole. 00:14:33.920 --> 00:14:35.700 align:middle line:84% Il y a quatre niveaux de somnolence. 00:14:35.700 --> 00:14:38.370 align:middle line:90% Il est quasiment endormi. 00:14:38.370 --> 00:14:40.170 align:middle line:84% Et vous pouvez aussi voir que son enfant en bas âge 00:14:40.170 --> 00:14:41.460 align:middle line:90% est sur le siège arrière. 00:14:41.460 --> 00:14:45.330 align:middle line:90% Donc une conduite très, très dangereuse. 00:14:45.330 --> 00:14:48.480 align:middle line:90% Et j'ai de l'empathie pour lui. 00:14:48.480 --> 00:14:52.200 align:middle line:84% Il m'est arrivé à l'époque où nous 00:14:52.200 --> 00:14:56.190 align:middle line:84% voyagions, quand je revenais d'un long voyage, d'être épuisée 00:14:56.190 --> 00:14:57.870 align:middle line:84% à cause du décalage horaire dans la voiture avec mes enfants. 00:14:57.870 --> 00:14:59.940 align:middle line:84% Je peux clairement m'identifier à lui. 00:14:59.940 --> 00:15:03.597 align:middle line:84% Mais c'est un exemple si simple que la technologie peut interpréter. 00:15:03.597 --> 00:15:05.430 align:middle line:84% Et vous pouvez voir ici que la technologie est 00:15:05.430 --> 00:15:08.745 align:middle line:84% capable de détecter des choses comme la fermeture des yeux, la bouche ouverte, 00:15:08.745 --> 00:15:10.650 align:middle line:90% et les niveaux de somnolence. 00:15:10.650 --> 00:15:14.200 align:middle line:84% Et vous pouvez imaginer comment la voiture peut intervenir dans ce cas. 00:15:14.200 --> 00:15:15.730 align:middle line:90% Voici un autre exemple. 00:15:15.730 --> 00:15:17.880 align:middle line:90% Elle conduit. 00:15:17.880 --> 00:15:21.960 align:middle line:84% Elle envoie également des SMS, donc très distraite. 00:15:21.960 --> 00:15:24.510 align:middle line:84% Mais, oh, elle a deux téléphones en main, 00:15:24.510 --> 00:15:27.330 align:middle line:90% donc elle est très distraite. 00:15:27.330 --> 00:15:28.680 align:middle line:90% Ses yeux ne sont pas sur la route. 00:15:28.680 --> 00:15:30.780 align:middle line:90% Ses mains ne sont pas sur le volant. 00:15:30.780 --> 00:15:33.960 align:middle line:84% Il vaut mieux ne pas conduire à côté de cette femme. 00:15:33.960 --> 00:15:37.080 align:middle line:84% Mais, encore une fois, cela illustre que la technologie détecte des choses 00:15:37.080 --> 00:15:38.860 align:middle line:84% en regardant simplement le mouvement des yeux, 00:15:38.860 --> 00:15:41.670 align:middle line:84% la position de la tête, mais aussi en combinant cela 00:15:41.670 --> 00:15:43.270 align:middle line:84% avec la détection d'objets, par exemple. 00:15:43.270 --> 00:15:45.810 align:middle line:84% Nous pouvons donc détecter qu'elle n'a pas un, 00:15:45.810 --> 00:15:47.070 align:middle line:90% mais deux téléphones en main. 00:15:47.070 --> 00:15:50.160 align:middle line:84% Nous pouvons considérer que c'est une conductrice très distraite. 00:15:50.160 --> 00:15:52.800 align:middle line:84% Et, encore une fois, la voiture peut intervenir d'une manière ou d'une autre. 00:15:52.800 --> 00:15:55.740 align:middle line:84% Vous pouvez imaginer si c'était une Tesla, 00:15:55.740 --> 00:15:58.710 align:middle line:84% elle pourrait passer en mode semi-autonome, 00:15:58.710 --> 00:16:00.360 align:middle line:84% elle peut en gros dire, attendez une seconde, 00:16:00.360 --> 00:16:02.610 align:middle line:84% je conduirai mieux que vous, 00:16:02.610 --> 00:16:06.030 align:middle line:90% je vais prendre le contrôle. 00:16:06.030 --> 00:16:08.670 align:middle line:84% Nous avons fait beaucoup de recherches en collaboration 00:16:08.670 --> 00:16:11.970 align:middle line:84% avec les avancées du groupe de technologie des véhicules de MIT, 00:16:11.970 --> 00:16:15.900 align:middle line:84% où nous avons fait la toute première étude à grande échelle qui étudie 00:16:15.900 --> 00:16:17.590 align:middle line:84% le comportement du conducteur dans le temps. 00:16:17.590 --> 00:16:19.260 align:middle line:84% Et donc, dans ce cas particulier, 00:16:19.260 --> 00:16:22.030 align:middle line:84% vous voyez la participante numéro 66. 00:16:22.030 --> 00:16:23.450 align:middle line:90% C'est une femme. 00:16:23.450 --> 00:16:24.930 align:middle line:90% Elle a 22 ans. 00:16:24.930 --> 00:16:28.950 align:middle line:84% Et tous ses trajets du lundi sont classés dans la rangée du lundi. 00:16:28.950 --> 00:16:31.860 align:middle line:84% Et tous ses trajets du mardi sont classés au mardi, 00:16:31.860 --> 00:16:33.130 align:middle line:90% et ainsi de suite. 00:16:33.130 --> 00:16:37.470 align:middle line:84% Et vous pouvez voir qu'elle est assez fatiguée pendant la semaine. 00:16:37.470 --> 00:16:39.030 align:middle line:84% Il y a beaucoup de bâillements 00:16:39.030 --> 00:16:40.650 align:middle line:90% en début de journée. 00:16:40.650 --> 00:16:44.020 align:middle line:84% Et pendant le week-end et aussi en fin de journée, 00:16:44.020 --> 00:16:49.650 align:middle line:84% il y a beaucoup plus d'expressions positives. 00:16:49.650 --> 00:16:53.040 align:middle line:84% On dit qu'une image vaut plus que des mots. 00:16:53.040 --> 00:16:55.950 align:middle line:84% Je crois qu'une vidéo vaut encore plus. 00:16:55.950 --> 00:17:02.220 align:middle line:84% Voici des exemples de ses trajets de l'après-midi 00:17:02.220 --> 00:17:06.420 align:middle line:84% par opposition au matin par opposition à l'après-midi. 00:17:06.420 --> 00:17:09.990 align:middle line:84% Donc, encore une fois, ils ont été analysés par nos algorithmes. 00:17:09.990 --> 00:17:12.930 align:middle line:84% Nous avons donc invoqué le classificateur de bâillements 00:17:12.930 --> 00:17:15.060 align:middle line:90% pour détecter tous ses bâillements 00:17:15.060 --> 00:17:20.000 align:middle line:90% durant tous ses trajets. 00:17:20.000 --> 00:17:23.618 align:middle line:84% Vous pouvez donc constater qu'elle est souvent épuisée le matin. 00:17:23.618 --> 00:17:25.887 align:middle line:84% Et vous pouvez imaginer, si c'est un schéma récurrent, 00:17:25.887 --> 00:17:27.430 align:middle line:90% que la voiture sait déjà 00:17:27.430 --> 00:17:30.340 align:middle line:90% qu'elle arrivera épuisée. 00:17:30.340 --> 00:17:32.770 align:middle line:84% Il y a peut-être des suggestions proactives 00:17:32.770 --> 00:17:37.690 align:middle line:84% que la voiture peut faire à la conductrice compte tenu de son profil. 00:17:37.690 --> 00:17:42.720 align:middle line:84% Maintenant, voyez le contraste avec les trajets de fin de journée. 00:17:42.720 --> 00:17:46.140 align:middle line:84% Vous pouvez voir qu'elle semble déjà beaucoup plus éveillée. 00:17:46.140 --> 00:17:49.110 align:middle line:84% Elle est beaucoup plus animée, beaucoup plus de sourires, beaucoup plus 00:17:49.110 --> 00:17:50.520 align:middle line:90% d'expressions positives. 00:17:50.520 --> 00:17:54.300 align:middle line:84% Et encore une fois, si la voiture avait son profil de conduite, 00:17:54.300 --> 00:17:56.940 align:middle line:90% elle pourrait personnaliser 00:17:56.940 --> 00:18:02.170 align:middle line:84% l'expérience de conduite basée sur ses expériences émotionnelles. 00:18:02.170 --> 00:18:05.310 align:middle line:84% Nous travaillons donc en étroite collaboration avec un certain nombre de constructeurs automobiles 00:18:05.310 --> 00:18:08.400 align:middle line:84% pour réimaginer les trajets en voiture. 00:18:08.400 --> 00:18:10.260 align:middle line:84% Pas seulement dans les voitures aujourd'hui où nous pouvons 00:18:10.260 --> 00:18:13.890 align:middle line:84% nous concentrer sur le conducteur, mais aussi sur les véhicules du futur où 00:18:13.890 --> 00:18:17.910 align:middle line:84% nous imaginons vraiment mettre en place une solution de détection qui 00:18:17.910 --> 00:18:20.670 align:middle line:84% observe le conducteur et les autres occupants du véhicule 00:18:20.670 --> 00:18:21.510 align:middle line:90% également. 00:18:21.510 --> 00:18:23.820 align:middle line:84% Ainsi que d'autres objets dans la voiture. 00:18:23.820 --> 00:18:25.680 align:middle line:90% Un enfant a été oublié ? 00:18:25.680 --> 00:18:27.600 align:middle line:84% Avez-vous oublié de prendre votre téléphone ? 00:18:27.600 --> 00:18:29.557 align:middle line:84% Combien d'occupants sont dans le véhicule ? 00:18:29.557 --> 00:18:30.390 align:middle line:90% Dans quel état sont-ils ? 00:18:30.390 --> 00:18:34.300 align:middle line:84% Pouvez-vous personnaliser la musique, le contenu, l'éclairage, 00:18:34.300 --> 00:18:37.260 align:middle line:90% et ainsi de suite ? 00:18:37.260 --> 00:18:39.110 align:middle line:84% Mais, bien sûr, nous sommes peu 00:18:39.110 --> 00:18:40.610 align:middle line:84% à passer du temps dans notre voiture 00:18:40.610 --> 00:18:43.310 align:middle line:90% pendant cette pandémie mondiale. 00:18:43.310 --> 00:18:47.870 align:middle line:84% En fait, nous sommes nombreux à passer plus de temps 00:18:47.870 --> 00:18:52.250 align:middle line:84% sur les vidéoconférences et les événements virtuels. 00:18:52.250 --> 00:18:55.700 align:middle line:84% Établir une connexion humaine via la technologie est vraiment difficile. 00:18:55.700 --> 00:19:00.140 align:middle line:84% Et ce, parce que notre méthode de communication principale 00:19:00.140 --> 00:19:01.430 align:middle line:90% est non-verbale. 00:19:01.430 --> 00:19:05.070 align:middle line:84% Et parfois, lorsque nous sommes dans des conférences virtuelles 00:19:05.070 --> 00:19:09.140 align:middle line:90% et des événements virtuels, 00:19:09.140 --> 00:19:13.310 align:middle line:84% on n'exploite pas vraiment l'énergie et les expressions 00:19:13.310 --> 00:19:14.000 align:middle line:90% du public. 00:19:14.000 --> 00:19:16.220 align:middle line:90% Je le ressens clairement moi-même. 00:19:16.220 --> 00:19:19.220 align:middle line:84% Je viens de sortir mon livre "Girl Decoded" comme je l'ai dit. 00:19:19.220 --> 00:19:21.890 align:middle line:84% Et j'ai dû passer d'une tournée promotionnelle 00:19:21.890 --> 00:19:24.650 align:middle line:84% où j'étais censée voyager non-stop entre mars, avril, 00:19:24.650 --> 00:19:28.220 align:middle line:84% et mai, à toutes ces tournées et discussions 00:19:28.220 --> 00:19:28.910 align:middle line:90% virtuelles. 00:19:28.910 --> 00:19:32.840 align:middle line:84% Et c'est si différent parce qu'en personne, 00:19:32.840 --> 00:19:34.370 align:middle line:90% je peux voir le public. 00:19:34.370 --> 00:19:36.710 align:middle line:84% Je peux vous voir tous et je peux interpréter votre énergie. 00:19:36.710 --> 00:19:38.870 align:middle line:90% Et je peux personnaliser 00:19:38.870 --> 00:19:43.010 align:middle line:84% et adapter mon contenu en fonction de comment vous réagissez. 00:19:43.010 --> 00:19:46.190 align:middle line:84% Quand c'est virtuel, c'est souvent une conversation à sens unique 00:19:46.190 --> 00:19:49.010 align:middle line:84% ou du moins, j'ai l'impression que c'est une conversation à sens unique. 00:19:49.010 --> 00:19:51.750 align:middle line:84% Et je trouve que c'est vraiment difficile et troublant. 00:19:51.750 --> 00:19:55.820 align:middle line:84% Mais je pense qu'il y a moyen de changer cela. 00:19:55.820 --> 00:19:59.390 align:middle line:84% Et si nous intégrons l'IA émotionnelle, 00:19:59.390 --> 00:20:02.300 align:middle line:84% comme moyen de compiler les réactions du public, 00:20:02.300 --> 00:20:05.360 align:middle line:84% saisir toutes les expressions faciales de façon anonyme. 00:20:05.360 --> 00:20:08.070 align:middle line:84% Je n'ai pas besoin de voir les visages de tout le monde. 00:20:08.070 --> 00:20:11.120 align:middle line:84% En fait, je serais probablement submergée vu que je parle. 00:20:11.120 --> 00:20:14.510 align:middle line:84% Mais si je pouvais voir une trace moment par moment 00:20:14.510 --> 00:20:17.042 align:middle line:84% de la réponse positive ou négative que-- 00:20:17.042 --> 00:20:18.500 align:middle line:84% comment vous réagissez à ce contenu, 00:20:18.500 --> 00:20:20.420 align:middle line:84% ces informations cruciales 00:20:20.420 --> 00:20:22.670 align:middle line:84% me permettraient de m'adapter 00:20:22.670 --> 00:20:27.030 align:middle line:84% et d'avoir une idée du niveau d'engagement du public. 00:20:27.030 --> 00:20:28.900 align:middle line:84% Et je voulais vous montrer un exemple. 00:20:28.900 --> 00:20:31.390 align:middle line:90% C'est juste une réunion interne sur Zoom 00:20:31.390 --> 00:20:34.240 align:middle line:90% montrant les réactions de l'équipe. 00:20:34.240 --> 00:20:37.360 align:middle line:84% Et vous pouvez voir ici les réactions compilées. 00:20:37.360 --> 00:20:40.180 align:middle line:84% Bien sûr, il y a différents moyens de visualiser ces données, 00:20:40.180 --> 00:20:42.070 align:middle line:84% mais nous sommes capables de suivre tout le monde 00:20:42.070 --> 00:20:44.405 align:middle line:84% et nous pouvons compiler les sourires des gens, les réactions. 00:20:44.405 --> 00:20:46.030 align:middle line:84% Ils étaient en train de parler de-- cela 00:20:46.030 --> 00:20:49.960 align:middle line:84% date de début mars, au moment où la pandémie a éclaté. 00:20:49.960 --> 00:20:51.970 align:middle line:84% Et nous parlions de ce qui allait 00:20:51.970 --> 00:20:54.287 align:middle line:84% se passer et du télétravail. 00:20:54.287 --> 00:20:55.870 align:middle line:84% Et les gens partageaient leurs histoires. 00:20:55.870 --> 00:20:58.190 align:middle line:84% Et il y avait beaucoup d'empathie et de sourires. 00:20:58.190 --> 00:21:00.190 align:middle line:90% Nous pouvons les détecter. 00:21:00.190 --> 00:21:02.890 align:middle line:84% Comparons-les à une réunion ennuyeuse 00:21:02.890 --> 00:21:04.600 align:middle line:90% où personne ne réagit. 00:21:04.600 --> 00:21:06.230 align:middle line:90% Vous pouvez voir la différence. 00:21:06.230 --> 00:21:09.790 align:middle line:84% Et nous sommes en mesure de quantifier les données d'un engagement en temps réel, 00:21:09.790 --> 00:21:16.050 align:middle line:84% mais aussi de le faire après coup, en post-analyse aussi. 00:21:16.050 --> 00:21:18.800 align:middle line:84% De même, dans un environnement d'apprentissage en ligne, 00:21:18.800 --> 00:21:21.650 align:middle line:84% et si un enseignant pouvait mesurer l'engagement émotionnel 00:21:21.650 --> 00:21:24.920 align:middle line:84% de ses élèves, comme c'est le cas en personne, 00:21:24.920 --> 00:21:26.150 align:middle line:90% dans une salle de classe ? 00:21:26.150 --> 00:21:28.070 align:middle line:84% C'est ce qu'un bon prof fait, n'est-ce pas ? 00:21:28.070 --> 00:21:30.710 align:middle line:84% Vous observez l'attitude des étudiants 00:21:30.710 --> 00:21:33.710 align:middle line:84% et vous pouvez ensuite personnaliser l'expérience d'apprentissage. 00:21:33.710 --> 00:21:37.620 align:middle line:84% Et maximiser les résultats également. 00:21:37.620 --> 00:21:41.390 align:middle line:84% De même, elle peut être utilisée dans le domaine de la santé mentale. 00:21:41.390 --> 00:21:44.090 align:middle line:84% Aujourd'hui, quand vous rentrez dans un cabinet médical, 00:21:44.090 --> 00:21:46.403 align:middle line:84% on ne vous demande pas votre température 00:21:46.403 --> 00:21:48.320 align:middle line:84% ou on ne vous demande pas votre tension artérielle, 00:21:48.320 --> 00:21:49.970 align:middle line:90% on la prend tout simplement. 00:21:49.970 --> 00:21:51.890 align:middle line:84% Et si les médecins pouvaient évaluer 00:21:51.890 --> 00:21:53.930 align:middle line:84% objectivement comment vous vous sentez 00:21:53.930 --> 00:21:56.090 align:middle line:84% comme ils mesurent d'autres signes vitaux ? 00:21:56.090 --> 00:21:58.430 align:middle line:84% Malheureusement, la mesure de référence en matière de santé mentale 00:21:58.430 --> 00:22:01.230 align:middle line:84% se fait sur une échelle allant de 1 à 10-- 00:22:01.230 --> 00:22:02.840 align:middle line:90% à quel point êtes-vous déprimé ? 00:22:02.840 --> 00:22:04.160 align:middle line:90% A quel point êtes-vous suicidaire ? 00:22:04.160 --> 00:22:05.810 align:middle line:90% A quel point avez-vous mal ? 00:22:05.810 --> 00:22:08.780 align:middle line:84% Et nous pouvons intégrer l'IA émotionnelle et l'appliquer 00:22:08.780 --> 00:22:12.620 align:middle line:84% de manière à offrir des mesures objectives 00:22:12.620 --> 00:22:15.190 align:middle line:90% des maladies mentales. 00:22:15.190 --> 00:22:17.760 align:middle line:84% Un domaine qui me tient très à cœur, 00:22:17.760 --> 00:22:21.010 align:middle line:84% la toute première application de l'IA émotionnelle que j'ai explorée 00:22:21.010 --> 00:22:22.300 align:middle line:90% est l'autisme. 00:22:22.300 --> 00:22:24.760 align:middle line:84% Les personnes sur le spectre de l'autisme éprouvent de grosses difficultés 00:22:24.760 --> 00:22:28.780 align:middle line:84% à lire et à comprendre les signaux non-verbaux. 00:22:28.780 --> 00:22:32.620 align:middle line:84% Ils sont en particulier submergés par les expressions faciales. 00:22:32.620 --> 00:22:34.300 align:middle line:84% Et parfois, ils les évitent complètement. 00:22:34.300 --> 00:22:37.390 align:middle line:84% Ils évitent le contact visuel tout court. 00:22:37.390 --> 00:22:40.690 align:middle line:84% Nous travaillons donc en partenariat avec la société Brain Power. 00:22:40.690 --> 00:22:45.910 align:middle line:84% Ils utilisent des Google Glass et notre technologie pour aider les individus 00:22:45.910 --> 00:22:49.180 align:middle line:84% sur le spectre de l'autisme à apprendre ces signaux non-verbaux 00:22:49.180 --> 00:22:51.550 align:middle line:84% d'une manière très amusante et ludique 00:22:51.550 --> 00:22:56.200 align:middle line:84% Je vais donc vous montrer une petite vidéo le montrant. 00:22:56.200 --> 00:22:57.850 align:middle line:90% Qu'est-ce que tu vois sur l'écran ? 00:22:57.850 --> 00:22:59.090 align:middle line:90% Maman. 00:22:59.090 --> 00:23:02.128 align:middle line:84% Matthew Krieger, 8 ans, souffre d'autisme. 00:23:02.128 --> 00:23:04.170 align:middle line:84% Une grande partie des problèmes avec les autres enfants 00:23:04.170 --> 00:23:05.820 align:middle line:90% tient au fait qu'il se croit drôle. 00:23:05.820 --> 00:23:07.950 align:middle line:84% Et ne perçoit pas du tout qu'il ne l'est pas 00:23:07.950 --> 00:23:10.020 align:middle line:84% ou qu'ils sont agacés ou en colère. 00:23:10.020 --> 00:23:11.550 align:middle line:84% La mère de Matthew, Laura, l'a inscrit 00:23:11.550 --> 00:23:15.570 align:middle line:84% à un essai clinique qui est mené par Ned Sahin. 00:23:15.570 --> 00:23:20.010 align:middle line:84% Je veux savoir ce qu'il se passe dans le cerveau de quelqu'un 00:23:20.010 --> 00:23:21.270 align:middle line:90% souffrant d'autisme. 00:23:21.270 --> 00:23:24.600 align:middle line:84% Et il s'avère que les parents veulent le découvrir aussi. 00:23:24.600 --> 00:23:26.700 align:middle line:84% Tu marques des points quand tu regardes un instant, 00:23:26.700 --> 00:23:29.660 align:middle line:84% et quand tu regardes ailleurs et que tu regardes par ici à nouveau. 00:23:29.660 --> 00:23:32.910 align:middle line:84% La société de Sahin, Brain Power, utilise le logiciel d'Affectiva 00:23:32.910 --> 00:23:35.940 align:middle line:84% dans les programmes que Matthew voit à l'aide des Google Glass. 00:23:35.940 --> 00:23:37.950 align:middle line:84% Ces jeux tentent de l'aider à comprendre 00:23:37.950 --> 00:23:40.860 align:middle line:84% comment les expressions faciales correspondent à des émotions 00:23:40.860 --> 00:23:42.840 align:middle line:84% et à lui apprendre à détecter des signaux sociaux. 00:23:42.840 --> 00:23:45.300 align:middle line:84% Une des compétences clés dans la vie est la compréhension 00:23:45.300 --> 00:23:47.000 align:middle line:90% des émotions d'autrui. 00:23:47.000 --> 00:23:50.190 align:middle line:84% Et une autre est de les regarder 00:23:50.190 --> 00:23:51.510 align:middle line:90% quand ils parlent. 00:23:51.510 --> 00:23:54.750 align:middle line:84% Quand tu regardes ta maman et que ça devient vert, tu marques 00:23:54.750 --> 00:23:58.020 align:middle line:84% des points quand ça commence à devenir orange puis rouge, tu-- 00:23:58.020 --> 00:24:00.660 align:middle line:90% tu marques moins de points. 00:24:00.660 --> 00:24:01.698 align:middle line:90% Je te regarde. 00:24:01.698 --> 00:24:02.490 align:middle line:90% Tu me regardes. 00:24:02.490 --> 00:24:05.250 align:middle line:84% Quelques minutes plus tard, la différence dans le regard de Matthew 00:24:05.250 --> 00:24:06.780 align:middle line:90% émeut sa mère. 00:24:06.780 --> 00:24:09.200 align:middle line:90% J'ai envie de pleurer. 00:24:09.200 --> 00:24:09.700 align:middle line:90% Pourquoi ? 00:24:13.540 --> 00:24:19.340 align:middle line:84% Parce que quand tu me regardes, 00:24:19.340 --> 00:24:22.020 align:middle line:84% je m'aperçois que c'est la première fois 00:24:22.020 --> 00:24:25.230 align:middle line:84% parce que tu me regardes différemment. 00:24:25.230 --> 00:24:29.260 align:middle line:84% Ainsi, Brain Power a déployé environ 400 Google Glass 00:24:29.260 --> 00:24:33.400 align:middle line:84% munis de ce système dans des familles à travers les États-Unis. 00:24:33.400 --> 00:24:35.650 align:middle line:84% Et ils essayent de répondre à cette question précise-- nous voyons 00:24:35.650 --> 00:24:38.290 align:middle line:90% déjà des améliorations au niveau 00:24:38.290 --> 00:24:41.763 align:middle line:84% de la compréhension sociale et non-verbale des enfants 00:24:41.763 --> 00:24:43.180 align:middle line:84% quand ils portent les lunettes. 00:24:43.180 --> 00:24:47.410 align:middle line:84% La question est de savoir ce qu'il se passe quand ils les enlèvent. 00:24:47.410 --> 00:24:50.580 align:middle line:90% Est-ce que l'apprentissage se généralise ? 00:24:50.580 --> 00:24:53.592 align:middle line:84% Il y a aussi d'autres applications à cette technologie 00:24:53.592 --> 00:24:54.300 align:middle line:90% dans le domaine de la santé mentale. 00:24:54.300 --> 00:24:58.050 align:middle line:84% Par exemple, un système pour la détection précoce de la maladie de Parkinson. 00:24:58.050 --> 00:25:02.070 align:middle line:84% Erin Smith-- elle est maintenant étudiante à Stanford. 00:25:02.070 --> 00:25:05.370 align:middle line:84% Il y a longtemps, quand elle était au collège, 00:25:05.370 --> 00:25:08.550 align:middle line:84% elle nous a envoyé un e-mail disant qu'elle avait regardé 00:25:08.550 --> 00:25:12.240 align:middle line:84% un documentaire sur la maladie de Parkinson 00:25:12.240 --> 00:25:14.320 align:middle line:84% et qu'elle voulait utiliser notre technologie. 00:25:14.320 --> 00:25:15.450 align:middle line:90% Combien cela coûte-t-il ? 00:25:15.450 --> 00:25:20.187 align:middle line:84% Et je me souviens que notre responsable des ventes m'a demandé quoi dire. 00:25:20.187 --> 00:25:21.520 align:middle line:84% Elle ne peut pas se payer notre technologie. 00:25:21.520 --> 00:25:24.390 align:middle line:84% Alors, j'ai dit, donnez-la lui gratuitement. 00:25:24.390 --> 00:25:26.250 align:middle line:84% Qu'est-ce qu'elle va en faire de toutes les façons ? 00:25:26.250 --> 00:25:29.808 align:middle line:84% Et Erin a disparu pendant deux mois et est revenue. 00:25:29.808 --> 00:25:31.350 align:middle line:84% Elle s'était associée à la fondation Michael J. Fox 00:25:31.350 --> 00:25:36.120 align:middle line:84% et a créé ce système d'identification des biomarqueurs 00:25:36.120 --> 00:25:38.250 align:middle line:90% faciaux de la maladie de Parkinson. 00:25:38.250 --> 00:25:40.590 align:middle line:84% Et elle a continué à faire de la recherche. 00:25:40.590 --> 00:25:43.060 align:middle line:90% Une jeune femme très inspirante. 00:25:43.060 --> 00:25:45.090 align:middle line:84% Et je suis très fière que nous ayons joué 00:25:45.090 --> 00:25:47.190 align:middle line:90% un petit rôle dans cette histoire. 00:25:47.190 --> 00:25:50.490 align:middle line:84% Nous savons aussi qu'il existe des biomarqueurs faciaux et vocaux 00:25:50.490 --> 00:25:51.780 align:middle line:90% pour la dépression. 00:25:51.780 --> 00:25:56.040 align:middle line:84% Et des recherches sont faites afin de détecter les tendances suicidaires 00:25:56.040 --> 00:25:57.630 align:middle line:90% sur la base de ces signaux. 00:25:57.630 --> 00:26:00.570 align:middle line:84% Nous travaillons sur ces recherches 00:26:00.570 --> 00:26:05.960 align:middle line:84% au côté du professeur Steven Benoît et d'autres personnes. 00:26:05.960 --> 00:26:08.260 align:middle line:84% Mais cela soulève une question très importante, 00:26:08.260 --> 00:26:10.410 align:middle line:84% c'est-à-dire qu'il y a beaucoup d'applications 00:26:10.410 --> 00:26:13.320 align:middle line:84% de cette technologie, mais où fixer les limites ? 00:26:13.320 --> 00:26:16.470 align:middle line:84% Et je suis très passionnée par le concept 00:26:16.470 --> 00:26:20.460 align:middle line:84% du développement et du déploiement éthiques de l'IA. 00:26:20.460 --> 00:26:24.990 align:middle line:84% Il ne s'agit pas seulement de reconnaitre qu'elle peut avoir 00:26:24.990 --> 00:26:27.630 align:middle line:84% des impacts positifs, mais c'est aussi 00:26:27.630 --> 00:26:29.940 align:middle line:84% reconnaitre les moments où il peut y avoir de l'abus 00:26:29.940 --> 00:26:33.560 align:middle line:84% et des conséquences involontaires à cette technologie. 00:26:33.560 --> 00:26:35.310 align:middle line:84% Il y a quelques années, quand nous récoltions 00:26:35.310 --> 00:26:37.380 align:middle line:84% de l'argent pour l'entreprise, nous avons été contactés 00:26:37.380 --> 00:26:41.670 align:middle line:84% par une agence qui voulait nous donner beaucoup d'argent-- 00:26:41.670 --> 00:26:44.700 align:middle line:84% 40 millions de dollars à l'époque, ce qui représentait beaucoup d'argent 00:26:44.700 --> 00:26:47.150 align:middle line:90% pour notre petite start-up-- 00:26:47.150 --> 00:26:49.680 align:middle line:84% à condition de pouvoir utiliser la technologie 00:26:49.680 --> 00:26:52.500 align:middle line:84% pour la détection de mensonges et la surveillance. 00:26:52.500 --> 00:26:54.690 align:middle line:84% Ce qui ne correspondait pas du tout à nos valeurs, qui visent 00:26:54.690 --> 00:26:58.020 align:middle line:84% à respecter la vie privée et le consentement. 00:26:58.020 --> 00:27:02.020 align:middle line:84% Et reconnaitre, qu'en tant qu'utilisateur, 00:27:02.020 --> 00:27:03.730 align:middle line:90% ces données sont très personnelles. 00:27:03.730 --> 00:27:05.940 align:middle line:90% Et si je les partage, 00:27:05.940 --> 00:27:07.890 align:middle line:84% je dois savoir exactement qui les utilise, 00:27:07.890 --> 00:27:12.370 align:middle line:84% la manière dont il les utilise et ce que j'y gagne. 00:27:12.370 --> 00:27:14.040 align:middle line:84% Nous avons donc passé du temps à réfléchir 00:27:14.040 --> 00:27:15.780 align:middle line:90% à cette asymétrie du pouvoir-- 00:27:15.780 --> 00:27:17.580 align:middle line:84% Qu'est-ce que je reçois en retour 00:27:17.580 --> 00:27:20.307 align:middle line:84% quand je partage ces données très personnelles ? 00:27:20.307 --> 00:27:22.390 align:middle line:84% Ce qui est vraiment cool, c'est que l'industrie 00:27:22.390 --> 00:27:25.440 align:middle line:84% prend l'initiative de définir de meilleures 00:27:25.440 --> 00:27:26.820 align:middle line:90% règles et lignes de conduite. 00:27:26.820 --> 00:27:30.600 align:middle line:84% Nous faisons donc partie d'un consortium, le "Partnership on AI". 00:27:30.600 --> 00:27:32.460 align:middle line:84% Il a été lancé par les géants de la technologie-- 00:27:32.460 --> 00:27:35.430 align:middle line:84% Amazon, Google, Facebook, Microsoft. 00:27:35.430 --> 00:27:39.120 align:middle line:84% Et ils ont depuis invité un certain nombre de start-up 00:27:39.120 --> 00:27:40.440 align:middle line:90% comme Affectiva. 00:27:40.440 --> 00:27:44.880 align:middle line:84% Mais aussi d'autres parties prenantes comme ACLU et Amnesty International. 00:27:44.880 --> 00:27:47.760 align:middle line:84% Et je fais partie du comité FATE (JRTE), 00:27:47.760 --> 00:27:51.090 align:middle line:84% un acronyme pour une IA Juste, Responsable,Transparente et Équitable. 00:27:51.090 --> 00:27:55.290 align:middle line:84% Et notre but est de mettre en oeuvre des lignes directrices 00:27:55.290 --> 00:27:57.227 align:middle line:90% autour d'une réglementation réfléchie. 00:27:57.227 --> 00:27:59.310 align:middle line:84% Nous avons besoin d'une réglementation, mais elle doit être bien réfléchie. 00:27:59.310 --> 00:28:02.100 align:middle line:84% Nous ne voulons pas complètement étouffer l'innovation, 00:28:02.100 --> 00:28:03.600 align:middle line:84% mais en même temps, nous avons vraiment besoin 00:28:03.600 --> 00:28:06.030 align:middle line:84% de réfléchir aux limites à fixer 00:28:06.030 --> 00:28:11.910 align:middle line:84% et de réfléchir au visage de cette règlementation. 00:28:11.910 --> 00:28:14.240 align:middle line:90% Au final, ma mission 00:28:14.240 --> 00:28:17.570 align:middle line:84% est d'humaniser la technologie avant qu'elle ne nous déshumanise. 00:28:17.570 --> 00:28:21.080 align:middle line:84% Et je voudrais que nous redirigions notre attention sur l'humain, 00:28:21.080 --> 00:28:23.200 align:middle line:90% et pas sur l'artificiel. 00:28:23.200 --> 00:28:27.290 align:middle line:84% Et pour conclure, si vous voulez en savoir plus 00:28:27.290 --> 00:28:29.750 align:middle line:84% sur l'IA émotionnelle, ses applications 00:28:29.750 --> 00:28:34.280 align:middle line:84% et ses implications, j'offre un livre dédicacé 00:28:34.280 --> 00:28:37.520 align:middle line:84% aux trois premières personnes qui m'écrivent sur les réseaux sociaux-- 00:28:37.520 --> 00:28:41.350 align:middle line:84% LinkedIn, Facebook, Twitter, Instagram-- en utilisant les hashtags 00:28:41.350 --> 00:28:45.860 align:middle line:84% #LIVEWORX et #GIRLDECODED avec un commentaire ou une question 00:28:45.860 --> 00:28:47.970 align:middle line:90% sur cette présentation. 00:28:47.970 --> 00:28:50.970 align:middle line:90% Je vous remercie. 00:28:50.970 --> 00:28:52.470 align:middle line:90% [MUSIQUE LIVEWORX] 00:28:52.470 --> 00:28:54.500 align:middle line:84% Merci de nous avoir rejoints, Dr el Kaliouby. 00:28:54.500 --> 00:28:56.690 align:middle line:90% Quelle présentation incroyable. 00:28:56.690 --> 00:29:00.000 align:middle line:84% Cela conclut donc notre troisième session de la journée. 00:29:00.000 --> 00:29:01.460 align:middle line:90% La prochaine session décrira 00:29:01.460 --> 00:29:05.240 align:middle line:84% comment les entreprises tirent parti des CAD et PLM en mode SAAS 00:29:05.240 --> 00:29:07.550 align:middle line:84% et de la réalité augmentée comme outils clé 00:29:07.550 --> 00:29:11.270 align:middle line:84% pour survivre aux perturbations et accueillir cette nouvelle réalité. 00:29:11.270 --> 00:29:13.160 align:middle line:84% Nous revenons dans un instant après une courte pause. 00:29:13.160 --> 00:29:16.510 align:middle line:90% [MUSIQUE LIVEWORX]