WEBVTT 00:00:00.000 --> 00:00:02.640 align:middle line:90% [LIVEWORX TITELMUSIK] 00:00:02.640 --> 00:00:05.100 align:middle line:90% Willkommen zurück bei LiveWorx 2020. 00:00:05.100 --> 00:00:07.200 align:middle line:84% Mein Name ist Andia Winslow und ich bin Ihre Gastgeberin 00:00:07.200 --> 00:00:09.420 align:middle line:90% für den heutigen Livestream. 00:00:09.420 --> 00:00:10.920 align:middle line:84% Wir haben bereits von einigen der 00:00:10.920 --> 00:00:12.810 align:middle line:84% besten Vordenker im Bereich der Technologie 00:00:12.810 --> 00:00:14.580 align:middle line:90% aus der Industriewelt gehört. 00:00:14.580 --> 00:00:17.730 align:middle line:84% Wenn Sie keine Gelegenheit hatten, an den vorherigen Sessions teilzunehmen, 00:00:17.730 --> 00:00:21.090 align:middle line:84% sollten Sie sich diese unbedingt im LiveWorx On-Demand-Katalog ansehen, 00:00:21.090 --> 00:00:24.180 align:middle line:84% der Ihnen ab heute bis zum 19. Juni zur Verfügung steht. 00:00:24.180 --> 00:00:27.810 align:middle line:84% Diese Online-Bibliothek enthält über 100 zusätzliche Sessions 00:00:27.810 --> 00:00:29.340 align:middle line:90% mit großartigen Inhalten. 00:00:29.340 --> 00:00:31.800 align:middle line:84% Behalten Sie auch die nächste E-Mail im Auge, 00:00:31.800 --> 00:00:35.800 align:middle line:84% um ein ganzes Jahr lang Zugang zu den Inhalten in unserem Archiv zu erhalten. 00:00:35.800 --> 00:00:38.220 align:middle line:84% Lassen Sie uns nun mit unserer nächsten Session anfangen – 00:00:38.220 --> 00:00:40.770 align:middle line:84% künstliche emotionale Intelligenz oder emotionale KI, 00:00:40.770 --> 00:00:44.100 align:middle line:84% was das ist und warum es wichtig ist. 00:00:44.100 --> 00:00:48.810 align:middle line:84% Dr. Rana el Kaliouby ist die Geschäftsführerin und Mitbegründerin von Affectiva. 00:00:48.810 --> 00:00:52.890 align:middle line:84% Aus dem MIT Media Lab hervorgegangen, hat Affectiva die emotionale KI 00:00:52.890 --> 00:00:54.750 align:middle line:90% erschaffen und definiert. 00:00:54.750 --> 00:00:57.630 align:middle line:84% Eine Software, die nuancierte menschliche Emotionen 00:00:57.630 --> 00:01:01.740 align:middle line:84% und komplexe kognitive Zustände von Gesicht und Stimme ablesen kann. 00:01:01.740 --> 00:01:05.099 align:middle line:84% Dr. el Kaliouby ist Pionierin der emotionalen KI und Autorin von 00:01:05.099 --> 00:01:07.680 align:middle line:84% Girl Decoded: A Scientist's Quest 00:01:07.680 --> 00:01:10.080 align:middle line:84% to Reclaim our Humanity by Bringing Emotional 00:01:10.080 --> 00:01:12.240 align:middle line:90% Intelligence to Technology. 00:01:12.240 --> 00:01:17.690 align:middle line:84% Ich freue mich sehr, Dr. Rana el Kaliouby willkommen zu heißen. 00:01:17.690 --> 00:01:18.740 align:middle line:90% Danke, Andia. 00:01:18.740 --> 00:01:22.020 align:middle line:84% Es ist mir eine Freude, heute hier bei Ihnen zu sein. 00:01:22.020 --> 00:01:24.770 align:middle line:84% Meine Mission ist es, die Technologie menschlicher zu machen, 00:01:24.770 --> 00:01:29.180 align:middle line:84% bevor sie uns entmenschlicht, indem wir emotionale Intelligenz 00:01:29.180 --> 00:01:32.900 align:middle line:84% und Empathie in unsere Geräte und Technologien einbauen. 00:01:32.900 --> 00:01:35.420 align:middle line:84% Und dabei ist es mein Ziel, sowohl 00:01:35.420 --> 00:01:38.690 align:middle line:84% Mensch-Computer-Schnittstellen als auch Verbindungen 00:01:38.690 --> 00:01:42.100 align:middle line:90% von Mensch zu Mensch neu zu bedenken. 00:01:42.100 --> 00:01:45.250 align:middle line:84% Wir wurden alle in dieses Universum katapultiert, 00:01:45.250 --> 00:01:46.479 align:middle line:90% in dem wir virtuell arbeiten. 00:01:46.479 --> 00:01:49.210 align:middle line:84% So stellen wir Kontakt zu unseren Kollegen her. 00:01:49.210 --> 00:01:50.800 align:middle line:84% Wir lernen online, also 00:01:50.800 --> 00:01:52.420 align:middle line:90% meine Kinder lernen so. 00:01:52.420 --> 00:01:55.870 align:middle line:84% Und wir stellen virtuell Kontakt zu Freunden und Familie her. 00:01:55.870 --> 00:01:57.680 align:middle line:90% Aber irgendetwas fehlt. 00:01:57.680 --> 00:01:59.410 align:middle line:90% Es ist nicht ganz dasselbe. 00:01:59.410 --> 00:02:03.610 align:middle line:84% Und das ist nämlich das Konzept all unserer nonverbalen Signale, 00:02:03.610 --> 00:02:07.180 align:middle line:84% die in diesen virtuellen Umgebungen fehlen. 00:02:07.180 --> 00:02:11.570 align:middle line:84% Die KI übernimmt Rollen, die sonst von Menschen ausgeübt wurden, 00:02:11.570 --> 00:02:13.990 align:middle line:84% wie etwa Unterstützung beim Fahren unserer Autos, 00:02:13.990 --> 00:02:17.620 align:middle line:84% Unterstützung im Gesundheitswesen, Hilfe zu mehr Produktivität, 00:02:17.620 --> 00:02:21.310 align:middle line:84% und vielleicht sogar die Einstellung Ihres nächsten Kollegen. 00:02:21.310 --> 00:02:25.240 align:middle line:84% Das Problem ist, dass wir einen neuen Gesellschaftsvertrag zwischen Menschen 00:02:25.240 --> 00:02:26.380 align:middle line:90% und der KI brauchen. 00:02:26.380 --> 00:02:30.130 align:middle line:84% Einen, der auf gegenseitigem und reziprokem Vertrauen beruht. 00:02:30.130 --> 00:02:32.200 align:middle line:84% Natürlich müssen wir Vertrauen in die KI haben, 00:02:32.200 --> 00:02:34.450 align:middle line:84% und es gibt eine Menge Gespräche zu diesem Thema. 00:02:34.450 --> 00:02:40.030 align:middle line:84% Aber noch viel wichtiger, auch die KI muss Vertrauen in uns Menschen haben. 00:02:40.030 --> 00:02:43.060 align:middle line:84% Immerhin haben wir nicht immer eine perfekte Erfolgsgeschichte, 00:02:43.060 --> 00:02:46.420 align:middle line:84% wenn es darum geht, das Richtige zu tun. 00:02:46.420 --> 00:02:49.480 align:middle line:84% Leider gibt es bereits zahlreiche Beispiele, die zeigen, dass 00:02:49.480 --> 00:02:51.650 align:middle line:90% das Vertrauen fehlgeschlagen ist. 00:02:51.650 --> 00:02:56.500 align:middle line:84% Ein Twitter-Chatbot, der über Nacht rassistisch wurde, 00:02:56.500 --> 00:02:59.470 align:middle line:84% selbstfahrende Autos, die in tödliche Unfälle verwickelt sind, 00:02:59.470 --> 00:03:03.040 align:middle line:84% und Gesichtserkennungs-Technologien, die bestimmte Bevölkerungsschichten 00:03:03.040 --> 00:03:05.230 align:middle line:90% diskriminieren – 00:03:05.230 --> 00:03:08.740 align:middle line:90% besonders farbige Frauen. 00:03:08.740 --> 00:03:13.090 align:middle line:84% Um das Vertrauen wiederherzustellen, müssen wir schauen, wie Menschen es machen. 00:03:13.090 --> 00:03:15.160 align:middle line:84% Wir treffen jeden Tag tausende von Entscheidungen, 00:03:15.160 --> 00:03:17.150 align:middle line:84% bei denen wir einander vertrauen müssen, 00:03:17.150 --> 00:03:21.329 align:middle line:84% sowohl in unseren persönlichen als auch in unseren beruflichen Beziehungen. 00:03:21.329 --> 00:03:24.060 align:middle line:84% Manchmal beruht dieses Vertrauen auf Juristenjargon 00:03:24.060 --> 00:03:25.890 align:middle line:90% und Geschäftsbedingungen. 00:03:25.890 --> 00:03:30.360 align:middle line:84% Aber viel öfter beruht es auf den impliziten, nonverbalen, subtilen 00:03:30.360 --> 00:03:33.930 align:middle line:84% Hinweisen, die wir miteinander, austauschen, wobei Empathie 00:03:33.930 --> 00:03:36.450 align:middle line:84% im Zentrum des Aufbaus dieses Vertrauens steht. 00:03:36.450 --> 00:03:38.970 align:middle line:84% Die Technologie hat heutzutage einen hohen IQ – 00:03:38.970 --> 00:03:42.690 align:middle line:84% eine Menge kognitive Intelligenz, aber keinen EQ – 00:03:42.690 --> 00:03:44.410 align:middle line:90% keine emotionale Intelligenz. 00:03:44.410 --> 00:03:47.340 align:middle line:90% Das ist die fehlende Komponente. 00:03:47.340 --> 00:03:50.950 align:middle line:84% Ich habe mich also während meiner gesamten Karriere gefragt, 00:03:50.950 --> 00:03:54.990 align:middle line:84% was wäre, wenn Technologien menschliche Emotionen genauso 00:03:54.990 --> 00:03:56.942 align:middle line:90% identifizieren könnten wie wir? 00:03:56.942 --> 00:03:58.900 align:middle line:84% Was wäre, wenn Ihr Computer zwischen einem 00:03:58.900 --> 00:04:01.750 align:middle line:84% Lächeln und einem Grinsen unterscheiden könnte? 00:04:01.750 --> 00:04:03.890 align:middle line:84% Beide betreffen die untere Gesichtshälfte, 00:04:03.890 --> 00:04:06.770 align:middle line:84% haben aber sehr unterschiedliche Bedeutungen. 00:04:06.770 --> 00:04:11.690 align:middle line:84% Wie können wir also eine KI bauen, die Menschen versteht? 00:04:11.690 --> 00:04:14.570 align:middle line:84% Um das zu erreichen, muss man schauen, wie es der Mensch macht. 00:04:14.570 --> 00:04:18.320 align:middle line:84% Nur 7 % davon, wie wir unseren Gemütszustand kommunizieren, 00:04:18.320 --> 00:04:21.760 align:middle line:84% beruht auf der von uns genutzten Wortwahl. 00:04:21.760 --> 00:04:26.960 align:middle line:84% 93 % sind nonverbal, aufgeteilt auf unsere Mimik 00:04:26.960 --> 00:04:27.950 align:middle line:90% und Gestik – 00:04:27.950 --> 00:04:30.420 align:middle line:90% Davon mache ich viel – 00:04:30.420 --> 00:04:34.040 align:middle line:84% und 38 % stimmliche Intonation, wie schnell 00:04:34.040 --> 00:04:37.640 align:middle line:84% Sie sprechen, wie viel Energie Sie in der Stimme haben. 00:04:37.640 --> 00:04:40.080 align:middle line:84% Einen Großteil meiner Karriere habe ich mich mit dem Gesicht beschäftigt. 00:04:40.080 --> 00:04:44.240 align:middle line:84% Es ist eine sehr machtvolle Leinwand für die Kommunikation von menschlichen Emotionen. 00:04:44.240 --> 00:04:49.740 align:middle line:84% Die Wissenschaft der emotionalen Gesichtsausdrücke gibt es bereits seit über 200 Jahren. 00:04:49.740 --> 00:04:52.700 align:middle line:84% Dieser Mann, Duchenne, hat unsere Gesichtsmuskeln 00:04:52.700 --> 00:04:57.740 align:middle line:84% elektrisch stimuliert, um zu kartieren, wie sich die Gesichtsmuskulatur bewegt. 00:04:57.740 --> 00:05:00.790 align:middle line:84% Das machen wir zum Glück nicht mehr. 00:05:00.790 --> 00:05:04.740 align:middle line:84% Und dann haben Paul Ekman und sein Team in den späten 70ern 00:05:04.740 --> 00:05:07.770 align:middle line:84% das Facial Action Coding System veröffentlicht – 00:05:07.770 --> 00:05:11.760 align:middle line:84% eine objektive Methode, mit der jede Bewegung der Gesichtsmuskeln 00:05:11.760 --> 00:05:13.960 align:middle line:84% mit einer Action Unit, einem Code, in Verbindung gebracht wurde. 00:05:13.960 --> 00:05:16.650 align:middle line:84% Also zum Beispiel, wenn Sie lachen – probieren Sie es mit mir aus – 00:05:16.650 --> 00:05:19.800 align:middle line:84% wenn Sie lachen, spannen Sie den Musculus Zygomaticus an, 00:05:19.800 --> 00:05:24.180 align:middle line:84% und das ist im Prinzip das Ziehen an der Ecke der Lippen oder Action Unit 12. 00:05:24.180 --> 00:05:28.210 align:middle line:84% Wenn Sie die Stirn runzeln, ist das Action Unit 4, 00:05:28.210 --> 00:05:29.910 align:middle line:90% es ist das Runzeln der Stirn. 00:05:29.910 --> 00:05:32.310 align:middle line:84% Und das ist typischerweise eine Indikation für eine negative Emotion 00:05:32.310 --> 00:05:36.080 align:middle line:90% wie Verwirrung oder Ärger. 00:05:36.080 --> 00:05:39.530 align:middle line:84% Es gibt etwa 45 dieser Gesichtsmuskeln und 00:05:39.530 --> 00:05:42.290 align:middle line:84% es braucht etwa 100 Stunden Training, 00:05:42.290 --> 00:05:47.090 align:middle line:84% um ein zertifizierter FACS-Codierer oder Gesichtsleser zu werden – 00:05:47.090 --> 00:05:49.790 align:middle line:84% sehr arbeitsaufwendig und sehr zeitintensiv. 00:05:49.790 --> 00:05:51.650 align:middle line:84% Und das Kodieren jeder Videominute 00:05:51.650 --> 00:05:54.140 align:middle line:84% dauert etwa fünf Minuten, in denen man sich das Video 00:05:54.140 --> 00:05:56.890 align:middle line:84% im Zeitraffer ansieht und sagt, oh, aha, ich sehe ein, 00:05:56.890 --> 00:05:59.570 align:middle line:84% Sie wissen schon, eine gehobene Augenbraue oder ein Schielen. 00:05:59.570 --> 00:06:01.040 align:middle line:84% Das müssen wir nicht mehr tun. 00:06:01.040 --> 00:06:04.370 align:middle line:84% Stattdessen nutzen wir Computer und maschinelles Lernen und 00:06:04.370 --> 00:06:07.670 align:middle line:84% Deep Learning, um automatisch Algorithmen zu trainieren, 00:06:07.670 --> 00:06:10.720 align:middle line:90% die diese Gesichtsausdrücke erkennen. 00:06:10.720 --> 00:06:13.450 align:middle line:84% Wir nutzen hunderttausende Beispiele von Menschen, 00:06:13.450 --> 00:06:17.140 align:middle line:84% die lachen und grinsen und ihre Augenbrauen anheben, 00:06:17.140 --> 00:06:18.670 align:middle line:90% um diese Algorithmen trainieren. 00:06:18.670 --> 00:06:23.290 align:middle line:84% Und das Deep Learning Netzwerk ist in der Lage herauszudestillieren, 00:06:23.290 --> 00:06:25.480 align:middle line:84% was alle diese Lächeln gemeinsam haben, 00:06:25.480 --> 00:06:29.710 align:middle line:84% was all das Stirnrunzeln gemein hat, und so lernt es. 00:06:29.710 --> 00:06:32.320 align:middle line:84% Um das zu vereinfachen, ist der erste Schritt in diesem Prozess, 00:06:32.320 --> 00:06:34.930 align:middle line:84% zu triangulieren wo das Gesicht ist, 00:06:34.930 --> 00:06:39.130 align:middle line:84% und Markierungen zu finden wie Ihre Augenbrauen, Ihren Mund 00:06:39.130 --> 00:06:40.240 align:middle line:90% oder Ihre Nase. 00:06:40.240 --> 00:06:43.750 align:middle line:84% Und dann füttern Sie diese Region in ein Deep Neural Netzwerk, 00:06:43.750 --> 00:06:46.300 align:middle line:84% das in der Lage ist herauszukristallisieren, welche Ausdrücke auf dem Gesicht 00:06:46.300 --> 00:06:49.450 align:middle line:84% stattfinden, und kann diese dann mit einer Reihe 00:06:49.450 --> 00:06:51.760 align:middle line:84% emotionaler und kognitiver Zustände in Verbindung bringen. 00:06:51.760 --> 00:06:55.090 align:middle line:84% Alles von Freude, Überraschung Ärger und Ekel, 00:06:55.090 --> 00:06:58.720 align:middle line:84% bis hin zu komplexeren Zuständen wie Müdigkeit, Aufmerksamkeit, 00:06:58.720 --> 00:07:02.470 align:middle line:84% kognitive Überlastung, Verwirrung und mehr. 00:07:02.470 --> 00:07:04.540 align:middle line:84% In unserer Arbeit in den letzten Jahren 00:07:04.540 --> 00:07:08.260 align:middle line:84% haben wir das weltweit größte Archiv von Emotionen angesammelt. 00:07:08.260 --> 00:07:11.680 align:middle line:84% Wir haben 9,5 Millionen Videos von Gesichtern gesammelt – 00:07:11.680 --> 00:07:13.930 align:middle line:84% mit Einverständniserklärung und Zustimmung jedes Einzelnen – 00:07:13.930 --> 00:07:16.280 align:middle line:84% in 90 Ländern auf der ganzen Welt. 00:07:16.280 --> 00:07:19.900 align:middle line:84% Das sind in etwa 5 Milliarden Videobilder von Gesichtern. 00:07:19.900 --> 00:07:22.450 align:middle line:84% Das ist mit Abstand das größte Archiv 00:07:22.450 --> 00:07:25.090 align:middle line:84% von tatsächlichen emotionalen Reaktionen, das es gibt. 00:07:25.090 --> 00:07:27.280 align:middle line:84% Und diese Daten nutzen wir, um unsere Algorithmen zu 00:07:27.280 --> 00:07:30.690 align:middle line:90% trainieren und zu validieren. 00:07:30.690 --> 00:07:33.800 align:middle line:84% Es gibt so viele Anwendungsgebiete für diese Technologie, 00:07:33.800 --> 00:07:37.340 align:middle line:90% die ganze Branchen verwandelt. 00:07:37.340 --> 00:07:39.980 align:middle line:84% Meine große Vision ist es, dass wir in den nächsten Jahren 00:07:39.980 --> 00:07:43.159 align:middle line:84% sehen werden, wie die emotionale KI 00:07:43.159 --> 00:07:44.900 align:middle line:90% zur de facto Mensch-Maschinen-Schnittstelle wird. 00:07:44.900 --> 00:07:47.810 align:middle line:84% Wir würden also im Prinzip mit unseren Geräten interagieren, 00:07:47.810 --> 00:07:50.150 align:middle line:84% genauso wie wir miteinander interagieren würden. 00:07:50.150 --> 00:07:51.260 align:middle line:90% Mittels Konversation. 00:07:51.260 --> 00:07:53.600 align:middle line:84% Das sehen wir jetzt schon bei dialogorientierten Geräten 00:07:53.600 --> 00:07:55.550 align:middle line:90% wie Alexa und Siri. 00:07:55.550 --> 00:07:56.540 align:middle line:90% Mittels Wahrnehmung. 00:07:56.540 --> 00:07:58.520 align:middle line:84% Zur Erinnerung, wir sehen bereits Geräte, 00:07:58.520 --> 00:08:00.530 align:middle line:90% die über Kameras verfügen. 00:08:00.530 --> 00:08:04.070 align:middle line:84% Aber vielleicht am wichtigsten, mittels Empathie und 00:08:04.070 --> 00:08:05.550 align:middle line:90% emotionaler Intelligenz. 00:08:05.550 --> 00:08:06.800 align:middle line:84% Es gibt eine Menge Anwendungsmöglichkeiten. 00:08:06.800 --> 00:08:09.120 align:middle line:84% Ich konzentriere mich nur auf ein paar davon. 00:08:09.120 --> 00:08:11.420 align:middle line:84% Bei der ersten Anwendung, geht es darum zu quantifizieren, 00:08:11.420 --> 00:08:14.960 align:middle line:84% wie Konsumenten emotional von den Produkten und Marken um sie herum 00:08:14.960 --> 00:08:16.730 align:middle line:90% angesprochen werden. 00:08:16.730 --> 00:08:20.240 align:middle line:84% Das funktioniert, indem wir Umfragen an Leute schicken 00:08:20.240 --> 00:08:22.710 align:middle line:84% und sie bitten, einen Teil Content anzusehen. 00:08:22.710 --> 00:08:26.120 align:middle line:84% Es könnte ein Online-Werbevideo sein, es könnte eine Filmvorschau sein, 00:08:26.120 --> 00:08:30.380 align:middle line:84% es könnte eine TV-Sendung sein, es könnten Lerninhalte sein. 00:08:30.380 --> 00:08:32.299 align:middle line:84% Aber die Idee ist, dass wir die emotionale Verbindung 00:08:32.299 --> 00:08:35.510 align:middle line:84% und die emotionale Antwort, die Leute auf diese Inhalte haben, 00:08:35.510 --> 00:08:37.789 align:middle line:90% erfassen wollen. 00:08:37.789 --> 00:08:39.990 align:middle line:84% Wir haben die Leute gebeten, ihre Kameras anzuschalten – 00:08:39.990 --> 00:08:42.182 align:middle line:84% Zustimmung und Einverständnis sind äußerst wichtig – 00:08:42.182 --> 00:08:44.390 align:middle line:84% und dann sind wir in der Lage, diese Reaktionen von Moment zu Moment 00:08:44.390 --> 00:08:46.710 align:middle line:90% einzufangen. 00:08:46.710 --> 00:08:52.170 align:middle line:84% Unsere Technologie wird von 25 % der Fortune Global 500 genutzt 00:08:52.170 --> 00:08:55.080 align:middle line:84% und auch von führenden Marktforschungsinstituten, 00:08:55.080 --> 00:08:59.400 align:middle line:84% die unsere Technologie nutzen, um die emotionalen Reaktionen, 00:08:59.400 --> 00:09:02.898 align:middle line:84% die Konsumenten und Zuschauer auf ihre Inhalte haben, zu quantifizieren. 00:09:02.898 --> 00:09:04.440 align:middle line:84% Ich dachte, es wäre lustig, Ihnen eines 00:09:04.440 --> 00:09:08.580 align:middle line:84% der Werbevideos zu zeigen, die wir getestet haben, 00:09:08.580 --> 00:09:11.200 align:middle line:84% und wir haben die Erlaubnis, dies öffentlich zu zeigen. 00:09:11.200 --> 00:09:12.250 align:middle line:90% Schauen wir es also zusammen an. 00:09:12.250 --> 00:09:15.666 align:middle line:90% [MUSIK - TONY DALLARA, "COME PRIMA"] 00:09:18.106 --> 00:09:21.522 align:middle line:90% [ITALIENISCHER GESANG] 00:10:13.124 --> 00:10:16.390 align:middle line:90% Ah, Mama war zuerst da. 00:10:16.390 --> 00:10:21.380 align:middle line:84% Wir haben bis heute etwa 50.000 Werbeanzeigen weltweit getestet. 00:10:21.380 --> 00:10:27.520 align:middle line:84% Und genau diese Werbung ist in den obersten 10 % 00:10:27.520 --> 00:10:30.760 align:middle line:84% all dieser Anzeigen, im neunzigsten Perzentil. 00:10:30.760 --> 00:10:34.060 align:middle line:84% Sie spricht emotional sehr stark an, was 00:10:34.060 --> 00:10:36.040 align:middle line:84% sich in unserer Punktzahl Ausdruckskraft widerspiegelt. 00:10:36.040 --> 00:10:37.570 align:middle line:90% Sie sorgt für jede Menge Lächeln. 00:10:37.570 --> 00:10:40.960 align:middle line:84% Und Sie können hier die Kurve der Lächeln von Moment zu Moment sehen, 00:10:40.960 --> 00:10:43.660 align:middle line:84% für jeden, der diese Werbeanzeige gesehen hat 00:10:43.660 --> 00:10:46.400 align:middle line:84% und von dem wir Daten aufnehmen konnten. 00:10:46.400 --> 00:10:48.710 align:middle line:84% Was bei dieser Werbeanzeige besonders faszinierend ist, 00:10:48.710 --> 00:10:51.410 align:middle line:84% ist, wenn Sie einen Vergleich anstellen zwischen dem ersten Mal, dass Leute sie gesehen haben, 00:10:51.410 --> 00:10:53.300 align:middle line:84% das ist die durchgezogene grüne Linie, 00:10:53.300 --> 00:10:55.130 align:middle line:84% und dem zweiten Mal, dass Leute sie gesehen haben, 00:10:55.130 --> 00:10:57.050 align:middle line:84% das ist die gepunktete grüne Linie. 00:10:57.050 --> 00:11:00.140 align:middle line:84% Sie können tatsächlich sehen, dass sich die Leute an die Anzeige erinnern. 00:11:00.140 --> 00:11:02.420 align:middle line:84% Sie antizipieren, wann es wirklich lustig ist, 00:11:02.420 --> 00:11:05.420 align:middle line:84% und sie lachen schon, bevor die Szene überhaupt beginnt, 00:11:05.420 --> 00:11:07.640 align:middle line:84% und das ist genau das, was Sie möchten. 00:11:07.640 --> 00:11:09.920 align:middle line:84% Und noch wichtiger, wir nehmen die Zuschauer mit 00:11:09.920 --> 00:11:12.050 align:middle line:84% auf eine emotionale Reise, die in einer sehr positiven 00:11:12.050 --> 00:11:15.650 align:middle line:84% Reaktion am Ende gipfelt, die mit der Enthüllung 00:11:15.650 --> 00:11:16.700 align:middle line:90% der Marke zusammenfällt. 00:11:16.700 --> 00:11:19.280 align:middle line:84% Und wir wissen aus unserer Forschung, 00:11:19.280 --> 00:11:22.990 align:middle line:84% dass diese Arten von Messungen sehr positiv sind. 00:11:22.990 --> 00:11:25.020 align:middle line:84% Ich liebe dieses spezielle Beispiel, weil es aufzeigt, 00:11:25.020 --> 00:11:29.130 align:middle line:84% wie Marken wie Coca-Cola und Unilever unsere Technologie 00:11:29.130 --> 00:11:32.820 align:middle line:84% nutzen, um ihre Onlinewerbung wirklich voranzubringen und 00:11:32.820 --> 00:11:36.720 align:middle line:84% inklusiver und progressiver zu werden. 00:11:36.720 --> 00:11:39.780 align:middle line:84% Das müssen sie aber auf eine sehr durchdachte Art machen. 00:11:39.780 --> 00:11:42.750 align:middle line:84% Und sie sind in der Lage, diese unterbewussten, instinktiven Reaktionen 00:11:42.750 --> 00:11:45.830 align:middle line:90% auf ihre Werbung einzufangen. 00:11:45.830 --> 00:11:48.800 align:middle line:84% Wir wissen auch, durch die viele Arbeit, die wir mit diesen Marken gemacht haben, 00:11:48.800 --> 00:11:51.650 align:middle line:84% bei der wir die emotionalen Reaktionen mit dem 00:11:51.650 --> 00:11:54.860 align:middle line:84% tatsächlichen Konsumentenverhalten korreliert haben, dass diese Art von 00:11:54.860 --> 00:11:58.460 align:middle line:84% emotionaler Reise und positiven emotionalen Reaktionen eine 00:11:58.460 --> 00:12:00.620 align:middle line:84% sehr hohe Korrelation mit Dingen 00:12:00.620 --> 00:12:03.800 align:middle line:84% wie Umsatzsteigerung, Kaufabsicht und Vitalität haben. 00:12:06.790 --> 00:12:09.910 align:middle line:84% Und da wir weltweit 50.000 Werbeanzeigen getestet haben, 00:12:09.910 --> 00:12:12.280 align:middle line:90% können wir Maßstäbe erstellen. 00:12:12.280 --> 00:12:14.680 align:middle line:84% Wir wissen zum Beispiel, dass in den USA 00:12:14.680 --> 00:12:19.070 align:middle line:84% Werbeanzeigen für Haustierpflege und Babypflege die größte Freude hervorrufen. 00:12:19.070 --> 00:12:22.400 align:middle line:84% Interessanterweise sind es in Kanada die Anzeigen für Müsli, 00:12:22.400 --> 00:12:24.980 align:middle line:90% die die größte Freude hervorrufen. 00:12:24.980 --> 00:12:28.950 align:middle line:84% Und leider rufen Anzeigen für Telekommunikation so gut wie 00:12:28.950 --> 00:12:29.450 align:middle line:90% keine Freude hervor. 00:12:29.450 --> 00:12:32.010 align:middle line:84% Die sind ziemlich langweilig anzusehen. 00:12:32.010 --> 00:12:34.470 align:middle line:84% Diese Daten sind also wirklich, wirklich aufschlussreich 00:12:34.470 --> 00:12:36.510 align:middle line:84% und liefern Marken und den Vermarktern 00:12:36.510 --> 00:12:39.120 align:middle line:84% neue Einsichten, die ihnen bei Entscheidungen 00:12:39.120 --> 00:12:41.400 align:middle line:84% rund um Medienausgaben helfen können und dabei, 00:12:41.400 --> 00:12:44.510 align:middle line:84% wie sie ihre Werbeinhalte optimieren können. 00:12:44.510 --> 00:12:46.140 align:middle line:84% Und es geht nicht nur um Werbung, 00:12:46.140 --> 00:12:50.803 align:middle line:84% die selbe Art von Daten kann auch für eine TV-Sendung erstellt werden. 00:12:50.803 --> 00:12:52.470 align:middle line:84% Und das ist eines meiner Lieblings-Beispiele. 00:12:52.470 --> 00:12:56.430 align:middle line:84% Das ist eine Sitcom, die wir vor einiger Zeit für CBS getestet haben. 00:12:56.430 --> 00:12:58.260 align:middle line:84% Sie hieß Friends With Better Lives. 00:12:58.260 --> 00:12:59.610 align:middle line:84% Ich glaube, sie wurde nicht lange ausgestrahlt. 00:12:59.610 --> 00:13:01.120 align:middle line:90% Sie lief nicht so gut. 00:13:01.120 --> 00:13:03.810 align:middle line:84% Und hier sehen Sie wieder die Kurve mit den Lächeln. 00:13:03.810 --> 00:13:06.690 align:middle line:84% Und wir haben die Charaktere der Szenen auf dieser 00:13:06.690 --> 00:13:08.850 align:middle line:90% Kurve abgebildet. 00:13:08.850 --> 00:13:11.490 align:middle line:84% Und Sie können sehen, dass es zwei bestimmte Charaktere gibt, 00:13:11.490 --> 00:13:14.770 align:middle line:84% die jedes Mal, wenn sie auftauchen, einfach nicht lustig sind. 00:13:14.770 --> 00:13:19.120 align:middle line:84% Das sind quasi die Täler in dieser Lachkurve. 00:13:19.120 --> 00:13:21.210 align:middle line:84% Und auch das waren wieder sehr, sehr interessante Daten, 00:13:21.210 --> 00:13:23.730 align:middle line:84% die die Produzenten verwenden konnten, 00:13:23.730 --> 00:13:27.780 align:middle line:90% um diese Charaktere auszutauschen. 00:13:27.780 --> 00:13:32.240 align:middle line:84% Jetzt gehen wir von der Welt des Verstehens 00:13:32.240 --> 00:13:33.840 align:middle line:84% der emotionalen Ansprache von Inhalten 00:13:33.840 --> 00:13:36.240 align:middle line:84% zu einem anderen Bereich, in dem wir 00:13:36.240 --> 00:13:37.830 align:middle line:90% viel Zeit verbringen. 00:13:37.830 --> 00:13:41.430 align:middle line:84% Und das ist die Zukunft von Mobilität und Transport. 00:13:41.430 --> 00:13:43.320 align:middle line:84% Als wir angefangen haben, in diesem Bereich zu arbeiten, 00:13:43.320 --> 00:13:45.780 align:middle line:84% sind einige Autohersteller weltweit an uns herangetreten, 00:13:45.780 --> 00:13:49.710 align:middle line:84% die unsere Emotions-erkennende Technologie in ihren Autos 00:13:49.710 --> 00:13:51.780 align:middle line:90% nutzen wollten. 00:13:51.780 --> 00:13:54.360 align:middle line:84% Und um das zu tun, wollten wir sehen, 00:13:54.360 --> 00:13:57.640 align:middle line:84% wie sich die Leute überhaupt im Auto verhalten, insbesondere die Fahrer. 00:13:57.640 --> 00:14:00.330 align:middle line:84% Und deshalb haben wir angefangen, Daten zu sammeln. 00:14:00.330 --> 00:14:03.683 align:middle line:84% Viele bei uns in der Firma waren sehr skeptisch, dass, 00:14:03.683 --> 00:14:05.100 align:middle line:84% vielleicht weil die Leute wussten, dass 00:14:05.100 --> 00:14:06.725 align:middle line:84% eine Kamera in ihrem Armaturenbrett ist, 00:14:06.725 --> 00:14:09.990 align:middle line:84% es keine interessanten emotionalen oder kognitiven 00:14:09.990 --> 00:14:12.210 align:middle line:90% Reaktionen geben würde. 00:14:12.210 --> 00:14:13.060 align:middle line:90% Aber wir lagen falsch. 00:14:13.060 --> 00:14:16.920 align:middle line:84% Ich zeige Ihnen einige Beispiele der Videos. 00:14:16.920 --> 00:14:19.920 align:middle line:84% Diese Leute wussten also, dass deine Kamera in 00:14:19.920 --> 00:14:22.320 align:middle line:84% ihrem Auto ist, sie haben sie selbst eingebaut, 00:14:22.320 --> 00:14:27.090 align:middle line:84% sie haben sich einverstanden erklärt, und trotzdem haben wir sehr interessante 00:14:27.090 --> 00:14:28.030 align:middle line:90% Fahrverhalten beobachtet. 00:14:28.030 --> 00:14:32.610 align:middle line:84% In diesem Fall sehen Sie einen Vater, der das Fahrzeug fährt. 00:14:32.610 --> 00:14:33.920 align:middle line:90% Er ist extrem schläfrig. 00:14:33.920 --> 00:14:35.700 align:middle line:84% Es gibt vier Stufen der Schläfrigkeit. 00:14:35.700 --> 00:14:38.370 align:middle line:90% Er schläft quasi schon. 00:14:38.370 --> 00:14:40.170 align:middle line:84% Und Sie können auch sehen, dass seine kleine 00:14:40.170 --> 00:14:41.460 align:middle line:84% Tochter hinten auf dem Rücksitz sitzt. 00:14:41.460 --> 00:14:45.330 align:middle line:84% Also ein sehr, sehr unsicheres Fahrverhalten. 00:14:45.330 --> 00:14:48.480 align:middle line:84% Und ich kann da auf jeden Fall mitfühlen. 00:14:48.480 --> 00:14:52.200 align:middle line:84% Es gibt viel Male, als wir noch gereist sind, 00:14:52.200 --> 00:14:56.190 align:middle line:84% wenn ich dann von einer langen Reise zurückkam und einen Jetlag hatte 00:14:56.190 --> 00:14:57.870 align:middle line:84% und erschöpft war, während ich meine Kinder gefahren habe. 00:14:57.870 --> 00:14:59.940 align:middle line:84% Also kann ich das durchaus verstehen. 00:14:59.940 --> 00:15:03.597 align:middle line:84% Aber das ist ein einfaches Beispiel, das die Technologie erkennen kann. 00:15:03.597 --> 00:15:05.430 align:middle line:84% Und hier können Sie sehen, dass die Technologie in der Lage war, 00:15:05.430 --> 00:15:08.745 align:middle line:84% Dinge zu erkennen wie geschlossene Augen, geöffneter Mund, 00:15:08.745 --> 00:15:10.650 align:middle line:90% und Stufe der Schläfrigkeit. 00:15:10.650 --> 00:15:14.200 align:middle line:84% Und Sie können sich vorstellen, wie das Auto in diesem Fall eingreifen kann. 00:15:14.200 --> 00:15:15.730 align:middle line:90% Hier ist noch ein Beispiel. 00:15:15.730 --> 00:15:17.880 align:middle line:90% Sie fährt also. 00:15:17.880 --> 00:15:21.960 align:middle line:84% Sie schreibt auch eine Nachricht, während sie fährt, sehr abgelenkt also. 00:15:21.960 --> 00:15:24.510 align:middle line:84% Aber, oh, sie hat zwei Handys in der Hand, 00:15:24.510 --> 00:15:27.330 align:middle line:90% sie ist also sehr abgelenkt. 00:15:27.330 --> 00:15:28.680 align:middle line:84% Ihre Augen sind nicht auf die Straße gerichtet. 00:15:28.680 --> 00:15:30.780 align:middle line:90% Ihre Hände sind nicht am Lenkrad. 00:15:30.780 --> 00:15:33.960 align:middle line:84% Neben dieser Frau möchten Sie nicht Auto fahren. 00:15:33.960 --> 00:15:37.080 align:middle line:84% Aber nochmal, das ist ein Beispiel, das die Technologie erkennen kann, 00:15:37.080 --> 00:15:38.860 align:middle line:84% indem sie das Blickverhalten beobachtet, 00:15:38.860 --> 00:15:41.670 align:middle line:84% die Informationen über die Kopfhaltung, aber auch in Kombination mit 00:15:41.670 --> 00:15:43.270 align:middle line:84% Dingen wie Objekterkennung. 00:15:43.270 --> 00:15:45.810 align:middle line:84% Wir können also erkennen, dass sie nicht nur ein, sondern zwei 00:15:45.810 --> 00:15:47.070 align:middle line:90% Handys in der Hand hält. 00:15:47.070 --> 00:15:50.160 align:middle line:84% Wir können sie als sehr abgelenkte Fahrerin kennzeichnen. 00:15:50.160 --> 00:15:52.800 align:middle line:84% Und auch hier kann das Auto auf die ein oder andere Weise eingreifen. 00:15:52.800 --> 00:15:55.740 align:middle line:84% Sie können sich vorstellen, wenn das ein Tesla wäre 00:15:55.740 --> 00:15:58.710 align:middle line:84% und es in einen semi-automatischen Modus wechseln könnte, 00:15:58.710 --> 00:16:00.360 align:middle line:84% dann könnte es quasi sagen, Moment mal, 00:16:00.360 --> 00:16:02.610 align:middle line:84% im Moment bin ich ein besserer Fahrer als du, 00:16:02.610 --> 00:16:06.030 align:middle line:90% ich übernehme die Kontrolle. 00:16:06.030 --> 00:16:08.670 align:middle line:84% Wir haben viel in Zusammenarbeit mit der 00:16:08.670 --> 00:16:11.970 align:middle line:84% Gruppe für hochentwickelte Fahrzeugtechnologie von MIT geforscht, 00:16:11.970 --> 00:16:15.900 align:middle line:84% wo wir die erste groß angelegte Studie durchgeführt haben, 00:16:15.900 --> 00:16:17.590 align:middle line:84% bei der das Fahrverhalten im Lauf der Zeit beobachtet wurde. 00:16:17.590 --> 00:16:19.260 align:middle line:84% In diesem Fall betrachten wir 00:16:19.260 --> 00:16:22.030 align:middle line:84% nun Teilnehmer Nummer 66. 00:16:22.030 --> 00:16:23.450 align:middle line:90% Sie ist weiblich. 00:16:23.450 --> 00:16:24.930 align:middle line:90% Sie ist 22 Jahre alt. 00:16:24.930 --> 00:16:28.950 align:middle line:84% Und all ihre Fahrten an Montagen sind in dieser Montags-Reihe vereint. 00:16:28.950 --> 00:16:31.860 align:middle line:84% Und all ihre Fahrten an Dienstagen sind hier in Dienstag vereint 00:16:31.860 --> 00:16:33.130 align:middle line:90% und so weiter. 00:16:33.130 --> 00:16:37.470 align:middle line:84% Und Sie können erkennen, dass sie unter der Woche ziemlich müde ist. 00:16:37.470 --> 00:16:39.030 align:middle line:90% Sie gähnt zu Beginn 00:16:39.030 --> 00:16:40.650 align:middle line:90% des Tages sehr viel. 00:16:40.650 --> 00:16:44.020 align:middle line:84% Und während des Wochenendes, und auch gegen Ende des Tages 00:16:44.020 --> 00:16:49.650 align:middle line:84% gibt es viel mehr positive Ausdrücke. 00:16:49.650 --> 00:16:53.040 align:middle line:84% Man sagt, ein Bild sagt mehr als tausend Worte. 00:16:53.040 --> 00:16:55.950 align:middle line:84% Ich glaube, ein Video ist noch mehr wert. 00:16:55.950 --> 00:17:02.220 align:middle line:84% Ich zeige Ihnen nun also Beispiele ihres nachmittäglichen und morgendlichen 00:17:02.220 --> 00:17:06.420 align:middle line:90% Fahrverhaltens. 00:17:06.420 --> 00:17:09.990 align:middle line:84% Das wurde also alles mit Hilfe unserer Algorithmen gesammelt. 00:17:09.990 --> 00:17:12.930 align:middle line:84% Wir haben also quasi die Gähn-Klassifizierung gestartet, 00:17:12.930 --> 00:17:15.060 align:middle line:84% um all ihr Gähn-Verhalten zu entdecken 00:17:15.060 --> 00:17:20.000 align:middle line:90% während all ihrer Fahrten. 00:17:20.000 --> 00:17:23.618 align:middle line:84% Sie können also sehen, dass sie morgens oft sehr erschöpft ist. 00:17:23.618 --> 00:17:25.887 align:middle line:84% Und Sie können sich vorstellen, wenn das ein sich wiederholendes Muster ist, 00:17:25.887 --> 00:17:27.430 align:middle line:84% dann weiß das Auto, schon vorher, 00:17:27.430 --> 00:17:30.340 align:middle line:90% dass sie erschöpft einsteigen wird. 00:17:30.340 --> 00:17:32.770 align:middle line:84% Vielleicht gibt es vorausschauende Empfehlungen, 00:17:32.770 --> 00:17:37.690 align:middle line:84% die das Auto der Fahrerin auf Grund ihres Profils machen kann. 00:17:37.690 --> 00:17:42.720 align:middle line:84% Vergleichen Sie das jetzt mit ihrem nachmittäglichen Fahrverhalten. 00:17:42.720 --> 00:17:46.140 align:middle line:84% Sie sehen schon, dass sie sehr viel wacher aussieht. 00:17:46.140 --> 00:17:49.110 align:middle line:84% Sie ist sehr viel lebhafter, viel mehr Lächeln, viel mehr 00:17:49.110 --> 00:17:50.520 align:middle line:90% positive Gesichtsausdrücke. 00:17:50.520 --> 00:17:54.300 align:middle line:84% Und auch jetzt könnte das Auto, wenn es ihr Fahrerprofil hätte, 00:17:54.300 --> 00:17:56.940 align:middle line:84% die Fahrt individuell anpassen und personalisieren, 00:17:56.940 --> 00:18:02.170 align:middle line:84% basierend auf ihren emotionalen Erfahrungen. 00:18:02.170 --> 00:18:05.310 align:middle line:84% Wir arbeiten also in engem Kontakt mit einigen Autoherstellern, 00:18:05.310 --> 00:18:08.400 align:middle line:84% um Transport neu zu gestalten. 00:18:08.400 --> 00:18:10.260 align:middle line:84% Nicht nur in den Autos heute, bei denen wir uns auf den 00:18:10.260 --> 00:18:13.890 align:middle line:84% Fahrer konzentrieren können, sondern auch bei Fahrzeugen in der Zukunft, 00:18:13.890 --> 00:18:17.910 align:middle line:84% bei denen wir wirklich die Vision einer etablierten Sensortechnologie haben, 00:18:17.910 --> 00:18:20.670 align:middle line:84% die den Fahrer im Blick hat, aber auch die anderen Mitfahrer im 00:18:20.670 --> 00:18:21.510 align:middle line:90% Fahrzeug. 00:18:21.510 --> 00:18:23.820 align:middle line:84% Und auch andere Objekte im Auto. 00:18:23.820 --> 00:18:25.680 align:middle line:90% Wurde ein Kind zurückgelassen? 00:18:25.680 --> 00:18:27.600 align:middle line:90% Haben Sie Ihr Handy vergessen? 00:18:27.600 --> 00:18:29.557 align:middle line:90% Wie viele Mitfahrer sind im Fahrzeug? 00:18:29.557 --> 00:18:30.390 align:middle line:90% Wie ist ihr Zustand? 00:18:30.390 --> 00:18:34.300 align:middle line:84% Können Sie die Musik, den Content, das Licht und so weiter 00:18:34.300 --> 00:18:37.260 align:middle line:90% personalisieren? 00:18:37.260 --> 00:18:39.110 align:middle line:84% Aber natürlich verbringen viele 00:18:39.110 --> 00:18:40.610 align:middle line:84% von uns nicht mehr besonders viel Zeit in unserem Auto, 00:18:40.610 --> 00:18:43.310 align:middle line:84% jetzt während dieser globalen Pandemie. 00:18:43.310 --> 00:18:47.870 align:middle line:84% Und in der Tat verbringen viele von uns viel mehr Zeit 00:18:47.870 --> 00:18:52.250 align:middle line:84% in Videokonferenzen und auf virtuellen Events. 00:18:52.250 --> 00:18:55.700 align:middle line:84% Menschliche Kontakte mittels Technologie herzustellen ist sehr schwierig. 00:18:55.700 --> 00:19:00.140 align:middle line:84% Und das liegt vor allem daran, dass die Hauptmethode der Kommunikation 00:19:00.140 --> 00:19:01.430 align:middle line:90% nonverbal ist. 00:19:01.430 --> 00:19:05.070 align:middle line:84% Und manchmal, wenn Sie auf diesen virtuellen Konferenzen 00:19:05.070 --> 00:19:09.140 align:middle line:84% und virtuellen Events und Video-Events sind, 00:19:09.140 --> 00:19:13.310 align:middle line:84% zapfen Sie die Energie und die Gesichtsausdrücke des Publikums 00:19:13.310 --> 00:19:14.000 align:middle line:90% nicht wirklich an. 00:19:14.000 --> 00:19:16.220 align:middle line:90% So geht es mir jedenfalls selbst. 00:19:16.220 --> 00:19:19.220 align:middle line:84% Wie schon erwähnt habe ich gerade mein Buch Girl Decoded veröffentlicht. 00:19:19.220 --> 00:19:21.890 align:middle line:84% Und ich musste von einer Buchtour, 00:19:21.890 --> 00:19:24.650 align:middle line:84% auf der ich ununterbrochen im März, April und Mai unterwegs sein sollte, 00:19:24.650 --> 00:19:28.220 align:middle line:84% auf all diese virtuellen Buchtouren und virtuellen Lesungen 00:19:28.220 --> 00:19:28.910 align:middle line:90% umschwenken. 00:19:28.910 --> 00:19:32.840 align:middle line:84% Und es ist so anders, weil ich in einer Live-Umgebung 00:19:32.840 --> 00:19:34.370 align:middle line:90% das Publikum sehen kann. 00:19:34.370 --> 00:19:36.710 align:middle line:84% Ich kann Sie alle sehen und ich kann auf Ihre Energie eingehen. 00:19:36.710 --> 00:19:38.870 align:middle line:84% Und ich kann meinen Content individualisieren und personalisieren 00:19:38.870 --> 00:19:43.010 align:middle line:84% und verändern, abhängig davon, wie Sie sich auf mich einlassen. 00:19:43.010 --> 00:19:46.190 align:middle line:84% Wenn ich das virtuell mache, ist es oftmals ein Monolog, 00:19:46.190 --> 00:19:49.010 align:middle line:84% oder zumindest fühlt es sich für mich wie ein Monolog an. 00:19:49.010 --> 00:19:51.750 align:middle line:84% Und das fühlt sich für mich ziemlich qualvoll und beunruhigend an. 00:19:51.750 --> 00:19:55.820 align:middle line:84% Aber ich denke, es gibt die Gelegenheit, das zu verändern. 00:19:55.820 --> 00:19:59.390 align:middle line:84% Was wäre, wenn wir die emotionale KI integrieren würden, 00:19:59.390 --> 00:20:02.300 align:middle line:84% um die Reaktion des Publikums zu versammeln, 00:20:02.300 --> 00:20:05.360 align:middle line:84% um alle Ihre Gesichtsausdrücke anonymisiert zu erfassen. 00:20:05.360 --> 00:20:08.070 align:middle line:84% Ich muss nicht jedes einzelne Gesicht sehen. 00:20:08.070 --> 00:20:11.120 align:middle line:84% Das wäre wahrscheinlich sogar überwältigend, während ich eine Präsentation gebe. 00:20:11.120 --> 00:20:14.510 align:middle line:84% Aber wenn ich von Moment zu Moment eine Spur sehen könnte, 00:20:14.510 --> 00:20:17.042 align:middle line:90% wie positiv oder negativ Sie – 00:20:17.042 --> 00:20:18.500 align:middle line:84% wie Sie sich auf den Inhalt einlassen, 00:20:18.500 --> 00:20:20.420 align:middle line:84% das wären sehr mächtige Informationen, 00:20:20.420 --> 00:20:22.670 align:middle line:84% die es mir erlauben würden, individuell anzupassen 00:20:22.670 --> 00:20:27.030 align:middle line:84% und ein Gefühl dafür zu bekommen, wie sehr das Publikum beteiligt ist. 00:20:27.030 --> 00:20:28.900 align:middle line:84% Ich wollte Ihnen also ein Beispiel zeigen. 00:20:28.900 --> 00:20:31.390 align:middle line:84% Nur von einer internen Teambesprechung auf Zoom, 00:20:31.390 --> 00:20:34.240 align:middle line:84% bei der wir die Reaktionen des Teams aufgenommen haben. 00:20:34.240 --> 00:20:37.360 align:middle line:84% Hier können Sie die zusammengefassten Reaktionen sehen. 00:20:37.360 --> 00:20:40.180 align:middle line:84% Natürlich gibt es verschiedene Möglichkeiten, die Daten zu visualisieren, 00:20:40.180 --> 00:20:42.070 align:middle line:84% aber wir sind in der Lage, jedem einzeln zu folgen, 00:20:42.070 --> 00:20:44.405 align:middle line:84% und wir können das Lächeln, die Reaktionen der Leute zusammenfassen. 00:20:44.405 --> 00:20:46.030 align:middle line:84% Sie haben sich unterhalten über – 00:20:46.030 --> 00:20:49.960 align:middle line:84% das war Anfang März, als die Pandemie gerade ausgebrochen ist. 00:20:49.960 --> 00:20:51.970 align:middle line:84% Und wir haben uns darüber unterhalten, was passieren 00:20:51.970 --> 00:20:54.287 align:middle line:90% wird, und über das Arbeiten von zu Hause. 00:20:54.287 --> 00:20:55.870 align:middle line:84% Und die Leute haben ihre Geschichten erzählt. 00:20:55.870 --> 00:20:58.190 align:middle line:84% Und es gab eine Menge Empathie und lächelndes Verhalten. 00:20:58.190 --> 00:21:00.190 align:middle line:90% Das können wir also nachverfolgen. 00:21:00.190 --> 00:21:02.890 align:middle line:84% Vergleichen Sie das jetzt mal mit einer lustlosen, langweiligen Besprechung, 00:21:02.890 --> 00:21:04.600 align:middle line:84% bei der sich niemand beteiligt. 00:21:04.600 --> 00:21:06.230 align:middle line:90% Sie erkennen den Unterschied. 00:21:06.230 --> 00:21:09.790 align:middle line:84% Und wir konnten diese Daten als Echtzeit-Beteiligung quantifizieren, 00:21:09.790 --> 00:21:16.050 align:middle line:84% aber wir können sie auch im Nachhinein analysieren. 00:21:16.050 --> 00:21:18.800 align:middle line:84% Genauso in einer online Lernumgebung – 00:21:18.800 --> 00:21:21.650 align:middle line:84% was wäre, wenn der Lehrer die emotionale Beteiligung 00:21:21.650 --> 00:21:24.920 align:middle line:84% seiner Schüler messen könnte, als wären sie 00:21:24.920 --> 00:21:26.150 align:middle line:90% in einem echten Klassenzimmer. 00:21:26.150 --> 00:21:28.070 align:middle line:90% Das macht ein toller Lehrer, oder? 00:21:28.070 --> 00:21:30.710 align:middle line:84% Sie gehen auf die Beteiligung der Schüler ein 00:21:30.710 --> 00:21:33.710 align:middle line:84% und dann können Sie das Lernen personalisieren. 00:21:33.710 --> 00:21:37.620 align:middle line:84% Und so auch die Lernerfolge maximieren. 00:21:37.620 --> 00:21:41.390 align:middle line:84% Es gibt auch Anwendungen im Gesundheitsbereich. 00:21:41.390 --> 00:21:44.090 align:middle line:84% Wenn Sie heutzutage zum Arzt gehen, 00:21:44.090 --> 00:21:46.403 align:middle line:84% werden Sie nicht nach ihrer Temperatur gefragt, 00:21:46.403 --> 00:21:48.320 align:middle line:84% Sie werden nicht nach ihrem Blutdruck gefragt, 00:21:48.320 --> 00:21:49.970 align:middle line:90% sie messen sie einfach. 00:21:49.970 --> 00:21:51.890 align:middle line:84% Was wäre also, wenn Ärzte objektiv 00:21:51.890 --> 00:21:53.930 align:middle line:84% messen könnten, wie Sie sich fühlen, genauso wie sie 00:21:53.930 --> 00:21:56.090 align:middle line:90% andere Vitalwerte messen? 00:21:56.090 --> 00:21:58.430 align:middle line:84% Leider ist der Goldstandard bei der psychischen Gesundheit 00:21:58.430 --> 00:22:01.230 align:middle line:84% noch immer auf einer Skala von 1 bis 10 – 00:22:01.230 --> 00:22:02.840 align:middle line:90% wie depressiv sind Sie? 00:22:02.840 --> 00:22:04.160 align:middle line:90% Wie suizidal sind Sie? 00:22:04.160 --> 00:22:05.810 align:middle line:90% Wie starke Schmerzen haben Sie? 00:22:05.810 --> 00:22:08.780 align:middle line:84% Und wir können die emotionale KI einbringen und anwenden, 00:22:08.780 --> 00:22:12.620 align:middle line:84% auf eine Art und Weise, die objektive Messwerte für psychische Krankheiten 00:22:12.620 --> 00:22:15.190 align:middle line:90% liefert. 00:22:15.190 --> 00:22:17.760 align:middle line:84% Ein Bereich, der mir sehr am Herzen liegt, 00:22:17.760 --> 00:22:21.010 align:middle line:84% die allererste Anwendung von emotionaler KI, die ich untersucht habe, 00:22:21.010 --> 00:22:22.300 align:middle line:90% ist Autismus. 00:22:22.300 --> 00:22:24.760 align:middle line:84% Personen im Spektrum des Autismus haben Probleme damit, 00:22:24.760 --> 00:22:28.780 align:middle line:84% nonverbale Signale zu lesen und zu verstehen. 00:22:28.780 --> 00:22:32.620 align:middle line:84% Sie finden besonders das Gesicht sehr überwältigend. 00:22:32.620 --> 00:22:34.300 align:middle line:84% Und manchmal vermeiden sie es komplett. 00:22:34.300 --> 00:22:37.390 align:middle line:84% Sie vermeiden Gesichts- und Augenkontakt komplett. 00:22:37.390 --> 00:22:40.690 align:middle line:84% Wir sind Partner einer Firma mit dem Namen Brain Power. 00:22:40.690 --> 00:22:45.910 align:middle line:84% Sie nutzen Google Glass und unsere Technologie, um Leuten 00:22:45.910 --> 00:22:49.180 align:middle line:84% im Spektrum des Autismus dabei zu helfen, mehr über diese nonverbalen Signale zu lernen, 00:22:49.180 --> 00:22:51.550 align:middle line:84% und zwar auf eine sehr lustige und spielerische Weise. 00:22:51.550 --> 00:22:56.200 align:middle line:84% Ich zeige Ihnen ein kurzes Video, in dem das gezeigt wird. 00:22:56.200 --> 00:22:57.850 align:middle line:90% Was siehst du auf dem Bildschirm? 00:22:57.850 --> 00:22:59.090 align:middle line:90% Mama. 00:22:59.090 --> 00:23:02.128 align:middle line:84% Der 8-jährige Matthew Krieger wurde mit Autismus diagnostiziert. 00:23:02.128 --> 00:23:04.170 align:middle line:84% Viele der Probleme, die er mit anderen Kindern hat, entstehen, 00:23:04.170 --> 00:23:05.820 align:middle line:90% weil erdenkt, dass er lustig ist. 00:23:05.820 --> 00:23:07.950 align:middle line:84% Und er kann nicht ablesen, dass er es nicht ist, 00:23:07.950 --> 00:23:10.020 align:middle line:84% oder dass die Kinder genervt oder wütend sind. 00:23:10.020 --> 00:23:11.550 align:middle line:84% Matthews Mutter Laura hat ihn bei einer 00:23:11.550 --> 00:23:15.570 align:middle line:84% klinischen Studie angemeldet, die von Ned Sahin durchgeführt wird. 00:23:15.570 --> 00:23:20.010 align:middle line:84% Ich möchte herausfinden, was im Gehirn von jemandem mit Autismus 00:23:20.010 --> 00:23:21.270 align:middle line:90% vorgeht. 00:23:21.270 --> 00:23:24.600 align:middle line:84% Und es stellt sich heraus, dass Eltern das auch wissen möchten. 00:23:24.600 --> 00:23:26.700 align:middle line:84% Du bekommst Punkte, wenn du eine Weile hinguckst, 00:23:26.700 --> 00:23:29.660 align:middle line:84% und dann sogar, wenn du wegguckst und dann wieder hinguckst. 00:23:29.660 --> 00:23:32.910 align:middle line:84% Sahins Unternehmen Brain Power nutzt die Software von Affectiva in 00:23:32.910 --> 00:23:35.940 align:middle line:84% Programmen, die Matthew durch Google Glass sieht. 00:23:35.940 --> 00:23:37.950 align:middle line:84% Diese Spiele versuchen ihm dabei zu helfen zu verstehen, 00:23:37.950 --> 00:23:40.860 align:middle line:84% wie Gesichtsausdrücke mit Emotionen korrespondieren, 00:23:40.860 --> 00:23:42.840 align:middle line:90% und soziale Signale zu lernen. 00:23:42.840 --> 00:23:45.300 align:middle line:84% Eine der wichtigsten Fähigkeiten des Lebens ist es, die Emotionen 00:23:45.300 --> 00:23:47.000 align:middle line:90% anderer zu verstehen. 00:23:47.000 --> 00:23:50.190 align:middle line:84% Eine andere ist es, in ihre Richtung zu schauen, 00:23:50.190 --> 00:23:51.510 align:middle line:90% wenn sie sprechen. 00:23:51.510 --> 00:23:54.750 align:middle line:84% Schau deine Mama an, und wenn es grün ist, bekommst 00:23:54.750 --> 00:23:58.020 align:middle line:84% du Punkte, und wenn es orange wird und rot, dann – 00:23:58.020 --> 00:24:00.660 align:middle line:90% wirst du langsamer mit den Punkten. 00:24:00.660 --> 00:24:01.698 align:middle line:90% Ich schau dich an. 00:24:01.698 --> 00:24:02.490 align:middle line:90% Du schaust mich an. 00:24:02.490 --> 00:24:05.250 align:middle line:84% Nur ein paar Minuten später ist die Mutter durch die Veränderung 00:24:05.250 --> 00:24:06.780 align:middle line:90% in Matthews Blick überwältigt. 00:24:06.780 --> 00:24:09.200 align:middle line:90% Ich möchte weinen. 00:24:09.200 --> 00:24:09.700 align:middle line:90% Warum? 00:24:13.540 --> 00:24:19.340 align:middle line:84% Weil wenn du mich ansiehst, dann glaube ich jetzt, 00:24:19.340 --> 00:24:22.020 align:middle line:84% dass du es vorher nicht wirklich getan hast, 00:24:22.020 --> 00:24:25.230 align:middle line:90% weil du mich anders ansiehst. 00:24:25.230 --> 00:24:29.260 align:middle line:84% Brain Power hat etwa 400 dieser Google Glass Systeme 00:24:29.260 --> 00:24:33.400 align:middle line:84% in Familien in den Vereinigten Staaten eingesetzt. 00:24:33.400 --> 00:24:35.650 align:middle line:84% Und die Hauptfrage, die sie versuchen zu beantworten – 00:24:35.650 --> 00:24:38.290 align:middle line:84% wir sehen bereits Verbesserungen 00:24:38.290 --> 00:24:41.763 align:middle line:84% im Hinblick auf das soziale und nonverbale Verständnis der Kinder, 00:24:41.763 --> 00:24:43.180 align:middle line:84% während sie die Brille tragen. 00:24:43.180 --> 00:24:47.410 align:middle line:84% Die Hauptfrage ist, was passiert, wenn sie die Brille abnehmen? 00:24:47.410 --> 00:24:50.580 align:middle line:90% Verallgemeinert dieses Lernen? 00:24:50.580 --> 00:24:53.592 align:middle line:84% Es gibt auch noch andere Anwendungen für diese Technologie 00:24:53.592 --> 00:24:54.300 align:middle line:90% im mentalen Gesundheitssektor. 00:24:54.300 --> 00:24:58.050 align:middle line:84% Zum Beispiel ein System für die Früherkennung von Parkinson. 00:24:58.050 --> 00:25:02.070 align:middle line:84% Erin Smith – sie ist jetzt Studentin in Stanford. 00:25:02.070 --> 00:25:05.370 align:middle line:84% Vor langer Zeit, als sie noch ein Junior in der High School war, 00:25:05.370 --> 00:25:08.550 align:middle line:84% hat sie uns eine E-Mail geschrieben und gesagt, dass sie diese 00:25:08.550 --> 00:25:12.240 align:middle line:84% Dokumentation über Parkinson gesehen hat und dass sie 00:25:12.240 --> 00:25:14.320 align:middle line:90% unsere Technologie verwenden möchte. 00:25:14.320 --> 00:25:15.450 align:middle line:90% Wie viel kostet das? 00:25:15.450 --> 00:25:20.187 align:middle line:84% Und ich erinnere mich, dass mich unser Vertriebsleiter gefragt hat, was er ihr sagen soll. 00:25:20.187 --> 00:25:21.520 align:middle line:90% Sie kann sich unsere Technologie nicht leisten. 00:25:21.520 --> 00:25:24.390 align:middle line:84% Und ich habe gesagt, gib sie ihr umsonst. 00:25:24.390 --> 00:25:26.250 align:middle line:84% Was soll sie damit schon anstellen? 00:25:26.250 --> 00:25:29.808 align:middle line:84% Und Erin verschwand für ein paar Monate und kam zurück. 00:25:29.808 --> 00:25:31.350 align:middle line:84% Sie hatte sich mit der Michael J. Fox Stiftung 00:25:31.350 --> 00:25:36.120 align:middle line:84% zusammengetan und dieses System zur Identifizierung von 00:25:36.120 --> 00:25:38.250 align:middle line:84% Gesichts-Biomarkern bei Parkinson gebaut. 00:25:38.250 --> 00:25:40.590 align:middle line:84% Und sie hat weiterhin an dieser Forschung gearbeitet. 00:25:40.590 --> 00:25:43.060 align:middle line:90% Sehr inspirierende junge Frau. 00:25:43.060 --> 00:25:45.090 align:middle line:84% Und ich bin sehr stolz darauf, dass wir eine kleine Rolle 00:25:45.090 --> 00:25:47.190 align:middle line:90% auf ihrem Weg spielen. 00:25:47.190 --> 00:25:50.490 align:middle line:84% Wir wissen auch, dass es Gesichts- und vokale Biomarker 00:25:50.490 --> 00:25:51.780 align:middle line:90% bei Depressionen gibt. 00:25:51.780 --> 00:25:56.040 align:middle line:84% Und es wird viel daran gearbeitet, suizidale Intentionen basierend 00:25:56.040 --> 00:25:57.630 align:middle line:90% auf diesen Signalen zu erkennen. 00:25:57.630 --> 00:26:00.570 align:middle line:84% Bei dieser Arbeit kollaborieren wir 00:26:00.570 --> 00:26:05.960 align:middle line:84% mit Professor Steven Benoit und anderen. 00:26:05.960 --> 00:26:08.260 align:middle line:84% Und das bringt uns zu einem sehr wichtigen Thema, 00:26:08.260 --> 00:26:10.410 align:middle line:84% und zwar, OK, es gibt viele Anwendungen 00:26:10.410 --> 00:26:13.320 align:middle line:84% für diese Technologie, aber wo liegt die Grenze? 00:26:13.320 --> 00:26:16.470 align:middle line:84% Und ich fühle mich sehr leidenschaftlich 00:26:16.470 --> 00:26:20.460 align:middle line:84% bei diesem Konzept der ethischen Entwicklung und Anwendung von KI. 00:26:20.460 --> 00:26:24.990 align:middle line:84% Es geht nicht nur darum, anzuerkennen, dass es 00:26:24.990 --> 00:26:27.630 align:middle line:84% so viel Potenzial für Gutes gibt, sondern auch darum, 00:26:27.630 --> 00:26:29.940 align:middle line:84% anzuerkennen, wo das missbraucht werden kann, 00:26:29.940 --> 00:26:33.560 align:middle line:84% und um die ungewollten Konsequenzen dieser Technologie. 00:26:33.560 --> 00:26:35.310 align:middle line:84% Vor einigen Jahren, als wir Geld für das 00:26:35.310 --> 00:26:37.380 align:middle line:84% Unternehmen gesammelt haben, hat uns eine Agentur angesprochen, 00:26:37.380 --> 00:26:41.670 align:middle line:84% die uns eine Menge Geld geben wollte – 00:26:41.670 --> 00:26:44.700 align:middle line:84% 40 Millionen Dollar zu dem Zeitpunkt, was eine Menge Geld 00:26:44.700 --> 00:26:47.150 align:middle line:90% für unser kleines Startup war – 00:26:47.150 --> 00:26:49.680 align:middle line:84% unter der Bedingung, dass sie unsere Technologie für 00:26:49.680 --> 00:26:52.500 align:middle line:84% Lügendetektion und Überwachung einsetzen wollten. 00:26:52.500 --> 00:26:54.690 align:middle line:84% Und das hat wirklich nicht zu unseren zentralen Werten gepasst, 00:26:54.690 --> 00:26:58.020 align:middle line:84% dass wir die Privatsphäre der Leute respektieren und ihr Einverständnis verlangen. 00:26:58.020 --> 00:27:02.020 align:middle line:84% Und anzuerkennen, dass als Nutzer 00:27:02.020 --> 00:27:03.730 align:middle line:90% diese Daten sehr persönlich sind. 00:27:03.730 --> 00:27:05.940 align:middle line:84% Und wenn ich sie teile, 00:27:05.940 --> 00:27:07.890 align:middle line:84% dann muss ich genau wissen, wer sie benutzt, 00:27:07.890 --> 00:27:12.370 align:middle line:84% wie sie genutzt werden und auch, was ich davon habe? 00:27:12.370 --> 00:27:14.040 align:middle line:84% Wir haben also lange über diese 00:27:14.040 --> 00:27:15.780 align:middle line:90% Macht-Asymmetrie nachgedacht – 00:27:15.780 --> 00:27:17.580 align:middle line:84% was bekomme ich dafür zurück, wenn 00:27:17.580 --> 00:27:20.307 align:middle line:84% ich diese sehr persönlichen Daten teile. 00:27:20.307 --> 00:27:22.390 align:middle line:84% Und was wirklich toll ist, ist, dass die Branche eine 00:27:22.390 --> 00:27:25.440 align:middle line:84% Führungsrolle übernommen hat bei der Definition der 00:27:25.440 --> 00:27:26.820 align:middle line:90% Best Practices und Richtlinien. 00:27:26.820 --> 00:27:30.600 align:middle line:84% Wir sind also Teil eines Konsortiums namens Partnership on AI. 00:27:30.600 --> 00:27:32.460 align:middle line:84% Es wurde von den Technologie- Riesen ins Leben gerufen – 00:27:32.460 --> 00:27:35.430 align:middle line:84% Amazon, Google, Facebook, Microsoft. 00:27:35.430 --> 00:27:39.120 align:middle line:84% Und seitdem wurden auch einige Startups wie Affectiva 00:27:39.120 --> 00:27:40.440 align:middle line:90% eingeladen. 00:27:40.440 --> 00:27:44.880 align:middle line:84% Aber auch andere Interessenvertreter, wie ACLU und Amnesty International. 00:27:44.880 --> 00:27:47.760 align:middle line:84% Und ich bin Teil des FATE-Ausschusses, 00:27:47.760 --> 00:27:51.090 align:middle line:84% was für faire, verantwortliche, transparente und gerechte KI steht. 00:27:51.090 --> 00:27:55.290 align:middle line:84% Und unsere Aufgabe ist es, Richtlinien rundum 00:27:55.290 --> 00:27:57.227 align:middle line:84% durchdachte Regulierungen zu erstellen. 00:27:57.227 --> 00:27:59.310 align:middle line:84% Wir brauchen Regulierungen, aber sie müssen durchdacht sein. 00:27:59.310 --> 00:28:02.100 align:middle line:84% Wir wollen die Innovation nicht komplett vergeuden, 00:28:02.100 --> 00:28:03.600 align:middle line:84% aber gleichzeitig müssen wir wirklich darüber 00:28:03.600 --> 00:28:06.030 align:middle line:84% nachdenken, wo wir die Grenze ziehen 00:28:06.030 --> 00:28:11.910 align:middle line:84% und wie diese durchdachten Regulierungen aussehen. 00:28:11.910 --> 00:28:14.240 align:middle line:84% Und letzten Endes ist es meine Mission, 00:28:14.240 --> 00:28:17.570 align:middle line:84% die Technologie zu vermenschlichen, bevor sie uns entmenschlicht. 00:28:17.570 --> 00:28:21.080 align:middle line:84% Und ich möchte, dass wir den Fokus wieder auf den Menschen richten, 00:28:21.080 --> 00:28:23.200 align:middle line:90% und nicht auf das Künstliche. 00:28:23.200 --> 00:28:27.290 align:middle line:84% Und zum Abschluss, wenn Sie das ein bisschen neugierig gemacht hat, 00:28:27.290 --> 00:28:29.750 align:middle line:84% mehr über emotionale KI und ihre Anwendungen und 00:28:29.750 --> 00:28:34.280 align:middle line:84% ihre Auswirkungen zu erfahren, dann verschenke ich ein signiertes Buch 00:28:34.280 --> 00:28:37.520 align:middle line:84% an die ersten drei Leute, die in meinen sozialen Medien – 00:28:37.520 --> 00:28:41.350 align:middle line:84% LinkedIn, Facebook, Twitter, Instagram – mit den Hashtags 00:28:41.350 --> 00:28:45.860 align:middle line:84% #LIVEWORX und #GIRLDECODED mit einem Kommentar oder einer Frage 00:28:45.860 --> 00:28:47.970 align:middle line:90% zu dieser Präsentation posten. 00:28:47.970 --> 00:28:50.970 align:middle line:90% Danke. 00:28:50.970 --> 00:28:52.470 align:middle line:90% [LIVEWORX TITELMUSIK] 00:28:52.470 --> 00:28:54.500 align:middle line:84% Vielen Dank, dass Sie bei uns waren, Dr. el Kaliouby. 00:28:54.500 --> 00:28:56.690 align:middle line:90% Was für eine spannende Präsentation. 00:28:56.690 --> 00:29:00.000 align:middle line:84% Das war unsere dritte Session des Tages. 00:29:00.000 --> 00:29:01.460 align:middle line:84% Als Nächstes, zur vollen Stunde, 00:29:01.460 --> 00:29:05.240 align:middle line:84% hören wir, wie Unternehmen SAAS-basiertes CAD, PLM, 00:29:05.240 --> 00:29:07.550 align:middle line:84% und Augmented Reality als zentrale Instrumente nutzen, 00:29:07.550 --> 00:29:11.270 align:middle line:84% um nicht nur Störungen zu überleben, sondern auch diese neue Normalität anzunehmen. 00:29:11.270 --> 00:29:13.160 align:middle line:84% Nach einer kurzen Pause sind wir gleich wieder da. 00:29:13.160 --> 00:29:16.510 align:middle line:90% [LIVEWORX TITELMUSIK]