WEBVTT 00:00:00.000 --> 00:00:02.640 align:middle line:90% [TEMA DO LIVEWORX] 00:00:02.640 --> 00:00:05.100 align:middle line:90% Bem-vindo de volta ao LiveWorx 2020. 00:00:05.100 --> 00:00:07.200 align:middle line:84% Meu nome é Andia Winslow, e sou sua anfitriã 00:00:07.200 --> 00:00:09.420 align:middle line:84% da transmissão do evento ao vivo de hoje. 00:00:09.420 --> 00:00:10.920 align:middle line:90% Recentemente ouvimos alguns 00:00:10.920 --> 00:00:12.810 align:middle line:84% dos principais líderes em pensamento tecnológico 00:00:12.810 --> 00:00:14.580 align:middle line:90% da indústria mundial. 00:00:14.580 --> 00:00:17.730 align:middle line:84% Agora, se não foi possível acompanhar as sessões anteriores, 00:00:17.730 --> 00:00:21.090 align:middle line:84% não deixe de conferir no catálogo do LiveWorx sob demanda, 00:00:21.090 --> 00:00:24.180 align:middle line:84% disponível a partir de hoje até 19 de junho. 00:00:24.180 --> 00:00:27.810 align:middle line:84% Esta biblioteca on-line possui mais de 100 sessões adicionais 00:00:27.810 --> 00:00:29.340 align:middle line:90% de ótimo conteúdo. 00:00:29.340 --> 00:00:31.800 align:middle line:84% Além disso, fique de olho em um próximo e-mail 00:00:31.800 --> 00:00:35.800 align:middle line:84% para ter acesso ao nosso arquivo de conteúdos por um ano inteiro. 00:00:35.800 --> 00:00:38.220 align:middle line:84% Agora, vamos dar início a nossa próxima sessão: 00:00:38.220 --> 00:00:40.770 align:middle line:84% Inteligência Emocional Artificial, ou IA Emocional, 00:00:40.770 --> 00:00:44.100 align:middle line:84% o que é e por que isso é importante. 00:00:44.100 --> 00:00:48.810 align:middle line:84% A dra. Rana el Kaliouby é CEO e cofundadora da Affectiva. 00:00:48.810 --> 00:00:52.890 align:middle line:84% Derivada do MIT Media Lab, a Affectiva criou e definiu 00:00:52.890 --> 00:00:54.750 align:middle line:90% a categoria IA emocional, 00:00:54.750 --> 00:00:57.630 align:middle line:84% um software que pode detectar emoções humanas sutis 00:00:57.630 --> 00:01:01.740 align:middle line:84% e estados cognitivos complexos da face e da voz. 00:01:01.740 --> 00:01:05.099 align:middle line:84% A dra. el Kaliouby é pioneira em IA emocional e autora 00:01:05.099 --> 00:01:07.680 align:middle line:84% de Garota Decodificada: A Busca de uma Cientista 00:01:07.680 --> 00:01:10.080 align:middle line:84% para Recuperar nossa Humanidade, Levando Inteligência Emocional 00:01:10.080 --> 00:01:12.240 align:middle line:90% à Tecnologia 00:01:12.240 --> 00:01:17.690 align:middle line:84% Estou muito feliz em receber a Dra. Rana el Kaliouby. 00:01:17.690 --> 00:01:18.740 align:middle line:90% Obrigada, Andia. 00:01:18.740 --> 00:01:22.020 align:middle line:84% É um prazer estar com todos vocês hoje. 00:01:22.020 --> 00:01:24.770 align:middle line:84% Estou em uma missão para humanizar a tecnologia 00:01:24.770 --> 00:01:29.180 align:middle line:84% antes que ela nos desumanize, construindo inteligência emocional 00:01:29.180 --> 00:01:32.900 align:middle line:84% e empatia em nossos dispositivos e nossas tecnologias. 00:01:32.900 --> 00:01:35.420 align:middle line:84% E ao fazer isso, meu objetivo é reimaginar 00:01:35.420 --> 00:01:38.690 align:middle line:90% as interfaces homem-computador, 00:01:38.690 --> 00:01:42.100 align:middle line:90% bem como as conexões humanas. 00:01:42.100 --> 00:01:45.250 align:middle line:84% Todos nós fomos lançados neste universo 00:01:45.250 --> 00:01:46.479 align:middle line:90% onde estamos trabalhando virtualmente. 00:01:46.479 --> 00:01:49.210 align:middle line:84% É assim que nos conectamos com os membros da nossa equipe. 00:01:49.210 --> 00:01:50.800 align:middle line:84% Estamos aprendendo on-line, quero dizer, é assim que 00:01:50.800 --> 00:01:52.420 align:middle line:90% meus filhos estão aprendendo. 00:01:52.420 --> 00:01:55.870 align:middle line:84% E estamos nos conectando com amigos e familiares virtualmente. 00:01:55.870 --> 00:01:57.680 align:middle line:90% No entanto, algo está faltando. 00:01:57.680 --> 00:01:59.410 align:middle line:90% Não é a mesma coisa. 00:01:59.410 --> 00:02:03.610 align:middle line:84% Trata-se realmente desse conceito de todos os nossos sinais não verbais 00:02:03.610 --> 00:02:07.180 align:middle line:84% estarem ausentes nesses ambientes virtuais. 00:02:07.180 --> 00:02:11.570 align:middle line:84% A IA está assumindo papéis que normalmente eram feitos por humanos, 00:02:11.570 --> 00:02:13.990 align:middle line:90% como ajudar a dirigir nossos carros, 00:02:13.990 --> 00:02:17.620 align:middle line:84% ajudar na nossa saúde, ajudar a sermos mais produtivos, 00:02:17.620 --> 00:02:21.310 align:middle line:84% e quem sabe até contratar seu próximo colega de trabalho. 00:02:21.310 --> 00:02:25.240 align:middle line:84% O problema é que precisamos de um novo contrato social entre humanos 00:02:25.240 --> 00:02:26.380 align:middle line:90% e a IA. 00:02:26.380 --> 00:02:30.130 align:middle line:84% Um que seja baseado na confiança mútua e recíproca. 00:02:30.130 --> 00:02:32.200 align:middle line:90% Claro, precisamos confiar na IA, 00:02:32.200 --> 00:02:34.450 align:middle line:84% e muita coisa a respeito vem sendo discutida. 00:02:34.450 --> 00:02:40.030 align:middle line:84% Mas o mais importante, a IA precisa confiar em nós, humanos. 00:02:40.030 --> 00:02:43.060 align:middle line:84% Afinal, nem sempre tivemos um histórico perfeito 00:02:43.060 --> 00:02:46.420 align:middle line:90% de fazer a coisa certa. 00:02:46.420 --> 00:02:49.480 align:middle line:84% Infelizmente, já existem numerosos exemplos 00:02:49.480 --> 00:02:51.650 align:middle line:90% em que essa confiança deu errado. 00:02:51.650 --> 00:02:56.500 align:middle line:84% Um chatbot do Twitter que se tornou racista da noite para o dia, 00:02:56.500 --> 00:02:59.470 align:middle line:84% carros autônomos se envolvendo em acidentes fatais, 00:02:59.470 --> 00:03:03.040 align:middle line:84% e tecnologia de reconhecimento facial que discrimina 00:03:03.040 --> 00:03:05.230 align:middle line:90% certas populações, 00:03:05.230 --> 00:03:08.740 align:middle line:90% especialmente mulheres de cor. 00:03:08.740 --> 00:03:13.090 align:middle line:84% Para reconstruirmos essa confiança, vamos observar como os humanos fazem isso. 00:03:13.090 --> 00:03:15.160 align:middle line:84% Todos os dias tomamos milhares de decisões 00:03:15.160 --> 00:03:17.150 align:middle line:84% que envolvem confiar um no outro, 00:03:17.150 --> 00:03:21.329 align:middle line:84% em nossas relações pessoais e profissionais. 00:03:21.329 --> 00:03:24.060 align:middle line:84% Às vezes, essa confiança se baseia em legislações 00:03:24.060 --> 00:03:25.890 align:middle line:90% e termos e condições. 00:03:25.890 --> 00:03:30.360 align:middle line:84% Mas cada vez mais, ela é baseada em pistas implícitas, não verbais e sutis 00:03:30.360 --> 00:03:33.930 align:middle line:84% que trocamos com outra pessoa, com a empatia 00:03:33.930 --> 00:03:36.450 align:middle line:84% na essência da construção dessa confiança. 00:03:36.450 --> 00:03:38.970 align:middle line:90% Atualmente, a tecnologia tem muito QI, 00:03:38.970 --> 00:03:42.690 align:middle line:84% muita inteligência cognitiva, mas nenhum QE, 00:03:42.690 --> 00:03:44.410 align:middle line:90% nenhuma inteligência emocional. 00:03:44.410 --> 00:03:47.340 align:middle line:90% É o componente que falta. 00:03:47.340 --> 00:03:50.950 align:middle line:84% Ao longo de toda a minha carreira, tenho perguntado, 00:03:50.950 --> 00:03:54.990 align:middle line:84% e se a tecnologia pudesse identificar as emoções humanas 00:03:54.990 --> 00:03:56.942 align:middle line:90% assim como nós podemos? 00:03:56.942 --> 00:03:58.900 align:middle line:84% E se o seu computador puder perceber a diferença 00:03:58.900 --> 00:04:01.750 align:middle line:84% entre um sorriso pretensioso e um sorriso verdadeiro? 00:04:01.750 --> 00:04:03.890 align:middle line:84% Ambos envolvem a metade inferior do rosto, 00:04:03.890 --> 00:04:06.770 align:middle line:84% mas têm significados muito diferentes. 00:04:06.770 --> 00:04:11.690 align:middle line:84% Então, como podemos construir essa IA que entende humanos? 00:04:11.690 --> 00:04:14.570 align:middle line:84% A maneira de fazer isso é observar como os humanos fazem isso. 00:04:14.570 --> 00:04:18.320 align:middle line:84% Apenas 7% da maneira como comunicamos nossos estados mentais 00:04:18.320 --> 00:04:21.760 align:middle line:84% baseia-se na real escolha das palavras que usamos. 00:04:21.760 --> 00:04:26.960 align:middle line:84% 93% é não verbal, dividido entre nossas expressões faciais 00:04:26.960 --> 00:04:27.950 align:middle line:90% e nossos gestos, 00:04:27.950 --> 00:04:30.420 align:middle line:90% e eu faço muitos, 00:04:30.420 --> 00:04:34.040 align:middle line:84% e 38% das entonações vocais, quão rápido 00:04:34.040 --> 00:04:37.640 align:middle line:84% você está falando, quanta energia há em sua voz? 00:04:37.640 --> 00:04:40.080 align:middle line:84% Boa parte da minha carreira tem sido focada no rosto. 00:04:40.080 --> 00:04:44.240 align:middle line:84% É uma tela muito poderosa para expressar emoções humanas. 00:04:44.240 --> 00:04:49.740 align:middle line:84% A ciência das emoções faciais existe há mais de 200 anos. 00:04:49.740 --> 00:04:52.700 align:middle line:84% Esse cara, Duchenne, costumava estimular eletricamente 00:04:52.700 --> 00:04:57.740 align:middle line:84% nossos músculos faciais para mapear como esses músculos faciais se movem. 00:04:57.740 --> 00:05:00.790 align:middle line:90% Felizmente, não fazemos mais isso. 00:05:00.790 --> 00:05:04.740 align:middle line:84% E então, no final dos anos 70, Paul Ekman e sua equipe 00:05:04.740 --> 00:05:07.770 align:middle line:84% publicou o Facial Action Coding System, 00:05:07.770 --> 00:05:11.760 align:middle line:84% um método objetivo de mapear cada movimento muscular facial 00:05:11.760 --> 00:05:13.960 align:middle line:84% em uma unidade de ação, em um código. 00:05:13.960 --> 00:05:16.650 align:middle line:84% Então, por exemplo, quando você sorri, e tenta fazer isso comigo, 00:05:16.650 --> 00:05:19.800 align:middle line:84% quando você sorri, você está puxando o músculo zigomático, 00:05:19.800 --> 00:05:24.180 align:middle line:84% e isso é basicamente o puxar do canto do lábio ou unidade de ação 12. 00:05:24.180 --> 00:05:28.210 align:middle line:84% Quando você ruga ou franze a testa, esta é a unidade de ação 4, 00:05:28.210 --> 00:05:29.910 align:middle line:90% é a testa franzida. 00:05:29.910 --> 00:05:32.310 align:middle line:84% E normalmente é um indicador de uma emoção negativa, 00:05:32.310 --> 00:05:36.080 align:middle line:90% como confusão ou raiva. 00:05:36.080 --> 00:05:39.530 align:middle line:84% Existem cerca de 45 desses músculos faciais 00:05:39.530 --> 00:05:42.290 align:middle line:84% e leva cerca de 100 horas de treinamento 00:05:42.290 --> 00:05:47.090 align:middle line:84% para se tornar um codificador FACS certificado ou um leitor de expressões. 00:05:47.090 --> 00:05:49.790 align:middle line:90% Muito trabalhoso, muito demorado. 00:05:49.790 --> 00:05:51.650 align:middle line:84% E para codificar cada minuto do vídeo, 00:05:51.650 --> 00:05:54.140 align:middle line:84% leva cerca de cinco minutos para assistir ao vídeo 00:05:54.140 --> 00:05:56.890 align:middle line:84% em câmera lenta e dizer, oh, ahá, eu vejo um, 00:05:56.890 --> 00:05:59.570 align:middle line:84% você sabe, uma sobrancelha levantada ou um franzir dos olhos. 00:05:59.570 --> 00:06:01.040 align:middle line:90% Não precisamos mais fazer isso. 00:06:01.040 --> 00:06:04.370 align:middle line:84% Em vez disso, usamos visão computacional, aprendizado de máquina 00:06:04.370 --> 00:06:07.670 align:middle line:84% e aprendizado profundo para treinar automaticamente algoritmos 00:06:07.670 --> 00:06:10.720 align:middle line:90% que detectem essas expressões faciais. 00:06:10.720 --> 00:06:13.450 align:middle line:84% Usamos centenas de milhares de exemplos 00:06:13.450 --> 00:06:17.140 align:middle line:84% de pessoas sorrindo pretensiosamente, rindo e franzindo as sobrancelhas 00:06:17.140 --> 00:06:18.670 align:middle line:90% para treinar esses algoritmos. 00:06:18.670 --> 00:06:23.290 align:middle line:84% E a rede de aprendizado profundo é capaz de destilar 00:06:23.290 --> 00:06:25.480 align:middle line:84% o que é comum entre todos esses sorrisos, o que é comum 00:06:25.480 --> 00:06:29.710 align:middle line:84% entre todas essas testas franzidas, e é assim que se aprende. 00:06:29.710 --> 00:06:32.320 align:middle line:84% Portanto, para simplificar, o primeiro passo do processo 00:06:32.320 --> 00:06:34.930 align:middle line:90% é triangular onde está o rosto, 00:06:34.930 --> 00:06:39.130 align:middle line:84% encontrar pontos faciais, como sobrancelhas, boca 00:06:39.130 --> 00:06:40.240 align:middle line:90% ou seu nariz. 00:06:40.240 --> 00:06:43.750 align:middle line:84% E então você alimenta essa região em uma rede neural profunda 00:06:43.750 --> 00:06:46.300 align:middle line:84% que é capaz de destilar quais expressões estão acontecendo 00:06:46.300 --> 00:06:49.450 align:middle line:84% no rosto, e mapeá-las em um número 00:06:49.450 --> 00:06:51.760 align:middle line:90% de estados emocionais e cognitivos. 00:06:51.760 --> 00:06:55.090 align:middle line:84% Tudo, desde alegria, surpresa, raiva, nojo 00:06:55.090 --> 00:06:58.720 align:middle line:84% a estados mais complexos, como fadiga, atenção, 00:06:58.720 --> 00:07:02.470 align:middle line:84% sobrecarga cognitiva, confusão e muito mais. 00:07:02.470 --> 00:07:04.540 align:middle line:84% Em nosso trabalho ao longo dos últimos anos, 00:07:04.540 --> 00:07:08.260 align:middle line:84% reunimos o maior repositório de emoções do mundo. 00:07:08.260 --> 00:07:11.680 align:middle line:84% 9,5 milhões de vídeos faciais que coletamos, 00:07:11.680 --> 00:07:13.930 align:middle line:84% com a aceitação e consentimento de todos, 00:07:13.930 --> 00:07:16.280 align:middle line:90% em 90 países ao redor do mundo. 00:07:16.280 --> 00:07:19.900 align:middle line:84% Isso se traduz aproximadamente em 5 bilhões de quadros faciais. 00:07:19.900 --> 00:07:22.450 align:middle line:90% É de longe o maior repositório 00:07:22.450 --> 00:07:25.090 align:middle line:90% de respostas emocionais reais que existe. 00:07:25.090 --> 00:07:27.280 align:middle line:84% E usamos esses dados para treinar, mas também 00:07:27.280 --> 00:07:30.690 align:middle line:90% validar nossos algoritmos. 00:07:30.690 --> 00:07:33.800 align:middle line:84% Existem milhares de aplicações dessa tecnologia 00:07:33.800 --> 00:07:37.340 align:middle line:90% transformando indústrias. 00:07:37.340 --> 00:07:39.980 align:middle line:84% Minha grande visão é que, nos próximos anos, 00:07:39.980 --> 00:07:43.159 align:middle line:90% vamos ver a IA emocional se tornar 00:07:43.159 --> 00:07:44.900 align:middle line:90% a interface homem-máquina definitva. 00:07:44.900 --> 00:07:47.810 align:middle line:84% Com isso, basicamente estaríamos interagindo com nossos dispositivos 00:07:47.810 --> 00:07:50.150 align:middle line:84% da mesma maneira como interagimos um com o outro. 00:07:50.150 --> 00:07:51.260 align:middle line:90% Através da fala. 00:07:51.260 --> 00:07:53.600 align:middle line:84% Já estamos vendo isso com dispositivos de conversação 00:07:53.600 --> 00:07:55.550 align:middle line:90% como Alexa e Siri. 00:07:55.550 --> 00:07:56.540 align:middle line:90% Através da percepção. 00:07:56.540 --> 00:07:58.520 align:middle line:84% Novamente, já estamos começando a ver dispositivos 00:07:58.520 --> 00:08:00.530 align:middle line:90% com câmeras embutidas. 00:08:00.530 --> 00:08:04.070 align:middle line:84% Mas talvez o mais importante, através da empatia e da inteligência 00:08:04.070 --> 00:08:05.550 align:middle line:90% emocional. 00:08:05.550 --> 00:08:06.800 align:middle line:90% Existem muitas aplicações. 00:08:06.800 --> 00:08:09.120 align:middle line:90% Vou me concentrar em algumas. 00:08:09.120 --> 00:08:11.420 align:middle line:90% A primeira aplicação é quantificar 00:08:11.420 --> 00:08:14.960 align:middle line:84% como os consumidores se envolvem emocionalmente com produtos e marcas 00:08:14.960 --> 00:08:16.730 align:middle line:90% em torno deles. 00:08:16.730 --> 00:08:20.240 align:middle line:84% A maneira como isso funciona é que enviamos pesquisas para as pessoas, 00:08:20.240 --> 00:08:22.710 align:middle line:84% pedimos que eles assistam a um conteúdo. 00:08:22.710 --> 00:08:26.120 align:middle line:84% Poderia ser um anúncio em vídeo, um trailer de filme, 00:08:26.120 --> 00:08:30.380 align:middle line:84% poderia ser um programa de TV, poderia ser conteúdo de aprendizagem. 00:08:30.380 --> 00:08:32.299 align:middle line:90% Mas a ideia é que queremos capturar 00:08:32.299 --> 00:08:35.510 align:middle line:84% o envolvimento emocional e a resposta emocional das pessoas 00:08:35.510 --> 00:08:37.789 align:middle line:90% à este conteúdo. 00:08:37.789 --> 00:08:39.990 align:middle line:84% Pedimos às pessoas para ligar suas câmeras, 00:08:39.990 --> 00:08:42.182 align:middle line:84% com consentimento e aceitação, algo realmente importante, 00:08:42.182 --> 00:08:44.390 align:middle line:84% e então somos capazes de capturar essas respostas 00:08:44.390 --> 00:08:46.710 align:middle line:90% momento a momento. 00:08:46.710 --> 00:08:52.170 align:middle line:84% Nossa tecnologia está sendo usada por 25% das empresas da Fortune Global 500, 00:08:52.170 --> 00:08:55.080 align:middle line:84% bem como as principais empresas de pesquisa de mercado 00:08:55.080 --> 00:08:59.400 align:middle line:84% que use nossa tecnologia para quantificar a resposta emocional 00:08:59.400 --> 00:09:02.898 align:middle line:84% que os consumidores e os espectadores têm ao seu conteúdo. 00:09:02.898 --> 00:09:04.440 align:middle line:90% Achei que seria bem divertido 00:09:04.440 --> 00:09:08.580 align:middle line:84% mostrar um dos vídeos de anúncio que testamos 00:09:08.580 --> 00:09:11.200 align:middle line:84% e que temos permissão para compartilhar publicamente. 00:09:11.200 --> 00:09:12.250 align:middle line:90% Então, vamos assistir juntos. 00:09:12.250 --> 00:09:15.666 align:middle line:90% [MÚSICA - TONY DALLARA, "COME PRIMA"] 00:09:18.106 --> 00:09:21.522 align:middle line:90% [CANTANDO EM ITALIANO] 00:10:13.124 --> 00:10:16.390 align:middle line:90% Mamãe chegou lá primeiro. 00:10:16.390 --> 00:10:21.380 align:middle line:84% Atualmente, testamos mais de 50.000 anúncios em todo o mundo. 00:10:21.380 --> 00:10:27.520 align:middle line:84% E esse anúncio em particular tem uma pontuação entre os 10% melhores 00:10:27.520 --> 00:10:30.760 align:middle line:84% de todos esses anúncios no percentil nonagésimo. 00:10:30.760 --> 00:10:34.060 align:middle line:84% Ela acumula um envolvimento emocional muito forte, 00:10:34.060 --> 00:10:36.040 align:middle line:84% que é a nossa pontuação de expressividade. 00:10:36.040 --> 00:10:37.570 align:middle line:90% Isso ganha muitos sorrisos. 00:10:37.570 --> 00:10:40.960 align:middle line:84% E você pode ver a curva do sorriso momento a momento 00:10:40.960 --> 00:10:43.660 align:middle line:84% para todos que assistiram ao anúncio e que foi possível 00:10:43.660 --> 00:10:46.400 align:middle line:90% registrar os dados. 00:10:46.400 --> 00:10:48.710 align:middle line:84% O que é realmente fascinante sobre este anúncio em particular 00:10:48.710 --> 00:10:51.410 align:middle line:84% é que se você comparar a primeira vez que as pessoas viram, 00:10:51.410 --> 00:10:53.300 align:middle line:90% que é a linha verde sólida, 00:10:53.300 --> 00:10:55.130 align:middle line:84% com a segunda vez que as pessoas viram, 00:10:55.130 --> 00:10:57.050 align:middle line:90% que é a linha verde pontilhada. 00:10:57.050 --> 00:11:00.140 align:middle line:84% Você pode realmente perceber que as pessoas têm memória do anúncio. 00:11:00.140 --> 00:11:02.420 align:middle line:84% Elas estão antecipando quando é realmente engraçado 00:11:02.420 --> 00:11:05.420 align:middle line:84% e estão rindo antes mesmo de a cena começar, 00:11:05.420 --> 00:11:07.640 align:middle line:84% o que é exatamente o que você quer fazer. 00:11:07.640 --> 00:11:09.920 align:middle line:84% E o mais importante, estamos levando os espectadores 00:11:09.920 --> 00:11:12.050 align:middle line:90% a uma jornada emocional que culmina 00:11:12.050 --> 00:11:15.650 align:middle line:84% com uma resposta muito positiva no final, que coincide 00:11:15.650 --> 00:11:16.700 align:middle line:90% com a revelação da marca. 00:11:16.700 --> 00:11:19.280 align:middle line:84% E, mais uma vez, sabemos por nossas pesquisas 00:11:19.280 --> 00:11:22.990 align:middle line:84% que esse tipo de métrica é muito positiva. 00:11:22.990 --> 00:11:25.020 align:middle line:84% Adoro este exemplo em particular, porque é 00:11:25.020 --> 00:11:29.130 align:middle line:84% um exemplo de onde marcas como Coca-Cola e Unilever 00:11:29.130 --> 00:11:32.820 align:middle line:84% usam essa tecnologia para realmente promover a publicidade em vídeos on-line 00:11:32.820 --> 00:11:36.720 align:middle line:84% e se tornar mais inclusiva e mais progressista. 00:11:36.720 --> 00:11:39.780 align:middle line:84% Mas eles precisam fazer isso de uma maneira muito reflexiva. 00:11:39.780 --> 00:11:42.750 align:middle line:84% E eles são capazes de capturar essas respostas viscerais subconscientes 00:11:42.750 --> 00:11:45.830 align:middle line:90% com seus anúncios. 00:11:45.830 --> 00:11:48.800 align:middle line:84% Sabemos também, a partir de muito trabalho que fizemos com essas marcas 00:11:48.800 --> 00:11:51.650 align:middle line:84% onde correlacionamos as respostas emocionais 00:11:51.650 --> 00:11:54.860 align:middle line:84% ao comportamento real do consumidor, que esse tipo 00:11:54.860 --> 00:11:58.460 align:middle line:84% de jornada emocional e de respostas emocionais positivas 00:11:58.460 --> 00:12:00.620 align:middle line:90% se correlacionam muito bem com coisas 00:12:00.620 --> 00:12:03.800 align:middle line:84% como aumento de vendas, intenção de compra e vitalidade. 00:12:06.790 --> 00:12:09.910 align:middle line:84% E como testamos 50.000 anúncios em todo o mundo, 00:12:09.910 --> 00:12:12.280 align:middle line:90% fomos capazes de criar benchmarks. 00:12:12.280 --> 00:12:14.680 align:middle line:84% Então, por exemplo, sabemos que nos EUA, 00:12:14.680 --> 00:12:19.070 align:middle line:84% anúncios de cuidados com animais e bebês são os que mais se divertem. 00:12:19.070 --> 00:12:22.400 align:middle line:84% Curiosamente, no Canadá, são os anúncios de cereais 00:12:22.400 --> 00:12:24.980 align:middle line:90% que provocam o maior prazer. 00:12:24.980 --> 00:12:28.950 align:middle line:84% E, infelizmente, os anúncios de telecomunicação quase não trazem 00:12:28.950 --> 00:12:29.450 align:middle line:90% prazer algum. 00:12:29.450 --> 00:12:32.010 align:middle line:90% Eles são muito chatos de assistir. 00:12:32.010 --> 00:12:34.470 align:middle line:84% Portanto, esses dados são realmente muito perspicazes, 00:12:34.470 --> 00:12:36.510 align:middle line:84% e fornecem às marcas e aos profissionais de marketing 00:12:36.510 --> 00:12:39.120 align:middle line:90% novas ideias que os ajudam 00:12:39.120 --> 00:12:41.400 align:middle line:84% a tomar decisões sobre gastos com mídia, 00:12:41.400 --> 00:12:44.510 align:middle line:84% bem como otimizar o conteúdo de publicidade. 00:12:44.510 --> 00:12:46.140 align:middle line:90% E não é apenas publicidade, 00:12:46.140 --> 00:12:50.803 align:middle line:84% você também pode gerar esse mesmo tipo de informação com programas de TV. 00:12:50.803 --> 00:12:52.470 align:middle line:84% E este é um dos meus exemplos favoritos. 00:12:52.470 --> 00:12:56.430 align:middle line:84% É uma comédia que testamos há algum tempo para a CBS. 00:12:56.430 --> 00:12:58.260 align:middle line:90% Chamava-se Friends with Better Lives. 00:12:58.260 --> 00:12:59.610 align:middle line:84% Não acho que ficou no ar por muito tempo. 00:12:59.610 --> 00:13:01.120 align:middle line:90% Não deu muito certo. 00:13:01.120 --> 00:13:03.810 align:middle line:84% Mas aqui, novamente, você está vendo a curva do sorriso. 00:13:03.810 --> 00:13:06.690 align:middle line:90% E sobrepomos os personagens 00:13:06.690 --> 00:13:08.850 align:middle line:90% da cena nessa curva. 00:13:08.850 --> 00:13:11.490 align:middle line:84% E você pode ver que existem dois personagens específicos, 00:13:11.490 --> 00:13:14.770 align:middle line:84% toda vez que eles aparecem, eles não são engraçados. 00:13:14.770 --> 00:13:19.120 align:middle line:84% Basicamente eles são a base nesta curva de sorriso. 00:13:19.120 --> 00:13:21.210 align:middle line:84% E, novamente, dados muito, muito interessantes 00:13:21.210 --> 00:13:23.730 align:middle line:90% que os produtores puderam usar 00:13:23.730 --> 00:13:27.780 align:middle line:90% para substituir esses personagens. 00:13:27.780 --> 00:13:32.240 align:middle line:90% Seguindo do mundo da compreensão 00:13:32.240 --> 00:13:33.840 align:middle line:84% do envolvimento emocional que as pessoas têm 00:13:33.840 --> 00:13:36.240 align:middle line:90% com seu conteúdo para outra área 00:13:36.240 --> 00:13:37.830 align:middle line:84% em que estamos dedicando nosso tempo. 00:13:37.830 --> 00:13:41.430 align:middle line:84% Que é o futuro da mobilidade e do transporte. 00:13:41.430 --> 00:13:43.320 align:middle line:84% Quando começamos a trabalhar nesse espaço, 00:13:43.320 --> 00:13:45.780 align:middle line:84% fomos abordados por várias montadoras 00:13:45.780 --> 00:13:49.710 align:middle line:84% em todo o mundo que queriam redirecionar nossas emoções, 00:13:49.710 --> 00:13:51.780 align:middle line:90% sentindo a tecnologia do carro. 00:13:51.780 --> 00:13:54.360 align:middle line:84% E para fazer isso, queríamos ver, bem, 00:13:54.360 --> 00:13:57.640 align:middle line:84% como as pessoas se comportavam no carro de qualquer maneira, em especial motoristas. 00:13:57.640 --> 00:14:00.330 align:middle line:84% E então partimos para coletar alguns dados. 00:14:00.330 --> 00:14:03.683 align:middle line:84% Muitos de nós na empresa estávamos muito céticos de que, 00:14:03.683 --> 00:14:05.100 align:middle line:84% talvez porque as pessoas sabiam que haveria 00:14:05.100 --> 00:14:06.725 align:middle line:90% uma câmera no painel do carro, 00:14:06.725 --> 00:14:09.990 align:middle line:90% não haveria respostas emocionais 00:14:09.990 --> 00:14:12.210 align:middle line:90% ou cognitivas interessantes. 00:14:12.210 --> 00:14:13.060 align:middle line:90% E nós estávamos errados. 00:14:13.060 --> 00:14:16.920 align:middle line:84% Então, vou mostrar alguns exemplos de videoclipes. 00:14:16.920 --> 00:14:19.920 align:middle line:84% Mais uma vez, essas pessoas sabiam que a câmera estava 00:14:19.920 --> 00:14:22.320 align:middle line:84% em seus veículos, eles instalaram, 00:14:22.320 --> 00:14:27.090 align:middle line:84% eles consentiram, e ainda vimos alguns comportamentos muito interessantes 00:14:27.090 --> 00:14:28.030 align:middle line:90% de direção. 00:14:28.030 --> 00:14:32.610 align:middle line:84% Nesse caso em particular, esse pai está dirigindo o veículo. 00:14:32.610 --> 00:14:33.920 align:middle line:90% Ele está extremamente sonolento. 00:14:33.920 --> 00:14:35.700 align:middle line:90% Existem quatro níveis de sonolência. 00:14:35.700 --> 00:14:38.370 align:middle line:90% Ele está basicamente dormindo. 00:14:38.370 --> 00:14:40.170 align:middle line:90% E você também pode ver que a filha dele 00:14:40.170 --> 00:14:41.460 align:middle line:90% está no banco de trás. 00:14:41.460 --> 00:14:45.330 align:middle line:84% Ou seja, uma condução muito, muito imprudente. 00:14:45.330 --> 00:14:48.480 align:middle line:84% E certamente posso simpatizar com isso. 00:14:48.480 --> 00:14:52.200 align:middle line:84% Foram muitas as vezes, quando podíamos viajar, 00:14:52.200 --> 00:14:56.190 align:middle line:84% quando eu voltava de uma longa viagem, com jet-lag, 00:14:56.190 --> 00:14:57.870 align:middle line:90% e dirigia exausta com meus filhos. 00:14:57.870 --> 00:14:59.940 align:middle line:84% Então eu certamente posso relacionar isso. 00:14:59.940 --> 00:15:03.597 align:middle line:84% Mas esse é um exemplo muito simples do que a tecnologia é capaz. 00:15:03.597 --> 00:15:05.430 align:middle line:84% E você pode ver aqui que a tecnologia foi capaz 00:15:05.430 --> 00:15:08.745 align:middle line:84% de detectar coisas como fechamento dos olhos, boca aberta, 00:15:08.745 --> 00:15:10.650 align:middle line:90% e níveis de sonolência. 00:15:10.650 --> 00:15:14.200 align:middle line:84% E você pode imaginar como o carro pode interferir nesse caso. 00:15:14.200 --> 00:15:15.730 align:middle line:90% Aqui está outro exemplo. 00:15:15.730 --> 00:15:17.880 align:middle line:90% Então, ela está dirigindo. 00:15:17.880 --> 00:15:21.960 align:middle line:84% E também está mandando mensagens enquanto dirige, muito distraída. 00:15:21.960 --> 00:15:24.510 align:middle line:84% Mas, oh, ela tem dois telefones na mão, 00:15:24.510 --> 00:15:27.330 align:middle line:90% então ela está muito distraída. 00:15:27.330 --> 00:15:28.680 align:middle line:90% Os olhos dela não estão na estrada. 00:15:28.680 --> 00:15:30.780 align:middle line:90% Suas mãos estão fora do volante. 00:15:30.780 --> 00:15:33.960 align:middle line:84% Você não quer estar dirigindo ao lado desta mulher. 00:15:33.960 --> 00:15:37.080 align:middle line:84% Mas, novamente, esse é um exemplo do que a tecnologia pode captar 00:15:37.080 --> 00:15:38.860 align:middle line:90% apenas analisando o seu olhar, 00:15:38.860 --> 00:15:41.670 align:middle line:84% a cabeça dela apresenta informações, e também combina elas 00:15:41.670 --> 00:15:43.270 align:middle line:90% com coisas como detecção de objetos. 00:15:43.270 --> 00:15:45.810 align:middle line:84% Então podemos detectar que ela tem não apenas um, 00:15:45.810 --> 00:15:47.070 align:middle line:90% mas dois celulares na mão dela. 00:15:47.070 --> 00:15:50.160 align:middle line:84% Podemos sinalizar isso como um motorista muito distraído. 00:15:50.160 --> 00:15:52.800 align:middle line:84% E, novamente, o carro pode intervir de uma maneira ou de outra. 00:15:52.800 --> 00:15:55.740 align:middle line:84% Você pode imaginar que se este fosse um Tesla, 00:15:55.740 --> 00:15:58.710 align:middle line:84% e ele pudesse entrar no modo semi-autônomo, 00:15:58.710 --> 00:16:00.360 align:middle line:84% e poderia simplesmente dizer, espere um segundo, 00:16:00.360 --> 00:16:02.610 align:middle line:84% posso ser um motorista melhor nesse momento 00:16:02.610 --> 00:16:06.030 align:middle line:84% do que você, eu estou assumindo o controle. 00:16:06.030 --> 00:16:08.670 align:middle line:84% Fizemos muitas pesquisas em colaboração 00:16:08.670 --> 00:16:11.970 align:middle line:84% com o grupo de tecnologia avançada de veículos do MIT, 00:16:11.970 --> 00:16:15.900 align:middle line:84% onde fizemos o primeiro estudo de larga escala analisando 00:16:15.900 --> 00:16:17.590 align:middle line:84% o comportamento do motorista ao longo do tempo. 00:16:17.590 --> 00:16:19.260 align:middle line:90% E nesse caso em particular, 00:16:19.260 --> 00:16:22.030 align:middle line:84% você está olhando para o participante número 66. 00:16:22.030 --> 00:16:23.450 align:middle line:90% Ela é uma mulher. 00:16:23.450 --> 00:16:24.930 align:middle line:90% Ela tem 22 anos. 00:16:24.930 --> 00:16:28.950 align:middle line:84% E todas as vezes que dirigiu na segunda-feira estão concatenadas na coluna segunda-feira. 00:16:28.950 --> 00:16:31.860 align:middle line:84% E todas as vezes que dirigiu na terça-feira, estão concatenadas na terça-feira, 00:16:31.860 --> 00:16:33.130 align:middle line:90% e assim por diante. 00:16:33.130 --> 00:16:37.470 align:middle line:84% E você pode ver que ela está muito cansada durante a semana. 00:16:37.470 --> 00:16:39.030 align:middle line:90% Há muitos bocejos acontecendo 00:16:39.030 --> 00:16:40.650 align:middle line:90% no começo do dia. 00:16:40.650 --> 00:16:44.020 align:middle line:84% E durante o fim de semana e também no final do dia, 00:16:44.020 --> 00:16:49.650 align:middle line:84% temos muito mais expressões positivas. 00:16:49.650 --> 00:16:53.040 align:middle line:84% Dizem que uma imagem vale mais que mil palavras. 00:16:53.040 --> 00:16:55.950 align:middle line:84% Acredito que um vídeo vale ainda mais. 00:16:55.950 --> 00:17:02.220 align:middle line:84% Vou mostrar alguns exemplos comparando os períodos verpertinos e matutinos 00:17:02.220 --> 00:17:06.420 align:middle line:90% do comportamento na direção. 00:17:06.420 --> 00:17:09.990 align:middle line:84% Então, novamente, todos foram extraídos usando nossos algoritmos. 00:17:09.990 --> 00:17:12.930 align:middle line:84% Basicamente invocamos o classificador de bocejos 00:17:12.930 --> 00:17:15.060 align:middle line:84% para detectar todos os seus comportamentos de bocejo 00:17:15.060 --> 00:17:20.000 align:middle line:90% todas as vezes que ela dirigiu. 00:17:20.000 --> 00:17:23.618 align:middle line:84% Então você pode ver que ela costuma estar muito exausta de manhã. 00:17:23.618 --> 00:17:25.887 align:middle line:84% E você pode imaginar, se esse é um padrão recorrente, 00:17:25.887 --> 00:17:27.430 align:middle line:90% então o carro já sabe 00:17:27.430 --> 00:17:30.340 align:middle line:90% que ela vai entrar exausta. 00:17:30.340 --> 00:17:32.770 align:middle line:84% Talvez possam haver sugestões proativas 00:17:32.770 --> 00:17:37.690 align:middle line:84% que o carro pode fazer para o motorista, por conta das suas condições. 00:17:37.690 --> 00:17:42.720 align:middle line:84% Vamos comparar isso com o seu comportamento ao dirigir de tarde. 00:17:42.720 --> 00:17:46.140 align:middle line:84% Podemos ver que ela está muito mais acordada. 00:17:46.140 --> 00:17:49.110 align:middle line:84% Ela é muito mais animada, muito mais sorridente, com muito mais 00:17:49.110 --> 00:17:50.520 align:middle line:90% expressões positivas. 00:17:50.520 --> 00:17:54.300 align:middle line:84% E mais uma vez, se o carro tivesse seu perfil de condução, 00:17:54.300 --> 00:17:56.940 align:middle line:90% poderia customizar e personalizar 00:17:56.940 --> 00:18:02.170 align:middle line:84% a experiência de dirigir com base em suas experiências emocionais. 00:18:02.170 --> 00:18:05.310 align:middle line:84% Então estamos trabalhando muito próximos de várias montadoras 00:18:05.310 --> 00:18:08.400 align:middle line:84% para reimaginar essa experiência de transporte. 00:18:08.400 --> 00:18:10.260 align:middle line:84% Não apenas nos carros, onde podemos 00:18:10.260 --> 00:18:13.890 align:middle line:84% focar no motorista, mas também veículos do futuro, 00:18:13.890 --> 00:18:17.910 align:middle line:84% onde realmente temos essa visão de uma solução de sensor incumbente 00:18:17.910 --> 00:18:20.670 align:middle line:84% que observa não apenas o motorista, mas os outros ocupantes do veículo 00:18:20.670 --> 00:18:21.510 align:middle line:90% também. 00:18:21.510 --> 00:18:23.820 align:middle line:90% Assim como outros objetos no carro. 00:18:23.820 --> 00:18:25.680 align:middle line:84% Uma criança foi esquecida no banco de trás? 00:18:25.680 --> 00:18:27.600 align:middle line:90% Você esqueceu seu telefone? 00:18:27.600 --> 00:18:29.557 align:middle line:84% Quantos ocupantes existem no veículo? 00:18:29.557 --> 00:18:30.390 align:middle line:90% Qual é o estado deles? 00:18:30.390 --> 00:18:34.300 align:middle line:84% Você pode personalizar a música, o conteúdo, a iluminação, 00:18:34.300 --> 00:18:37.260 align:middle line:90% e assim por diante? 00:18:37.260 --> 00:18:39.110 align:middle line:84% Mas, é claro, muitos de nós não vamos mais passar 00:18:39.110 --> 00:18:40.610 align:middle line:90% muito tempo no carro 00:18:40.610 --> 00:18:43.310 align:middle line:90% durante esta pandemia global. 00:18:43.310 --> 00:18:47.870 align:middle line:84% E, de fato, muitos de nós estamos dedicando muito mais do nosso tempo 00:18:47.870 --> 00:18:52.250 align:middle line:84% em videoconferências e em eventos virtuais. 00:18:52.250 --> 00:18:55.700 align:middle line:84% Fazer a conexão humana através da tecnologia é realmente difícil. 00:18:55.700 --> 00:19:00.140 align:middle line:84% E principalmente porque o principal método de comunicação 00:19:00.140 --> 00:19:01.430 align:middle line:90% é não verbal. 00:19:01.430 --> 00:19:05.070 align:middle line:84% E às vezes quando estamos nessas conferências virtuais, 00:19:05.070 --> 00:19:09.140 align:middle line:90% eventos virtuais e eventos de vídeo, 00:19:09.140 --> 00:19:13.310 align:middle line:84% você não está realmente aproveitando a energia e as expressões 00:19:13.310 --> 00:19:14.000 align:middle line:90% da audiência. 00:19:14.000 --> 00:19:16.220 align:middle line:90% E sem dúvidas eu percebo isso. 00:19:16.220 --> 00:19:19.220 align:middle line:84% Acabei de lançar meu livro Garota Decodificada, como mencionei. 00:19:19.220 --> 00:19:21.890 align:middle line:84% E eu tive que mudar de uma turnê sobre o meu livro, 00:19:21.890 --> 00:19:24.650 align:middle line:84% onde eu deveria estar viajando sem parar em março, abril, 00:19:24.650 --> 00:19:28.220 align:middle line:84% e maio, a todos esses tours virtuais de livros e sessões de livros 00:19:28.220 --> 00:19:28.910 align:middle line:90% virtuais. 00:19:28.910 --> 00:19:32.840 align:middle line:84% E é muito diferente porque, em um ambiente ao vivo, 00:19:32.840 --> 00:19:34.370 align:middle line:90% eu posso ver a platéia. 00:19:34.370 --> 00:19:36.710 align:middle line:84% Eu posso ver todos vocês e posso absorver sua energia. 00:19:36.710 --> 00:19:38.870 align:middle line:84% E eu posso customizar e personalizar 00:19:38.870 --> 00:19:43.010 align:middle line:84% e adaptar meu conteúdo com base em como você está se envolvendo comigo. 00:19:43.010 --> 00:19:46.190 align:middle line:84% Quando faço isso virtualmente, geralmente é uma conversa de mão única, 00:19:46.190 --> 00:19:49.010 align:middle line:84% ou pelo menos me parece que é uma conversa de mão única. 00:19:49.010 --> 00:19:51.750 align:middle line:84% E acho isso realmente doloroso e perturbador. 00:19:51.750 --> 00:19:55.820 align:middle line:84% Mas acho que existe uma oportunidade para mudarmos isso. 00:19:55.820 --> 00:19:59.390 align:middle line:84% E se integrarmos a IA emocional à isso, 00:19:59.390 --> 00:20:02.300 align:middle line:84% como uma forma de agregar a resposta do público, 00:20:02.300 --> 00:20:05.360 align:middle line:84% capturando todas as suas expressões faciais anonimamente. 00:20:05.360 --> 00:20:08.070 align:middle line:84% Eu não preciso ver o rosto de todo mundo. 00:20:08.070 --> 00:20:11.120 align:middle line:84% De fato, isso provavelmente seria demais enquanto eu apresento. 00:20:11.120 --> 00:20:14.510 align:middle line:84% Mas se eu fosse capaz de ver um sinal, momento a momento, 00:20:14.510 --> 00:20:17.042 align:middle line:90% do quão positivo ou negativo 00:20:17.042 --> 00:20:18.500 align:middle line:84% você está envolvido com este conteúdo, 00:20:18.500 --> 00:20:20.420 align:middle line:84% isso seria uma informação muito poderosa 00:20:20.420 --> 00:20:22.670 align:middle line:84% que me permitiria personalizar e obter 00:20:22.670 --> 00:20:27.030 align:middle line:84% uma noção do nível de envolvimento do público. 00:20:27.030 --> 00:20:28.900 align:middle line:90% Quero lhes mostrar um exemplo. 00:20:28.900 --> 00:20:31.390 align:middle line:84% A partir de uma reunião interna de equipe no Zoom, 00:20:31.390 --> 00:20:34.240 align:middle line:84% onde registramos as respostas das equipes. 00:20:34.240 --> 00:20:37.360 align:middle line:84% E você pode ver aqui a resposta agregada. 00:20:37.360 --> 00:20:40.180 align:middle line:84% Claro, existem diferentes maneiras de visualizar esses dados, 00:20:40.180 --> 00:20:42.070 align:middle line:84% mas fomos capazes de monitorar todos 00:20:42.070 --> 00:20:44.405 align:middle line:84% e podemos agregar os sorrisos e respostas das pessoas. 00:20:44.405 --> 00:20:46.030 align:middle line:84% Eles estavam realmente falando sobre... 00:20:46.030 --> 00:20:49.960 align:middle line:84% Foi no início de março, quando a pandemia foi declarada. 00:20:49.960 --> 00:20:51.970 align:middle line:84% E estávamos conversando sobre o que vai acontecer 00:20:51.970 --> 00:20:54.287 align:middle line:90% e sobre trabalhar em casa. 00:20:54.287 --> 00:20:55.870 align:middle line:84% E as pessoas estavam compartilhando suas histórias. 00:20:55.870 --> 00:20:58.190 align:middle line:84% E havia muita empatia e comportamento sorridente. 00:20:58.190 --> 00:21:00.190 align:middle line:90% E foi possível monitorar isso. 00:21:00.190 --> 00:21:02.890 align:middle line:84% Agora, compare isso com uma reunião chata e entediante, 00:21:02.890 --> 00:21:04.600 align:middle line:84% onde todos simplesmente não estão envolvidos. 00:21:04.600 --> 00:21:06.230 align:middle line:90% Você percebe a diferença. 00:21:06.230 --> 00:21:09.790 align:middle line:84% E podemos quantificar esses dados para o envolvimento em tempo real, 00:21:09.790 --> 00:21:16.050 align:middle line:84% e também fazer isso depois do fato como pós-análise. 00:21:16.050 --> 00:21:18.800 align:middle line:84% Da mesma forma, em um ambiente de aprendizado on-line, 00:21:18.800 --> 00:21:21.650 align:middle line:84% e se um professor pudesse medir o envolvimento emocional 00:21:21.650 --> 00:21:24.920 align:middle line:90% de seus alunos, da mesma maneira 00:21:24.920 --> 00:21:26.150 align:middle line:90% que em uma aula ao vivo. 00:21:26.150 --> 00:21:28.070 align:middle line:90% É isso que um professor legal faz, certo? 00:21:28.070 --> 00:21:30.710 align:middle line:90% Você capta o envolvimento dos alunos 00:21:30.710 --> 00:21:33.710 align:middle line:84% e então personaliza a experiência de aprendizado. 00:21:33.710 --> 00:21:37.620 align:middle line:84% E também maximiza os resultados da aprendizagem. 00:21:37.620 --> 00:21:41.390 align:middle line:84% Da mesma forma, também existem aplicações em saúde mental. 00:21:41.390 --> 00:21:44.090 align:middle line:84% Hoje, quando você entra no consultório médico, 00:21:44.090 --> 00:21:46.403 align:middle line:84% eles não pedem para medir sua temperatura 00:21:46.403 --> 00:21:48.320 align:middle line:90% ou sua pressão arterial, 00:21:48.320 --> 00:21:49.970 align:middle line:90% eles simplesmente medem. 00:21:49.970 --> 00:21:51.890 align:middle line:84% E se os médicos pudessem objetivamente 00:21:51.890 --> 00:21:53.930 align:middle line:84% medir como você está se sentindo da mesma maneira 00:21:53.930 --> 00:21:56.090 align:middle line:90% que os outros sinais vitais? 00:21:56.090 --> 00:21:58.430 align:middle line:84% Infelizmente, o padrão de excelência na saúde mental 00:21:58.430 --> 00:22:01.230 align:middle line:90% ainda está em uma escala de 1 a 10. 00:22:01.230 --> 00:22:02.840 align:middle line:90% Quão deprimido você está? 00:22:02.840 --> 00:22:04.160 align:middle line:90% Quão suicida você é? 00:22:04.160 --> 00:22:05.810 align:middle line:90% Quanta dor você está sentindo? 00:22:05.810 --> 00:22:08.780 align:middle line:84% E podemos trazer a IA emocional e aplicá-la 00:22:08.780 --> 00:22:12.620 align:middle line:84% de uma maneira que ofereça medidas objetivas das condições 00:22:12.620 --> 00:22:15.190 align:middle line:90% de saúde mental. 00:22:15.190 --> 00:22:17.760 align:middle line:84% Uma área que é muito próxima e querida para mim, 00:22:17.760 --> 00:22:21.010 align:middle line:84% que foi a primeira aplicação da IA emocional que eu explorei, 00:22:21.010 --> 00:22:22.300 align:middle line:90% é o autismo. 00:22:22.300 --> 00:22:24.760 align:middle line:84% Os indivíduos no espectro do autismo têm dificuldades 00:22:24.760 --> 00:22:28.780 align:middle line:84% com a leitura e compreensão de sinais não-verbais. 00:22:28.780 --> 00:22:32.620 align:middle line:84% Eles acham o rosto, em particular, muito insuportável. 00:22:32.620 --> 00:22:34.300 align:middle line:90% E às vezes eles evitam completamente. 00:22:34.300 --> 00:22:37.390 align:middle line:84% Eles evitam o contato facial e visual. 00:22:37.390 --> 00:22:40.690 align:middle line:84% Então, temos uma parceria com uma empresa chamada Brain Power. 00:22:40.690 --> 00:22:45.910 align:middle line:84% Eles usam o Google Glass e nossa tecnologia para ajudar indivíduos 00:22:45.910 --> 00:22:49.180 align:middle line:84% no espectro do autismo a aprender sobre esses sinais não verbais 00:22:49.180 --> 00:22:51.550 align:middle line:84% de uma maneira muito divertida e gamificada. 00:22:51.550 --> 00:22:56.200 align:middle line:84% Vou mostrar a vocês um pequeno vídeo demonstrando isso. 00:22:56.200 --> 00:22:57.850 align:middle line:90% O que você vê na tela? 00:22:57.850 --> 00:22:59.090 align:middle line:90% Mamãe. 00:22:59.090 --> 00:23:02.128 align:middle line:84% Matthew Krieger, de 8 anos, foi diagnosticado com autismo. 00:23:02.128 --> 00:23:04.170 align:middle line:84% Muitos dos problemas que ele enfrenta com outras crianças 00:23:04.170 --> 00:23:05.820 align:middle line:90% ele acha que ele é engraçado. 00:23:05.820 --> 00:23:07.950 align:middle line:84% E não reconhece de forma alguma, que ele não está, 00:23:07.950 --> 00:23:10.020 align:middle line:84% ou que eles estão, irritados ou com raiva. 00:23:10.020 --> 00:23:11.550 align:middle line:84% A mãe de Matthew, Laura, inscreveu ele 00:23:11.550 --> 00:23:15.570 align:middle line:84% em um ensaio clínico sendo conduzido por Ned Sahin. 00:23:15.570 --> 00:23:20.010 align:middle line:84% Eu quero saber o que está acontecendo dentro do cérebro de alguém 00:23:20.010 --> 00:23:21.270 align:middle line:90% com autismo. 00:23:21.270 --> 00:23:24.600 align:middle line:84% E acontece que os pais também querem saber. 00:23:24.600 --> 00:23:26.700 align:middle line:84% Você ganha pontos ao olhar por um tempo 00:23:26.700 --> 00:23:29.660 align:middle line:84% e também ao desviar o olhar e depois voltar a olhar. 00:23:29.660 --> 00:23:32.910 align:middle line:84% A empresa de Sahin, Brain Power, usa o software da Affectiva 00:23:32.910 --> 00:23:35.940 align:middle line:84% nos programas que Matthew vê através do Google Glass. 00:23:35.940 --> 00:23:37.950 align:middle line:84% Esses jogos estão tentando ajudá-lo a entender 00:23:37.950 --> 00:23:40.860 align:middle line:84% como as expressões faciais correspondem a emoções 00:23:40.860 --> 00:23:42.840 align:middle line:90% e a aprender dicas sociais. 00:23:42.840 --> 00:23:45.300 align:middle line:84% Uma das principais habilidades da vida é entender 00:23:45.300 --> 00:23:47.000 align:middle line:90% as emoções dos outros. 00:23:47.000 --> 00:23:50.190 align:middle line:90% E a outra é olhar na direção 00:23:50.190 --> 00:23:51.510 align:middle line:90% de quem está falando. 00:23:51.510 --> 00:23:54.750 align:middle line:84% Olhar para sua mãe e enquanto está verde, você está ganhando pontos, 00:23:54.750 --> 00:23:58.020 align:middle line:84% quando começa a ficar laranja e vermelho, 00:23:58.020 --> 00:24:00.660 align:middle line:90% você ganha menos pontos. 00:24:00.660 --> 00:24:01.698 align:middle line:90% Estou olhando para você. 00:24:01.698 --> 00:24:02.490 align:middle line:90% Você está me olhando. 00:24:02.490 --> 00:24:05.250 align:middle line:84% Apenas alguns minutos depois, a diferença no olhar de Matthew 00:24:05.250 --> 00:24:06.780 align:middle line:90% surpreendeu sua mãe. 00:24:06.780 --> 00:24:09.200 align:middle line:90% Eu quero chorar. 00:24:09.200 --> 00:24:09.700 align:middle line:90% Por quê? 00:24:13.540 --> 00:24:19.340 align:middle line:90% Porque quando você olha para mim, 00:24:19.340 --> 00:24:22.020 align:middle line:84% me faz pensar que você nunca fez isso antes, 00:24:22.020 --> 00:24:25.230 align:middle line:84% porque você está me olhando de maneira diferente. 00:24:25.230 --> 00:24:29.260 align:middle line:84% Então, a Brain Power tem cerca de 400 desses sistemas Google Glass 00:24:29.260 --> 00:24:33.400 align:middle line:84% aplicados em famílias nos Estados Unidos. 00:24:33.400 --> 00:24:35.650 align:middle line:84% E a principal pergunta que eles estão tentando responder, 00:24:35.650 --> 00:24:38.290 align:middle line:84% já estamos vendo melhorias em termos 00:24:38.290 --> 00:24:41.763 align:middle line:84% da compreensão social e não verbal das crianças, 00:24:41.763 --> 00:24:43.180 align:middle line:84% enquanto elas não estão usando os óculos. 00:24:43.180 --> 00:24:47.410 align:middle line:84% A questão principal é o que acontece quando eles tiram os óculos. 00:24:47.410 --> 00:24:50.580 align:middle line:90% Esse aprendizado generaliza? 00:24:50.580 --> 00:24:53.592 align:middle line:84% Há também outras aplicações dessa tecnologia 00:24:53.592 --> 00:24:54.300 align:middle line:90% em saúde mental. 00:24:54.300 --> 00:24:58.050 align:middle line:84% Por exemplo, um sistema para detecção precoce de Parkinson. 00:24:58.050 --> 00:25:02.070 align:middle line:90% Erin Smith, ela hoje estuda em Stanford. 00:25:02.070 --> 00:25:05.370 align:middle line:84% Há algum tempo, quando ela era caloura na universidade, 00:25:05.370 --> 00:25:08.550 align:middle line:84% ela nos enviou um e-mail dizendo que estava assistindo 00:25:08.550 --> 00:25:12.240 align:middle line:90% este documentário sobre Parkinson 00:25:12.240 --> 00:25:14.320 align:middle line:90% e que queria usar sua tecnologia. 00:25:14.320 --> 00:25:15.450 align:middle line:90% Quanto custa isso? 00:25:15.450 --> 00:25:20.187 align:middle line:84% E lembro que nosso chefe de vendas me perguntou, o que eu digo à ela? 00:25:20.187 --> 00:25:21.520 align:middle line:84% Ela não pode pagar pela nossa tecnologia. 00:25:21.520 --> 00:25:24.390 align:middle line:90% E eu disse, dê à ela de graça. 00:25:24.390 --> 00:25:26.250 align:middle line:90% Mas o que ela vai fazer com isso? 00:25:26.250 --> 00:25:29.808 align:middle line:84% E Erin sumiu por alguns meses, e depois voltou. 00:25:29.808 --> 00:25:31.350 align:middle line:84% Ela fez uma parceria com a fundação 00:25:31.350 --> 00:25:36.120 align:middle line:84% Michael J. Fox e criou este sistema para identificar 00:25:36.120 --> 00:25:38.250 align:middle line:90% biomarcadores faciais de Parkinson. 00:25:38.250 --> 00:25:40.590 align:middle line:84% E ela continua trabalhando nessa pesquisa. 00:25:40.590 --> 00:25:43.060 align:middle line:90% Uma jovem muito inspiradora. 00:25:43.060 --> 00:25:45.090 align:middle line:84% E eu me sinto muito orgulhosa por termos participado 00:25:45.090 --> 00:25:47.190 align:middle line:84% de uma pequena parte de sua jornada. 00:25:47.190 --> 00:25:50.490 align:middle line:84% Também sabemos que existem biomarcadores faciais e vocais 00:25:50.490 --> 00:25:51.780 align:middle line:90% de depressão. 00:25:51.780 --> 00:25:56.040 align:middle line:84% E há muito trabalho sendo feito para sinalizar tendências suicidas 00:25:56.040 --> 00:25:57.630 align:middle line:90% com base nesses sinais. 00:25:57.630 --> 00:26:00.570 align:middle line:84% Este é um trabalho que estamos colaborando 00:26:00.570 --> 00:26:05.960 align:middle line:84% com o professor Steven Benoit e também outros. 00:26:05.960 --> 00:26:08.260 align:middle line:84% Mas isso traz um tópico muito importante, 00:26:08.260 --> 00:26:10.410 align:middle line:90% ou seja, há muitas aplicações 00:26:10.410 --> 00:26:13.320 align:middle line:84% para essa tecnologia, mas qual é o limite? 00:26:13.320 --> 00:26:16.470 align:middle line:84% E eu me sinto muito inspirada por esse conceito 00:26:16.470 --> 00:26:20.460 align:middle line:84% de desenvolvimento ético e de implantação da IA. 00:26:20.460 --> 00:26:24.990 align:middle line:84% Não se trata apenas de reconhecer que existe 00:26:24.990 --> 00:26:27.630 align:middle line:84% muito potencial para o bem, mas também 00:26:27.630 --> 00:26:29.940 align:middle line:84% reconhecer onde isso pode ser usado de forma abusiva 00:26:29.940 --> 00:26:33.560 align:middle line:84% e as consequências não-intencionais dessa tecnologia. 00:26:33.560 --> 00:26:35.310 align:middle line:84% Alguns anos atrás, quando estávamos levantando 00:26:35.310 --> 00:26:37.380 align:middle line:84% fundos para a empresa, fomos abordados 00:26:37.380 --> 00:26:41.670 align:middle line:84% por uma agência que queria nos dar muito dinheiro, 00:26:41.670 --> 00:26:44.700 align:middle line:84% US$ 40 milhões na época, que era muito dinheiro 00:26:44.700 --> 00:26:47.150 align:middle line:90% para a nossa pequena startup, 00:26:47.150 --> 00:26:49.680 align:middle line:84% na condição de que eles queriam usar a tecnologia para detecção 00:26:49.680 --> 00:26:52.500 align:middle line:90% de mentiras e vigilância. 00:26:52.500 --> 00:26:54.690 align:middle line:84% E isso realmente não estava de acordo com nossos valores fundamentais 00:26:54.690 --> 00:26:58.020 align:middle line:84% de respeitar a privacidade e o consentimento das pessoas. 00:26:58.020 --> 00:27:02.020 align:middle line:84% Além de reconhecer que, como usuário, 00:27:02.020 --> 00:27:03.730 align:middle line:90% esses dados são muito pessoais. 00:27:03.730 --> 00:27:05.940 align:middle line:90% E se eu vou compartilhar isso, 00:27:05.940 --> 00:27:07.890 align:middle line:84% eu preciso saber exatamente quem está usando, 00:27:07.890 --> 00:27:12.370 align:middle line:84% como está sendo usado e também, o que eu ganho com isso? 00:27:12.370 --> 00:27:14.040 align:middle line:90% Então passamos muito tempo pensando 00:27:14.040 --> 00:27:15.780 align:middle line:90% sobre essa assimetria de poder, 00:27:15.780 --> 00:27:17.580 align:middle line:90% que valor eu recebo em troca 00:27:17.580 --> 00:27:20.307 align:middle line:84% por compartilhar esses dados muito pessoais. 00:27:20.307 --> 00:27:22.390 align:middle line:84% O que é realmente legal nisso é que a indústria 00:27:22.390 --> 00:27:25.440 align:middle line:84% está assumindo a dianteira na definição dessas melhores 00:27:25.440 --> 00:27:26.820 align:middle line:90% práticas e diretrizes. 00:27:26.820 --> 00:27:30.600 align:middle line:84% Fazemos parte de um consórcio chamado Parceria na IA. 00:27:30.600 --> 00:27:32.460 align:middle line:84% Ele foi iniciado pelos gigantes da tecnologia, 00:27:32.460 --> 00:27:35.430 align:middle line:84% Amazon, Google, Facebook, Microsoft. 00:27:35.430 --> 00:27:39.120 align:middle line:84% E desde então eles convidaram várias startups, 00:27:39.120 --> 00:27:40.440 align:middle line:90% como a Affectiva. 00:27:40.440 --> 00:27:44.880 align:middle line:84% Mas também outras partes interessadas, como a ACLU e a Anistia Internacional. 00:27:44.880 --> 00:27:47.760 align:middle line:90% E eu faço parte do comitê FATE, 00:27:47.760 --> 00:27:51.090 align:middle line:84% que significa uma IA justa, responsável, transparente e igualitária. 00:27:51.090 --> 00:27:55.290 align:middle line:84% E nossa tarefa é apresentar essas diretrizes 00:27:55.290 --> 00:27:57.227 align:middle line:90% em torno de uma regulamentação reflexiva. 00:27:57.227 --> 00:27:59.310 align:middle line:84% Precisamos de regulamentação, mas ela precisa ser reflexiva. 00:27:59.310 --> 00:28:02.100 align:middle line:84% Nós não queremos esgotar completamente a inovação, 00:28:02.100 --> 00:28:03.600 align:middle line:84% ao mesmo tempo, realmente precisamos 00:28:03.600 --> 00:28:06.030 align:middle line:90% pensar sobre onde traçamos o limite 00:28:06.030 --> 00:28:11.910 align:middle line:84% e como podemos definir essa regulamentação reflexiva. 00:28:11.910 --> 00:28:14.240 align:middle line:84% E, no final das contas, minha missão 00:28:14.240 --> 00:28:17.570 align:middle line:84% é humanizar a tecnologia antes que ela nos desumanize. 00:28:17.570 --> 00:28:21.080 align:middle line:84% E quero que possamos voltar a colocar ênfase no humano, 00:28:21.080 --> 00:28:23.200 align:middle line:90% não no artificial. 00:28:23.200 --> 00:28:27.290 align:middle line:84% E para finalizar, se tudo isso deixou você um pouco mais curioso 00:28:27.290 --> 00:28:29.750 align:middle line:84% sobre IA emocional, suas aplicações 00:28:29.750 --> 00:28:34.280 align:middle line:84% e suas implicações, estarei dando um livro autografado 00:28:34.280 --> 00:28:37.520 align:middle line:84% para as três primeiras pessoas que postarem nas minhas mídias sociais, 00:28:37.520 --> 00:28:41.350 align:middle line:84% LinkedIn, Facebook, Twitter, Instagram, usando as hashtags 00:28:41.350 --> 00:28:45.860 align:middle line:84% #LIVEWORX e #GIRLDECODED com um comentário ou uma pergunta 00:28:45.860 --> 00:28:47.970 align:middle line:90% sobre esta apresentação. 00:28:47.970 --> 00:28:50.970 align:middle line:90% Obrigada. 00:28:50.970 --> 00:28:52.470 align:middle line:90% [TEMA DO LIVEWORX] 00:28:52.470 --> 00:28:54.500 align:middle line:84% Obrigado por se juntar a nós, Dra. el Kaliouby. 00:28:54.500 --> 00:28:56.690 align:middle line:90% Que apresentação interessante. 00:28:56.690 --> 00:29:00.000 align:middle line:84% Então, isso conclui nossa terceira sessão do dia. 00:29:00.000 --> 00:29:01.460 align:middle line:90% A seguir, na hora exata, 00:29:01.460 --> 00:29:05.240 align:middle line:84% vamos ouvir como as empresas estão promovendo o CAD baseado em SaaS, 00:29:05.240 --> 00:29:07.550 align:middle line:84% PLM e realidade aumentada como ferramentas-chave 00:29:07.550 --> 00:29:11.270 align:middle line:84% não apenas para sobreviverem às rupturas, mas para abraçarem esse novo normal. 00:29:11.270 --> 00:29:13.160 align:middle line:84% Voltaremos em breve após uma pequena pausa. 00:29:13.160 --> 00:29:16.510 align:middle line:90% [TEMA DA LIVEWORX]