WEBVTT 00:00:00.000 --> 00:00:02.640 align:middle line:90% [MELODÍA LIVEWORX] 00:00:02.640 --> 00:00:05.100 align:middle line:90% Bienvenidos nuevamente a LiveWorx 2020. 00:00:05.100 --> 00:00:07.200 align:middle line:84% Mi nombre es Andia Winslow y soy su anfitriona 00:00:07.200 --> 00:00:09.420 align:middle line:90% para el evento en vivo de hoy. 00:00:09.420 --> 00:00:10.920 align:middle line:90% Ya hemos escuchado sobre algunos 00:00:10.920 --> 00:00:12.810 align:middle line:84% de los principales líderes de pensamiento tecnológico 00:00:12.810 --> 00:00:14.580 align:middle line:90% del mundo industrial. 00:00:14.580 --> 00:00:17.730 align:middle line:84% Ahora, si no pudieron presenciar esas sesiones anteriores, 00:00:17.730 --> 00:00:21.090 align:middle line:84% asegúrense de chequearlas en el catálogo a pedido de LiveWorx, 00:00:21.090 --> 00:00:24.180 align:middle line:84% que está disponible para ustedes desde hoy hasta el 19 de junio. 00:00:24.180 --> 00:00:27.810 align:middle line:84% La biblioteca virtual tiene más de 100 sesiones adicionales 00:00:27.810 --> 00:00:29.340 align:middle line:90% con excelente material. 00:00:29.340 --> 00:00:31.800 align:middle line:84% Además, estén atentos a un próximo correo electrónico 00:00:31.800 --> 00:00:35.800 align:middle line:84% para obtener acceso a nuestro contenido archivado durante todo un año. 00:00:35.800 --> 00:00:38.220 align:middle line:84% Ahora, empecemos con nuestra próxima sesión... 00:00:38.220 --> 00:00:40.770 align:middle line:84% inteligencia emocional artificial o emociones IA, 00:00:40.770 --> 00:00:44.100 align:middle line:90% qué es y por qué es importante. 00:00:44.100 --> 00:00:48.810 align:middle line:84% La Dra. Rana el Kaliouby es la directora ejecutiva y cofundadora de Affectiva. 00:00:48.810 --> 00:00:52.890 align:middle line:84% Como derivado del MIT Media Lab, Affectiva creó y definió 00:00:52.890 --> 00:00:54.750 align:middle line:90% la categoría de emociones IA. 00:00:54.750 --> 00:00:57.630 align:middle line:84% Un software que puede detectar emociones humanas matizadas 00:00:57.630 --> 00:01:01.740 align:middle line:84% y estados cognitivos complejos de la cara y la voz. 00:01:01.740 --> 00:01:05.099 align:middle line:84% La Dra. el Kaliouby es pionera en emociones IA y es la autora 00:01:05.099 --> 00:01:07.680 align:middle line:90% de "Girl Decoded: A Scientist's Quest 00:01:07.680 --> 00:01:10.080 align:middle line:84% to Reclaim our Humanity by Bringing Emotional 00:01:10.080 --> 00:01:12.240 align:middle line:90% Intelligence to Technology". 00:01:12.240 --> 00:01:17.690 align:middle line:84% Estoy muy contenta de darle la bienvenida a la Dra. Rana el Kaliouby. 00:01:17.690 --> 00:01:18.740 align:middle line:90% Gracias, Andia. 00:01:18.740 --> 00:01:22.020 align:middle line:90% Es un placer estar con todos ustedes hoy. 00:01:22.020 --> 00:01:24.770 align:middle line:90% Mi misión es humanizar a la tecnología 00:01:24.770 --> 00:01:29.180 align:middle line:84% antes de que ella nos deshumanice, creando inteligencia emocional 00:01:29.180 --> 00:01:32.900 align:middle line:84% y empatía dentro de nuestros dispositivos y nuestras tecnologías. 00:01:32.900 --> 00:01:35.420 align:middle line:90% Y haciendo eso, mi objetivo es reimaginar 00:01:35.420 --> 00:01:38.690 align:middle line:84% las interfaces hombre-ordenador, así como también 00:01:38.690 --> 00:01:42.100 align:middle line:90% la conexión persona a persona. 00:01:42.100 --> 00:01:45.250 align:middle line:84% Todos hemos sido catapultados a este universo en donde 00:01:45.250 --> 00:01:46.479 align:middle line:90% estamos trabajando virtualmente. 00:01:46.479 --> 00:01:49.210 align:middle line:84% Así es como nos conectamos con los miembros de nuestro equipo. 00:01:49.210 --> 00:01:50.800 align:middle line:84% Estamos aprendiendo virtualmente, quiero decir, así es como 00:01:50.800 --> 00:01:52.420 align:middle line:90% mis hijos están aprendiendo. 00:01:52.420 --> 00:01:55.870 align:middle line:84% Y nos conectamos con amigos y familiares virtualmente. 00:01:55.870 --> 00:01:57.680 align:middle line:90% Sin embargo, algo falta. 00:01:57.680 --> 00:01:59.410 align:middle line:90% No es exactamente lo mismo. 00:01:59.410 --> 00:02:03.610 align:middle line:84% Y es realmente este concepto de la falta de todos nuestros 00:02:03.610 --> 00:02:07.180 align:middle line:84% signos no verbales en estos entornos virtuales. 00:02:07.180 --> 00:02:11.570 align:middle line:84% La IA se refiere a los roles que típicamente desempeñaban los humanos, 00:02:11.570 --> 00:02:13.990 align:middle line:84% como el de asistente en el manejo de nuestros automóviles, 00:02:13.990 --> 00:02:17.620 align:middle line:84% asistente en nuestra atención médica, ayudarnos a ser más productivos, 00:02:17.620 --> 00:02:21.310 align:middle line:84% y tal vez incluso contratar a tu próximo compañero de trabajo. 00:02:21.310 --> 00:02:25.240 align:middle line:84% El problema es que necesitamos un nuevo contrato social entre humanos 00:02:25.240 --> 00:02:26.380 align:middle line:90% y la IA. 00:02:26.380 --> 00:02:30.130 align:middle line:84% Uno que se base en la confianza mutua y recíproca. 00:02:30.130 --> 00:02:32.200 align:middle line:84% Por supuesto que necesitamos confiar en la IA 00:02:32.200 --> 00:02:34.450 align:middle line:90% y hay muchas discusiones en torno a eso. 00:02:34.450 --> 00:02:40.030 align:middle line:84% Pero sobre todo, la IA necesita confiar en nosotros, los humanos. 00:02:40.030 --> 00:02:43.060 align:middle line:84% Después de todo, no siempre tenemos un historial perfecto 00:02:43.060 --> 00:02:46.420 align:middle line:90% sobre hacer lo correcto. 00:02:46.420 --> 00:02:49.480 align:middle line:84% Desafortunadamente, ya hay numerosos ejemplos en los que 00:02:49.480 --> 00:02:51.650 align:middle line:90% esta confianza ha salido mal. 00:02:51.650 --> 00:02:56.500 align:middle line:84% Un bot conversacional de Twitter que de repente se volvió racista, 00:02:56.500 --> 00:02:59.470 align:middle line:84% automóviles sin conductor involucrándose en accidentes fatales, 00:02:59.470 --> 00:03:03.040 align:middle line:84% y tecnología de reconocimiento facial que discrimina 00:03:03.040 --> 00:03:05.230 align:middle line:90% a algunas poblaciones... 00:03:05.230 --> 00:03:08.740 align:middle line:90% especialmente a las mujeres de color. 00:03:08.740 --> 00:03:13.090 align:middle line:84% Para recuperar esta confianza, veamos cómo lo hacen los humanos. 00:03:13.090 --> 00:03:15.160 align:middle line:84% Todos los días tomamos miles de decisiones 00:03:15.160 --> 00:03:17.150 align:middle line:90% que involucran confiar unos en otros, 00:03:17.150 --> 00:03:21.329 align:middle line:84% tanto en nuestras relaciones personales como en las profesionales. 00:03:21.329 --> 00:03:24.060 align:middle line:84% A veces esta confianza se basa en legalizar 00:03:24.060 --> 00:03:25.890 align:middle line:90% y en los términos y condiciones. 00:03:25.890 --> 00:03:30.360 align:middle line:84% Pero más frecuentemente, se basa en lo implícito, lo no verbal, en sutiles 00:03:30.360 --> 00:03:33.930 align:middle line:84% señales que intercambiamos unos con otros, con la empatía 00:03:33.930 --> 00:03:36.450 align:middle line:84% en el núcleo de la construcción de esta confianza. 00:03:36.450 --> 00:03:38.970 align:middle line:84% Hoy en día la tecnología tiene mucho cociente intelectual... 00:03:38.970 --> 00:03:42.690 align:middle line:84% mucha inteligencia cognitiva, pero no tiene cociente emocional... 00:03:42.690 --> 00:03:44.410 align:middle line:90% no tiene inteligencia emocional. 00:03:44.410 --> 00:03:47.340 align:middle line:90% Es el componente que falta. 00:03:47.340 --> 00:03:50.950 align:middle line:84% Así que me he estado preguntando durante toda mi carrera 00:03:50.950 --> 00:03:54.990 align:middle line:84% que pasaría si la tecnología pudiera identificar emociones humanas 00:03:54.990 --> 00:03:56.942 align:middle line:90% tal como lo hacemos nosotros. 00:03:56.942 --> 00:03:58.900 align:middle line:84% ¿Qué pasaría si tu ordenador pudiera distinguir entre 00:03:58.900 --> 00:04:01.750 align:middle line:90% una sonrisa y una mueca? 00:04:01.750 --> 00:04:03.890 align:middle line:84% Ambas involucran a la parte inferior de la cara, 00:04:03.890 --> 00:04:06.770 align:middle line:90% pero tienen significados muy diferentes. 00:04:06.770 --> 00:04:11.690 align:middle line:84% Entonces, ¿cómo podemos desarrollar IA que entienda al humano? 00:04:11.690 --> 00:04:14.570 align:middle line:84% La manera de hacer esto es observar cómo lo hacen los humanos. 00:04:14.570 --> 00:04:18.320 align:middle line:84% Solo el 7% de cómo comunicamos nuestros estados mentales 00:04:18.320 --> 00:04:21.760 align:middle line:84% se basa en la elección real de las palabras que utilizamos. 00:04:21.760 --> 00:04:26.960 align:middle line:84% El 93% es no verbal y se divide entre nuestra expresión facial 00:04:26.960 --> 00:04:27.950 align:middle line:90% y nuestros gestos... 00:04:27.950 --> 00:04:30.420 align:middle line:90% Yo hago muchos de estos... 00:04:30.420 --> 00:04:34.040 align:middle line:84% y el 38% de la entonación vocal, qué tan rápido hablas, 00:04:34.040 --> 00:04:37.640 align:middle line:90% cuánta energía hay en tu voz. 00:04:37.640 --> 00:04:40.080 align:middle line:84% Mucha de mi carrera se ha centrado en la cara. 00:04:40.080 --> 00:04:44.240 align:middle line:84% Es un lienzo muy poderoso para comunicar las emociones humanas. 00:04:44.240 --> 00:04:49.740 align:middle line:84% La ciencia de las emociones faciales ha existido por más de 200 años. 00:04:49.740 --> 00:04:52.700 align:middle line:84% Este hombre, Duchenne, solía estimular eléctricamente 00:04:52.700 --> 00:04:57.740 align:middle line:84% nuestros músculos faciales para diagramar el movimiento de estos músculos faciales. 00:04:57.740 --> 00:05:00.790 align:middle line:90% Ya no hacemos eso, afortunadamente. 00:05:00.790 --> 00:05:04.740 align:middle line:84% Y luego a finales de los años 70, Paul Ekman y su equipo 00:05:04.740 --> 00:05:07.770 align:middle line:84% publicaron el Sistema de Codificación Facial... 00:05:07.770 --> 00:05:11.760 align:middle line:84% un método objetivo para relacionar el movimiento de cada músculo facial 00:05:11.760 --> 00:05:13.960 align:middle line:90% con una unidad de acción, con un código. 00:05:13.960 --> 00:05:16.650 align:middle line:84% Entonces, por ejemplo, cuando sonríes... intenta esto conmigo... 00:05:16.650 --> 00:05:19.800 align:middle line:84% cuando sonríes, tiras del músculo zigomático 00:05:19.800 --> 00:05:24.180 align:middle line:84% y básicamente el tirón de la comisura del labio o la unidad de acción 12. 00:05:24.180 --> 00:05:28.210 align:middle line:84% Cuando arrugas o frunces el ceño, esto es la unidad de acción 4, 00:05:28.210 --> 00:05:29.910 align:middle line:90% es la arruga de la frente. 00:05:29.910 --> 00:05:32.310 align:middle line:84% Y es típicamente un indicador de una emoción negativa 00:05:32.310 --> 00:05:36.080 align:middle line:90% como confusión o enojo. 00:05:36.080 --> 00:05:39.530 align:middle line:90% Hay alrededor de 45 músculos faciales 00:05:39.530 --> 00:05:42.290 align:middle line:84% y lleva alrededor de 100 horas de entrenamiento 00:05:42.290 --> 00:05:47.090 align:middle line:84% certificarse y ser codificador FACS o lector de caras... 00:05:47.090 --> 00:05:49.790 align:middle line:90% muy trabajoso, muy intensivo. 00:05:49.790 --> 00:05:51.650 align:middle line:90% Y codificar cada minuto de video 00:05:51.650 --> 00:05:54.140 align:middle line:84% lleva alrededor de 5 minutos mirando el video 00:05:54.140 --> 00:05:56.890 align:middle line:90% en cámara lenta y diciendo oh, ajá, veo, 00:05:56.890 --> 00:05:59.570 align:middle line:84% ya sabes, un levantar de cejas o un entrecerrar de ojos. 00:05:59.570 --> 00:06:01.040 align:middle line:90% Ya no necesitamos hacer eso. 00:06:01.040 --> 00:06:04.370 align:middle line:84% En cambio, utilizamos la visión del ordenador y el aprendizaje automático y 00:06:04.370 --> 00:06:07.670 align:middle line:84% el aprendizaje profundo para enseñarles automáticamente a los algoritmos 00:06:07.670 --> 00:06:10.720 align:middle line:90% a detectar estas expresiones faciales. 00:06:10.720 --> 00:06:13.450 align:middle line:90% Utilizamos cientos de miles de ejemplos 00:06:13.450 --> 00:06:17.140 align:middle line:84% de personas sonriendo y haciendo una mueca y arrugando las cejas 00:06:17.140 --> 00:06:18.670 align:middle line:90% para entrenar a estos algoritmos. 00:06:18.670 --> 00:06:23.290 align:middle line:84% Y la red de aprendizaje profundo es capaz de distinguir 00:06:23.290 --> 00:06:25.480 align:middle line:84% qué es lo que tienen en común todas estas sonrisas, qué tienen 00:06:25.480 --> 00:06:29.710 align:middle line:84% en común todas estas muecas, y así es cómo aprende. 00:06:29.710 --> 00:06:32.320 align:middle line:84% Y así, para simplificarlo, la primera etapa del proceso 00:06:32.320 --> 00:06:34.930 align:middle line:90% es triangular dónde está la cara, 00:06:34.930 --> 00:06:39.130 align:middle line:84% encontrar puntos de referencia faciales como las cejas, la boca 00:06:39.130 --> 00:06:40.240 align:middle line:90% o la nariz. 00:06:40.240 --> 00:06:43.750 align:middle line:84% Y luego alimentas esa región dentro de una red neuronal profunda 00:06:43.750 --> 00:06:46.300 align:middle line:84% que es capaz de distinguir qué expresiones suceden 00:06:46.300 --> 00:06:49.450 align:middle line:84% en la cara y relacionarlas con una cantidad de 00:06:49.450 --> 00:06:51.760 align:middle line:90% estados emocionales y cognitivos. 00:06:51.760 --> 00:06:55.090 align:middle line:84% Desde la alegría, la sorpresa, el enojo, el disgusto, 00:06:55.090 --> 00:06:58.720 align:middle line:84% hasta estados más complejos como el cansancio, la atención, 00:06:58.720 --> 00:07:02.470 align:middle line:84% la sobrecarga cognitiva, la confusión, y mucho más. 00:07:02.470 --> 00:07:04.540 align:middle line:84% En nuestro trabajo a lo largo de los últimos años, 00:07:04.540 --> 00:07:08.260 align:middle line:84% hemos acumulado el repositorio de emociones más grande del mundo. 00:07:08.260 --> 00:07:11.680 align:middle line:84% 9 millones y medio de videos faciales que hemos recopilado... 00:07:11.680 --> 00:07:13.930 align:middle line:84% con la adhesión y el consentimiento de todos... 00:07:13.930 --> 00:07:16.280 align:middle line:90% en 90 países de todo el mundo. 00:07:16.280 --> 00:07:19.900 align:middle line:84% Esto aproximadamente se traduce en cerca de 5 billones de marcos faciales. 00:07:19.900 --> 00:07:22.450 align:middle line:90% Es por lejos el repositorio más grande 00:07:22.450 --> 00:07:25.090 align:middle line:84% de respuestas emocionales reales en todo el mundo. 00:07:25.090 --> 00:07:27.280 align:middle line:84% Y utilizamos esa información para entrenar, pero también para 00:07:27.280 --> 00:07:30.690 align:middle line:90% validar nuestros algoritmos. 00:07:30.690 --> 00:07:33.800 align:middle line:90% Hay muchos usos de esta tecnología 00:07:33.800 --> 00:07:37.340 align:middle line:90% que transforma a las industrias. 00:07:37.340 --> 00:07:39.980 align:middle line:84% Mi visión más importante es que en los próximos años, 00:07:39.980 --> 00:07:43.159 align:middle line:90% veremos a las emociones IA transformarse 00:07:43.159 --> 00:07:44.900 align:middle line:90% en la interfaz humano-máquina de hecho. 00:07:44.900 --> 00:07:47.810 align:middle line:84% Así que básicamente estaríamos interactuando con nuestros dispositivos 00:07:47.810 --> 00:07:50.150 align:middle line:84% de la misma manera en la que interactuamos unos con otros. 00:07:50.150 --> 00:07:51.260 align:middle line:90% Mediante la conversación. 00:07:51.260 --> 00:07:53.600 align:middle line:84% Ya estamos viendo eso con los dispositivos de conversación 00:07:53.600 --> 00:07:55.550 align:middle line:90% como Alexa y Siri. 00:07:55.550 --> 00:07:56.540 align:middle line:90% Mediante la percepción. 00:07:56.540 --> 00:07:58.520 align:middle line:84% De nuevo, ya estamos empezando a ver dispositivos 00:07:58.520 --> 00:08:00.530 align:middle line:90% que tienen cámaras. 00:08:00.530 --> 00:08:04.070 align:middle line:84% Pero tal vez lo más importante, mediante la empatía y la inteligencia 00:08:04.070 --> 00:08:05.550 align:middle line:90% emocional. 00:08:05.550 --> 00:08:06.800 align:middle line:90% Hay muchas aplicaciones. 00:08:06.800 --> 00:08:09.120 align:middle line:90% Me centraré en algunas. 00:08:09.120 --> 00:08:11.420 align:middle line:84% La primera aplicación es sobre cuantificar 00:08:11.420 --> 00:08:14.960 align:middle line:84% cómo se involucran emocionalmente los consumidores con los productos 00:08:14.960 --> 00:08:16.730 align:middle line:90% y las marcas que los rodean. 00:08:16.730 --> 00:08:20.240 align:middle line:84% Esto funciona enviándole las encuestas a las personas, 00:08:20.240 --> 00:08:22.710 align:middle line:84% les pedimos que observen algún tipo de contenido. 00:08:22.710 --> 00:08:26.120 align:middle line:84% Puede ser un anuncio de video en línea, puede ser un avance de una película, 00:08:26.120 --> 00:08:30.380 align:middle line:84% puede ser un programa de televisión real, puede ser contenido educativo. 00:08:30.380 --> 00:08:32.299 align:middle line:90% Pero la idea es que queremos capturar 00:08:32.299 --> 00:08:35.510 align:middle line:84% el compromiso emocional y la respuesta emocional que la gente 00:08:35.510 --> 00:08:37.789 align:middle line:90% tiene a este contenido. 00:08:37.789 --> 00:08:39.990 align:middle line:84% Le pedimos a la gente que enciendan sus cámaras... 00:08:39.990 --> 00:08:42.182 align:middle line:84% el consentimiento y la adhesión son muy importantes... 00:08:42.182 --> 00:08:44.390 align:middle line:90% y luego podemos capturar estas respuestas 00:08:44.390 --> 00:08:46.710 align:middle line:90% momento a momento. 00:08:46.710 --> 00:08:52.170 align:middle line:84% Nuestra tecnología está siendo utilizada por el 25% de la "Fortune Global 500", 00:08:52.170 --> 00:08:55.080 align:middle line:84% así como también por las principales firmas de investigación del mercado 00:08:55.080 --> 00:08:59.400 align:middle line:84% que utilizan nuestra tecnología para cuantificar la respuesta emocional 00:08:59.400 --> 00:09:02.898 align:middle line:84% que los consumidores y espectadores tienen con respecto a su contenido. 00:09:02.898 --> 00:09:04.440 align:middle line:90% Pensé que sería divertido mostrarles 00:09:04.440 --> 00:09:08.580 align:middle line:84% en realidad uno de los anuncios de video que hemos probado 00:09:08.580 --> 00:09:11.200 align:middle line:84% y que tenemos el permiso de compartir públicamente. 00:09:11.200 --> 00:09:12.250 align:middle line:90% Así que veámoslo juntos. 00:09:12.250 --> 00:09:15.666 align:middle line:90% [MÚSICA - TONY DALLARA, "COME PRIMA"] 00:09:18.106 --> 00:09:21.522 align:middle line:90% [CANTA EN ITALIANO] 00:10:13.124 --> 00:10:16.390 align:middle line:90% Uh, mamá llegó primero. 00:10:16.390 --> 00:10:21.380 align:middle line:84% Así que hoy en día hemos probado más de 50 000 anuncios mundialmente. 00:10:21.380 --> 00:10:27.520 align:middle line:84% Y este anuncio en particular tiene puntuaciones en el primer 10% 00:10:27.520 --> 00:10:30.760 align:middle line:84% de todos estos anuncios en el nonagésimo percentil. 00:10:30.760 --> 00:10:34.060 align:middle line:84% Obtiene un compromiso emocional muy fuerte, que 00:10:34.060 --> 00:10:36.040 align:middle line:90% es nuestra puntuación de expresividad. 00:10:36.040 --> 00:10:37.570 align:middle line:90% Obtiene muchas sonrisas. 00:10:37.570 --> 00:10:40.960 align:middle line:84% Y pueden ver la curva de sonrisa momento a momento 00:10:40.960 --> 00:10:43.660 align:middle line:84% para todos los que han visto ese anuncio del que 00:10:43.660 --> 00:10:46.400 align:middle line:90% pudimos registrar información. 00:10:46.400 --> 00:10:48.710 align:middle line:84% Lo que es realmente fascinante sobre este anuncio en particular 00:10:48.710 --> 00:10:51.410 align:middle line:84% es si comparamos la primera vez que la gente lo vio, 00:10:51.410 --> 00:10:53.300 align:middle line:90% que es la línea verde continua. 00:10:53.300 --> 00:10:55.130 align:middle line:90% Con la segunda vez que la gente lo vio, 00:10:55.130 --> 00:10:57.050 align:middle line:90% que es la línea verde punteada. 00:10:57.050 --> 00:11:00.140 align:middle line:84% Pueden ver realmente que la gente recuerda el anuncio. 00:11:00.140 --> 00:11:02.420 align:middle line:90% Se anticipan cuando es realmente gracioso 00:11:02.420 --> 00:11:05.420 align:middle line:84% y se ríen incluso antes de que comience la escena, 00:11:05.420 --> 00:11:07.640 align:middle line:90% que es exactamente lo que quieres. 00:11:07.640 --> 00:11:09.920 align:middle line:84% Y lo más importante, llevamos a los espectadores 00:11:09.920 --> 00:11:12.050 align:middle line:90% a un recorrido emocional que culmina 00:11:12.050 --> 00:11:15.650 align:middle line:84% con una respuesta muy positiva al final, que coincide con 00:11:15.650 --> 00:11:16.700 align:middle line:90% la revelación de la marca. 00:11:16.700 --> 00:11:19.280 align:middle line:84% Y, de nuevo, sabemos a partir de nuestra investigación 00:11:19.280 --> 00:11:22.990 align:middle line:84% que estos tipos de parámetros son muy positivos. 00:11:22.990 --> 00:11:25.020 align:middle line:84% Me gusta este ejemplo en particular porque es 00:11:25.020 --> 00:11:29.130 align:middle line:84% un ejemplo en donde marcas como Coca-Cola y Unilever 00:11:29.130 --> 00:11:32.820 align:middle line:84% utilizan esta tecnología para impulsar los anuncios de video en línea 00:11:32.820 --> 00:11:36.720 align:middle line:84% y volverse más inclusivas y más progresistas. 00:11:36.720 --> 00:11:39.780 align:middle line:84% Pero lo tienen que hacer de una manera muy cuidadosa. 00:11:39.780 --> 00:11:42.750 align:middle line:84% Y son capaces de capturar estas respuestas 00:11:42.750 --> 00:11:45.830 align:middle line:90% subconscientes intensas a sus anuncios. 00:11:45.830 --> 00:11:48.800 align:middle line:84% También sabemos, a partir del trabajo que hemos realizado con estas marcas 00:11:48.800 --> 00:11:51.650 align:middle line:84% donde hemos relacionado las respuestas emocionales 00:11:51.650 --> 00:11:54.860 align:middle line:84% con el comportamiento actual del consumidor, que este tipo de 00:11:54.860 --> 00:11:58.460 align:middle line:84% recorrido emocional y respuestas emocionales positivas 00:11:58.460 --> 00:12:00.620 align:middle line:90% se relacionan altamente con aspectos 00:12:00.620 --> 00:12:03.800 align:middle line:84% como el alza en las ventas, la intención de compra y la vitalidad. 00:12:06.790 --> 00:12:09.910 align:middle line:84% Y porque hemos probado 50 000 anuncios mundialmente 00:12:09.910 --> 00:12:12.280 align:middle line:90% es que podemos crear indicadores. 00:12:12.280 --> 00:12:14.680 align:middle line:84% Así que, por ejemplo, sabemos que en los Estados Unidos, 00:12:14.680 --> 00:12:19.070 align:middle line:84% los anuncios sobre el cuidado de mascotas y bebés provocan mayor placer. 00:12:19.070 --> 00:12:22.400 align:middle line:84% Interesantemente, en Canadá, son los anuncios de cereales 00:12:22.400 --> 00:12:24.980 align:middle line:90% los que provocan mayor placer. 00:12:24.980 --> 00:12:28.950 align:middle line:84% Y, desgraciadamente, los anuncios sobre telecomunicaciones casi no provocan 00:12:28.950 --> 00:12:29.450 align:middle line:90% placer en absoluto. 00:12:29.450 --> 00:12:32.010 align:middle line:90% Son bastante aburridos de ver. 00:12:32.010 --> 00:12:34.470 align:middle line:84% Así que esta información es muy, muy, detallada 00:12:34.470 --> 00:12:36.510 align:middle line:90% y brinda a las marcas y a los vendedores 00:12:36.510 --> 00:12:39.120 align:middle line:90% una novedosa percepción que los ayuda 00:12:39.120 --> 00:12:41.400 align:middle line:84% a tomar decisiones sobre el gasto en los medios 00:12:41.400 --> 00:12:44.510 align:middle line:84% así como también a optimizar su contenido publicitario. 00:12:44.510 --> 00:12:46.140 align:middle line:90% Y no es solo con la publicidad, también 00:12:46.140 --> 00:12:50.803 align:middle line:84% se puede generar ese mismo tipo de información con programas de televisión. 00:12:50.803 --> 00:12:52.470 align:middle line:90% Y este es uno de mis ejemplos favoritos. 00:12:52.470 --> 00:12:56.430 align:middle line:84% Es una comedia que hemos probado hace un tiempo para CBS. 00:12:56.430 --> 00:12:58.260 align:middle line:90% Se llamaba "Friends With Better Lives". 00:12:58.260 --> 00:12:59.610 align:middle line:84% No creo que haya estado al aire por mucho tiempo. 00:12:59.610 --> 00:13:01.120 align:middle line:90% No le fue muy bien. 00:13:01.120 --> 00:13:03.810 align:middle line:84% Pero aquí, de nuevo, están viendo la curva de sonrisa. 00:13:03.810 --> 00:13:06.690 align:middle line:90% Y superponemos los personajes 00:13:06.690 --> 00:13:08.850 align:middle line:90% de la escena en esa curva. 00:13:08.850 --> 00:13:11.490 align:middle line:84% Y pueden ver que hay dos personajes en particular, 00:13:11.490 --> 00:13:14.770 align:middle line:84% cada vez que aparecen, simplemente no son graciosos. 00:13:14.770 --> 00:13:19.120 align:middle line:84% Son básicamente el punto mínimo en esta curva de sonrisa. 00:13:19.120 --> 00:13:21.210 align:middle line:84% Y, de nuevo, información muy, muy interesante 00:13:21.210 --> 00:13:23.730 align:middle line:90% que los productores pudieron utilizar 00:13:23.730 --> 00:13:27.780 align:middle line:90% para cambiar a estos personajes. 00:13:27.780 --> 00:13:32.240 align:middle line:90% Salgamos del mundo de la comprensión 00:13:32.240 --> 00:13:33.840 align:middle line:84% del compromiso emocional que la gente tiene 00:13:33.840 --> 00:13:36.240 align:middle line:84% con su contenido, y vayamos hacia otra área a la que le hemos 00:13:36.240 --> 00:13:37.830 align:middle line:90% dedicado mucho tiempo. 00:13:37.830 --> 00:13:41.430 align:middle line:84% Y que es el futuro de la movilidad y el transporte. 00:13:41.430 --> 00:13:43.320 align:middle line:84% Cuando empezamos a trabajar en el espacio, 00:13:43.320 --> 00:13:45.780 align:middle line:84% nos abordaron una cantidad de fabricantes de automóviles 00:13:45.780 --> 00:13:49.710 align:middle line:84% de todo el mundo que querían readaptar nuestra tecnología de detección 00:13:49.710 --> 00:13:51.780 align:middle line:90% de emociones para el automóvil. 00:13:51.780 --> 00:13:54.360 align:middle line:90% Y para hacer eso queríamos saber, bien, 00:13:54.360 --> 00:13:57.640 align:middle line:84% cómo se comportaban las personas en el auto, especialmente los conductores. 00:13:57.640 --> 00:14:00.330 align:middle line:84% Y entonces salimos para recolectar algunos datos. 00:14:00.330 --> 00:14:03.683 align:middle line:84% Muchos de nosotros en la empresa desconfiábamos de que tal vez, 00:14:03.683 --> 00:14:05.100 align:middle line:90% como la gente sabía que iba a haber 00:14:05.100 --> 00:14:06.725 align:middle line:90% una cámara en sus tableros, 00:14:06.725 --> 00:14:09.990 align:middle line:90% no habría ninguna respuesta emocional 00:14:09.990 --> 00:14:12.210 align:middle line:90% o cognitiva interesante. 00:14:12.210 --> 00:14:13.060 align:middle line:90% Y nos equivocamos. 00:14:13.060 --> 00:14:16.920 align:middle line:84% Les mostraré algunos ejemplos de videoclips. 00:14:16.920 --> 00:14:19.920 align:middle line:84% Nuevamente, estas personas sabían que estaba la cámara 00:14:19.920 --> 00:14:22.320 align:middle line:90% en su vehículo, ellos la instalaron, 00:14:22.320 --> 00:14:27.090 align:middle line:84% ellos dieron su consentimiento, y aún así vimos conductas al volante 00:14:27.090 --> 00:14:28.030 align:middle line:90% muy interesantes. 00:14:28.030 --> 00:14:32.610 align:middle line:84% En este caso en particular, este padre está conduciendo el vehículo. 00:14:32.610 --> 00:14:33.920 align:middle line:90% Está sumamente somnoliento. 00:14:33.920 --> 00:14:35.700 align:middle line:90% Hay 4 niveles de somnolencia. 00:14:35.700 --> 00:14:38.370 align:middle line:90% Está prácticamente dormido. 00:14:38.370 --> 00:14:40.170 align:middle line:90% Y también pueden ver a su hija 00:14:40.170 --> 00:14:41.460 align:middle line:90% en el asiento trasero. 00:14:41.460 --> 00:14:45.330 align:middle line:90% Así que es una conducción muy insegura. 00:14:45.330 --> 00:14:48.480 align:middle line:90% Y sin duda puedo empatizar con eso. 00:14:48.480 --> 00:14:52.200 align:middle line:90% Hay muchos momentos en los que realmente 00:14:52.200 --> 00:14:56.190 align:middle line:84% viajamos recién llegados de un viaje, bajo los efectos del vuelo, 00:14:56.190 --> 00:14:57.870 align:middle line:90% y agotada mientras llevaba a mis hijos. 00:14:57.870 --> 00:14:59.940 align:middle line:84% Entonces indudablemente puedo verme reflejada en eso. 00:14:59.940 --> 00:15:03.597 align:middle line:84% Pero ese es un ejemplo tan sencillo que la tecnología puede tomar. 00:15:03.597 --> 00:15:05.430 align:middle line:90% Y aquí pueden ver que la tecnología 00:15:05.430 --> 00:15:08.745 align:middle line:84% pudo detectar cosas como el cerrar de ojos, la boca abierta, 00:15:08.745 --> 00:15:10.650 align:middle line:90% y los niveles de somnolencia. 00:15:10.650 --> 00:15:14.200 align:middle line:84% Y pueden imaginar cómo el automóvil puede interponerse en ese caso. 00:15:14.200 --> 00:15:15.730 align:middle line:90% Aquí hay otro ejemplo. 00:15:15.730 --> 00:15:17.880 align:middle line:90% Ella está conduciendo. 00:15:17.880 --> 00:15:21.960 align:middle line:84% También está enviando mensajes mientras conduce, así que está muy distraída. 00:15:21.960 --> 00:15:24.510 align:middle line:90% Pero, oh, tiene dos celulares en la mano, 00:15:24.510 --> 00:15:27.330 align:middle line:90% así que está muy distraída. 00:15:27.330 --> 00:15:28.680 align:middle line:90% Su mirada está apartada de la calle. 00:15:28.680 --> 00:15:30.780 align:middle line:90% Sus manos no están en el volante. 00:15:30.780 --> 00:15:33.960 align:middle line:90% No quieren que esta mujer los lleve. 00:15:33.960 --> 00:15:37.080 align:middle line:84% Pero, de nuevo, es un ejemplo de que la tecnología puede tomar 00:15:37.080 --> 00:15:38.860 align:middle line:84% solo observando el comportamiento de su mirada, 00:15:38.860 --> 00:15:41.670 align:middle line:84% la información de la postura de la cabeza, pero también combinándolo 00:15:41.670 --> 00:15:43.270 align:middle line:90% con cosas como la detección de objetos. 00:15:43.270 --> 00:15:45.810 align:middle line:84% Así que podemos detectar que tiene no uno, sino dos celulares 00:15:45.810 --> 00:15:47.070 align:middle line:90% en su mano. 00:15:47.070 --> 00:15:50.160 align:middle line:84% Podemos señalarla como una conductora altamente distraída. 00:15:50.160 --> 00:15:52.800 align:middle line:84% Y, de nuevo, el automóvil puede intervenir de una manera u otra. 00:15:52.800 --> 00:15:55.740 align:middle line:90% Pueden imaginar si esto fuera un Tesla 00:15:55.740 --> 00:15:58.710 align:middle line:90% que puede cambiar al modo semiautomático, 00:15:58.710 --> 00:16:00.360 align:middle line:84% básicamente puede decir, espera un segundo, 00:16:00.360 --> 00:16:02.610 align:middle line:90% seré mejor conductor en este momento 00:16:02.610 --> 00:16:06.030 align:middle line:90% que lo que tú eres, yo tomo el control. 00:16:06.030 --> 00:16:08.670 align:middle line:84% Hemos realizado muchas investigaciones en colaboración 00:16:08.670 --> 00:16:11.970 align:middle line:84% con el grupo de tecnología vehicular avanzada del MIT, 00:16:11.970 --> 00:16:15.900 align:middle line:84% en las cuales realizamos el primer estudio a gran escala observando 00:16:15.900 --> 00:16:17.590 align:middle line:84% el comportamiento del conductor a lo largo del tiempo. 00:16:17.590 --> 00:16:19.260 align:middle line:90% Entonces en este caso particular, están 00:16:19.260 --> 00:16:22.030 align:middle line:90% observando al participante número 66. 00:16:22.030 --> 00:16:23.450 align:middle line:90% Es mujer. 00:16:23.450 --> 00:16:24.930 align:middle line:90% Tiene 22 años. 00:16:24.930 --> 00:16:28.950 align:middle line:84% Y todos sus trayectos de los lunes están concatenados en la fila de los lunes. 00:16:28.950 --> 00:16:31.860 align:middle line:84% Y todos sus trayectos de los martes están concatenados en la de los martes, 00:16:31.860 --> 00:16:33.130 align:middle line:90% y así sucesivamente. 00:16:33.130 --> 00:16:37.470 align:middle line:84% Y pueden ver que está demasiado cansada durante la semana. 00:16:37.470 --> 00:16:39.030 align:middle line:90% Se pueden observar muchos bostezos 00:16:39.030 --> 00:16:40.650 align:middle line:90% al principio del día. 00:16:40.650 --> 00:16:44.020 align:middle line:84% Y durante el fin de semana y también sobre el final de día, 00:16:44.020 --> 00:16:49.650 align:middle line:90% hay muchas más expresiones positivas. 00:16:49.650 --> 00:16:53.040 align:middle line:84% Dicen que una imagen vale más que mil palabras. 00:16:53.040 --> 00:16:55.950 align:middle line:90% Creo que un video vale incluso mucho más. 00:16:55.950 --> 00:17:02.220 align:middle line:84% Así que solo les mostraré ejemplos de sus conductas al volante 00:17:02.220 --> 00:17:06.420 align:middle line:90% a la tarde y a la mañana. 00:17:06.420 --> 00:17:09.990 align:middle line:84% Así que, de nuevo, estos se extrajeron utilizando nuestros algoritmos. 00:17:09.990 --> 00:17:12.930 align:middle line:84% Así que básicamente se invocó al clasificador de bostezos 00:17:12.930 --> 00:17:15.060 align:middle line:84% para detectar todos sus comportamientos de bostezo 00:17:15.060 --> 00:17:20.000 align:middle line:90% a través de todas sus sesiones de manejo. 00:17:20.000 --> 00:17:23.618 align:middle line:84% Así que pueden ver que generalmente está muy agotada por la mañana. 00:17:23.618 --> 00:17:25.887 align:middle line:84% Y pueden imaginar, si eso es un patrón recurrente, 00:17:25.887 --> 00:17:27.430 align:middle line:90% entonces el automóvil ya sabe que ella 00:17:27.430 --> 00:17:30.340 align:middle line:90% va a subirse cansada. 00:17:30.340 --> 00:17:32.770 align:middle line:84% Tal vez existen sugerencias de forma proactiva 00:17:32.770 --> 00:17:37.690 align:middle line:84% que el automóvil puede hacerle al conductor de acuerdo con su perfil. 00:17:37.690 --> 00:17:42.720 align:middle line:84% Ahora contrasten eso con sus comportamientos por la tarde. 00:17:42.720 --> 00:17:46.140 align:middle line:84% Pueden observar que ya se la ve mucho más despierta. 00:17:46.140 --> 00:17:49.110 align:middle line:84% Está mucho más animada, muchas más sonrisas, muchas más 00:17:49.110 --> 00:17:50.520 align:middle line:90% expresiones positivas. 00:17:50.520 --> 00:17:54.300 align:middle line:84% Y una vez más, si el automóvil tuviera su perfil de conductor 00:17:54.300 --> 00:17:56.940 align:middle line:90% podría modificar y personalizar 00:17:56.940 --> 00:18:02.170 align:middle line:84% la experiencia de conducción basándose en sus experiencias emocionales. 00:18:02.170 --> 00:18:05.310 align:middle line:84% Así que estamos trabajando muy de cerca con un número de fabricantes de autos 00:18:05.310 --> 00:18:08.400 align:middle line:84% para reimaginar esta experiencia de transporte. 00:18:08.400 --> 00:18:10.260 align:middle line:90% No solo en los autos donde podemos 00:18:10.260 --> 00:18:13.890 align:middle line:84% enfocarnos en el conductor, pero también en los vehículos del futuro en donde 00:18:13.890 --> 00:18:17.910 align:middle line:84% realmente podamos tener esta visión de una solución sensorial que funcione 00:18:17.910 --> 00:18:20.670 align:middle line:84% observando no solo al conductor, sino también a los demás ocupantes 00:18:20.670 --> 00:18:21.510 align:middle line:90% del vehículo. 00:18:21.510 --> 00:18:23.820 align:middle line:90% Y también a otros objetos en el auto. 00:18:23.820 --> 00:18:25.680 align:middle line:90% ¿Te olvidaste de un niño? 00:18:25.680 --> 00:18:27.600 align:middle line:90% ¿Te olvidaste tu teléfono? 00:18:27.600 --> 00:18:29.557 align:middle line:90% ¿Cuántos ocupantes hay en el vehículo? 00:18:29.557 --> 00:18:30.390 align:middle line:90% ¿Cuál es su estado? 00:18:30.390 --> 00:18:34.300 align:middle line:84% ¿Puedes personalizar la música, el contenido, la luz, 00:18:34.300 --> 00:18:37.260 align:middle line:90% y así sucesivamente? 00:18:37.260 --> 00:18:39.110 align:middle line:90% Pero, por supuesto, muchos de nosotros 00:18:39.110 --> 00:18:40.610 align:middle line:90% ya no pasamos mucho tiempo en nuestro 00:18:40.610 --> 00:18:43.310 align:middle line:90% auto durante esta pandemia global. 00:18:43.310 --> 00:18:47.870 align:middle line:84% Y, de hecho, muchos de nosotros estamos pasando mucho más tiempo 00:18:47.870 --> 00:18:52.250 align:middle line:90% en videoconferencias o en eventos virtuales. 00:18:52.250 --> 00:18:55.700 align:middle line:84% Establecer relaciones humanas mediante la tecnología es muy difícil. 00:18:55.700 --> 00:19:00.140 align:middle line:84% Y es principalmente porque el método de comunicación más importante 00:19:00.140 --> 00:19:01.430 align:middle line:90% es el no verbal. 00:19:01.430 --> 00:19:05.070 align:middle line:84% Y a veces cuando estamos en estas conferencias virtuales 00:19:05.070 --> 00:19:09.140 align:middle line:90% y eventos virtuales y eventos de video, 00:19:09.140 --> 00:19:13.310 align:middle line:84% no se accede realmente a la energía y a las expresiones 00:19:13.310 --> 00:19:14.000 align:middle line:90% de la audiencia. 00:19:14.000 --> 00:19:16.220 align:middle line:90% Sin duda yo misma siento eso. 00:19:16.220 --> 00:19:19.220 align:middle line:84% Recientemente he presentado mi libro "Girl Decoded" como mencioné. 00:19:19.220 --> 00:19:21.890 align:middle line:84% Y tuve que pasar de una gira de presentación del libro 00:19:21.890 --> 00:19:24.650 align:middle line:84% en la que se suponía que debía estar viajando sin parar todo marzo, abril 00:19:24.650 --> 00:19:28.220 align:middle line:84% y mayo, a todas estas presentaciones virtuales de libros y conversaciones 00:19:28.220 --> 00:19:28.910 align:middle line:90% virtuales de libros. 00:19:28.910 --> 00:19:32.840 align:middle line:84% Y es tan diferente porque en un ambiente en vivo 00:19:32.840 --> 00:19:34.370 align:middle line:90% puedo ver a la audiencia. 00:19:34.370 --> 00:19:36.710 align:middle line:84% Puedo verte a ti y puedo llenarme de tu energía. 00:19:36.710 --> 00:19:38.870 align:middle line:90% Y puedo modificar y personalizar 00:19:38.870 --> 00:19:43.010 align:middle line:84% y adaptar mi contenido dependiendo de cómo están interactuando conmigo. 00:19:43.010 --> 00:19:46.190 align:middle line:84% Cuando hago esto virtualmente, a menudo es una conversación unidireccional 00:19:46.190 --> 00:19:49.010 align:middle line:84% o por lo menos siento como que es una conversación unidireccional. 00:19:49.010 --> 00:19:51.750 align:middle line:90% Y me parece muy doloroso e inquietante. 00:19:51.750 --> 00:19:55.820 align:middle line:84% Pero pienso que hay una oportunidad para cambiarlo. 00:19:55.820 --> 00:19:59.390 align:middle line:84% ¿Qué pasaría si integramos las emociones IA, 00:19:59.390 --> 00:20:02.300 align:middle line:84% como una manera de acumular la respuesta de la audiencia, 00:20:02.300 --> 00:20:05.360 align:middle line:84% capturar todas sus expresiones faciales de forma anónima? 00:20:05.360 --> 00:20:08.070 align:middle line:90% No necesitaría ver las caras de todos. 00:20:08.070 --> 00:20:11.120 align:middle line:84% De hecho, eso probablemente sería abrumador mientras estoy exponiendo. 00:20:11.120 --> 00:20:14.510 align:middle line:84% Pero si fuera capaz de ver el rastro momento a momento de qué tan 00:20:14.510 --> 00:20:17.042 align:middle line:90% positivo o negativo ustedes... 00:20:17.042 --> 00:20:18.500 align:middle line:90% se involucran con este contenido, 00:20:18.500 --> 00:20:20.420 align:middle line:90% eso sería información muy poderosa 00:20:20.420 --> 00:20:22.670 align:middle line:90% que me permitiría modificar y 00:20:22.670 --> 00:20:27.030 align:middle line:84% tener una idea de la participación de la audiencia. 00:20:27.030 --> 00:20:28.900 align:middle line:90% Así que les quiero mostrar un ejemplo. 00:20:28.900 --> 00:20:31.390 align:middle line:90% De una reunión grupal interna en Zoom, 00:20:31.390 --> 00:20:34.240 align:middle line:84% en la que grabamos las respuestas de los equipos. 00:20:34.240 --> 00:20:37.360 align:middle line:90% Y pueden ver aquí la respuesta agrupada. 00:20:37.360 --> 00:20:40.180 align:middle line:84% Por supuesto que hay diferentes maneras de visualizar esta información, 00:20:40.180 --> 00:20:42.070 align:middle line:90% pero podemos rastrear a todos 00:20:42.070 --> 00:20:44.405 align:middle line:84% y podemos agrupar las sonrisas de la gente, las respuestas. 00:20:44.405 --> 00:20:46.030 align:middle line:90% Realmente estaban hablando sobre... 00:20:46.030 --> 00:20:49.960 align:middle line:84% esto fue a principios de marzo, justo cuando estalló la pandemia. 00:20:49.960 --> 00:20:51.970 align:middle line:84% Y estábamos hablando sobre qué es lo que va a pasar 00:20:51.970 --> 00:20:54.287 align:middle line:90% y trabajar desde casa. 00:20:54.287 --> 00:20:55.870 align:middle line:84% Y la gente estaba compartiendo sus historias. 00:20:55.870 --> 00:20:58.190 align:middle line:84% Y había mucha empatía y conductas risueñas. 00:20:58.190 --> 00:21:00.190 align:middle line:90% Así que podemos rastrear eso. 00:21:00.190 --> 00:21:02.890 align:middle line:84% Ahora comparen eso con una reunión realmente llana y aburrida 00:21:02.890 --> 00:21:04.600 align:middle line:84% en la que nadie está involucrado realmente. 00:21:04.600 --> 00:21:06.230 align:middle line:90% Pueden percibir la diferencia. 00:21:06.230 --> 00:21:09.790 align:middle line:84% Y podemos cuantificar esa información para una participación en tiempo real, 00:21:09.790 --> 00:21:16.050 align:middle line:84% pero también podemos hacer eso después del hecho, como un análisis posterior. 00:21:16.050 --> 00:21:18.800 align:middle line:84% Del mismo modo, en un entorno de aprendizaje virtual, 00:21:18.800 --> 00:21:21.650 align:middle line:84% ¿qué pasaría si el docente pudiera medir la participación emocional 00:21:21.650 --> 00:21:24.920 align:middle line:84% de los o las estudiantes tal como él o ella lo haría 00:21:24.920 --> 00:21:26.150 align:middle line:90% en un aula en directo? 00:21:26.150 --> 00:21:28.070 align:middle line:90% Eso es lo que hace un gran docente, ¿no? 00:21:28.070 --> 00:21:30.710 align:middle line:84% Te llenas de la participación de los estudiantes 00:21:30.710 --> 00:21:33.710 align:middle line:84% y luego puedes personalizar la experiencia educativa. 00:21:33.710 --> 00:21:37.620 align:middle line:84% Y además maximizar los resultados académicos. 00:21:37.620 --> 00:21:41.390 align:middle line:84% Igualmente, también existen aplicaciones en la salud mental. 00:21:41.390 --> 00:21:44.090 align:middle line:84% Hoy en día cuando entran al consultorio del médico 00:21:44.090 --> 00:21:46.403 align:middle line:90% él no les pregunta si tienen fiebre 00:21:46.403 --> 00:21:48.320 align:middle line:90% o no les pregunta su presión arterial, 00:21:48.320 --> 00:21:49.970 align:middle line:90% él simplemente se las toma. 00:21:49.970 --> 00:21:51.890 align:middle line:84% ¿Qué pasaría si los médicos pudieran objetivamente 00:21:51.890 --> 00:21:53.930 align:middle line:84% medir cómo se sienten, de la misma manera en la que 00:21:53.930 --> 00:21:56.090 align:middle line:90% miden los otros signos vitales? 00:21:56.090 --> 00:21:58.430 align:middle line:84% Desafortunadamente, la regla de oro en la salud mental 00:21:58.430 --> 00:22:01.230 align:middle line:90% sigue siendo, en la escala del 1 al 10... 00:22:01.230 --> 00:22:02.840 align:middle line:90% ¿qué tan deprimido estás? 00:22:02.840 --> 00:22:04.160 align:middle line:90% ¿Qué tan suicida estás? 00:22:04.160 --> 00:22:05.810 align:middle line:90% ¿Qué tanto dolor sientes? 00:22:05.810 --> 00:22:08.780 align:middle line:84% Y podemos traer las emociones IA y aplicarlas 00:22:08.780 --> 00:22:12.620 align:middle line:84% de una manera que traigan medidas objetivas de las condiciones 00:22:12.620 --> 00:22:15.190 align:middle line:90% de salud mental. 00:22:15.190 --> 00:22:17.760 align:middle line:84% Una de las áreas que siento muy cercana y amo, 00:22:17.760 --> 00:22:21.010 align:middle line:84% es la primera aplicación de las emociones IA que estudié 00:22:21.010 --> 00:22:22.300 align:middle line:90% es el autismo. 00:22:22.300 --> 00:22:24.760 align:middle line:90% Los individuos del espectro autista 00:22:24.760 --> 00:22:28.780 align:middle line:84% tienen dificultades para leer y entender los signos no verbales. 00:22:28.780 --> 00:22:32.620 align:middle line:84% La cara, particularmente, les parece muy abrumadora. 00:22:32.620 --> 00:22:34.300 align:middle line:90% Y a veces la evitan por completo. 00:22:34.300 --> 00:22:37.390 align:middle line:84% Evitan el contacto facial y visual por completo. 00:22:37.390 --> 00:22:40.690 align:middle line:84% Así que nos asociamos con una empresa llamada Brain Power. 00:22:40.690 --> 00:22:45.910 align:middle line:84% Ellos utilizan Google Glass y nuestra tecnología para ayudar a las personas 00:22:45.910 --> 00:22:49.180 align:middle line:84% del espectro autista a aprender sobre estos signos no verbales 00:22:49.180 --> 00:22:51.550 align:middle line:84% de una manera muy divertida y en forma de juego. 00:22:51.550 --> 00:22:56.200 align:middle line:84% Así que voy a mostrarles un video corto que demuestra eso. 00:22:56.200 --> 00:22:57.850 align:middle line:90% ¿Qué ven en pantalla? 00:22:57.850 --> 00:22:59.090 align:middle line:90% Mamá. 00:22:59.090 --> 00:23:02.128 align:middle line:84% A Matthew Krieger de 8 años le diagnosticaron autismo. 00:23:02.128 --> 00:23:04.170 align:middle line:84% Muchos de los problemas que tenía con otros chicos 00:23:04.170 --> 00:23:05.820 align:middle line:90% es que él piensa que es gracioso. 00:23:05.820 --> 00:23:07.950 align:middle line:90% Y no entiende que no lo es 00:23:07.950 --> 00:23:10.020 align:middle line:90% o que ellos están molestos o enojados. 00:23:10.020 --> 00:23:11.550 align:middle line:90% La madre de Matthew, Laura, lo inscribió 00:23:11.550 --> 00:23:15.570 align:middle line:84% para un ensayo clínico llevado a cabo por Ned Sahin. 00:23:15.570 --> 00:23:20.010 align:middle line:84% Quiero saber qué ocurre dentro del cerebro de alguien 00:23:20.010 --> 00:23:21.270 align:middle line:90% con autismo. 00:23:21.270 --> 00:23:24.600 align:middle line:84% Y resulta que los padres también quieren saberlo. 00:23:24.600 --> 00:23:26.700 align:middle line:90% Obtienes puntos por mirar por un momento 00:23:26.700 --> 00:23:29.660 align:middle line:84% y luego incluso por mirar hacia otro lado y volver a mirar. 00:23:29.660 --> 00:23:32.910 align:middle line:84% La empresa de Sahin, Brain Power, utiliza el software Affectiva 00:23:32.910 --> 00:23:35.940 align:middle line:84% en los programas que Matthew mira a través del Google Glass. 00:23:35.940 --> 00:23:37.950 align:middle line:84% Estos juegos intentan ayudarlo a entender 00:23:37.950 --> 00:23:40.860 align:middle line:84% la correspondencia entre las expresiones faciales y las emociones 00:23:40.860 --> 00:23:42.840 align:middle line:90% y a aprender signos sociales. 00:23:42.840 --> 00:23:45.300 align:middle line:84% Una de las habilidades imprescindibles para la vida es entender 00:23:45.300 --> 00:23:47.000 align:middle line:90% las emociones de los otros. 00:23:47.000 --> 00:23:50.190 align:middle line:90% Y otra es mirar en su dirección 00:23:50.190 --> 00:23:51.510 align:middle line:90% cuando están hablando. 00:23:51.510 --> 00:23:54.750 align:middle line:90% Mira a tu mamá y mientras está verde 00:23:54.750 --> 00:23:58.020 align:middle line:84% obtienes puntos cuando comienza a ponerse naranja y roja tú... 00:23:58.020 --> 00:24:00.660 align:middle line:90% vas más despacio con los puntos. 00:24:00.660 --> 00:24:01.698 align:middle line:90% Te estoy mirando. 00:24:01.698 --> 00:24:02.490 align:middle line:90% Me estás mirando. 00:24:02.490 --> 00:24:05.250 align:middle line:84% Justo unos minutos después, la diferencia en la mirada de Matthew 00:24:05.250 --> 00:24:06.780 align:middle line:90% desborda a su madre. 00:24:06.780 --> 00:24:09.200 align:middle line:90% Quiero llorar. 00:24:09.200 --> 00:24:09.700 align:middle line:90% ¿Por qué? 00:24:13.540 --> 00:24:19.340 align:middle line:90% Porque cuando me miras me hace pensar 00:24:19.340 --> 00:24:22.020 align:middle line:84% que realmente no lo has hecho antes porque me estás mirando 00:24:22.020 --> 00:24:25.230 align:middle line:90% de una manera diferente. 00:24:25.230 --> 00:24:29.260 align:middle line:84% Así que Brain Power tiene alrededor de 400 de estos sistemas de Google Glass 00:24:29.260 --> 00:24:33.400 align:middle line:84% designados a familias en todos los Estados Unidos. 00:24:33.400 --> 00:24:35.650 align:middle line:84% Y la pregunta más importante que están intentando contestar... 00:24:35.650 --> 00:24:38.290 align:middle line:90% ya estamos viendo mejoras en relación 00:24:38.290 --> 00:24:41.763 align:middle line:84% al entendimiento social y no verbal de los niños, 00:24:41.763 --> 00:24:43.180 align:middle line:90% mientras llevan puestas las gafas. 00:24:43.180 --> 00:24:47.410 align:middle line:84% La pregunta clave es qué sucede cuando se quitan las gafas. 00:24:47.410 --> 00:24:50.580 align:middle line:90% ¿Se generaliza el aprendizaje? 00:24:50.580 --> 00:24:53.592 align:middle line:84% También hay otras aplicaciones para esta tecnología 00:24:53.592 --> 00:24:54.300 align:middle line:90% en la salud mental. 00:24:54.300 --> 00:24:58.050 align:middle line:84% Por ejemplo, un sistema para la detección temprana del Parkinson. 00:24:58.050 --> 00:25:02.070 align:middle line:84% Erin Smith... ahora es estudiante de Stanford. 00:25:02.070 --> 00:25:05.370 align:middle line:84% Mucho tiempo atrás cuando era estudiante en la secundaria, 00:25:05.370 --> 00:25:08.550 align:middle line:84% ella nos envió un correo electrónico diciendo que había estado mirando 00:25:08.550 --> 00:25:12.240 align:middle line:90% este documental sobre el Parkinson y 00:25:12.240 --> 00:25:14.320 align:middle line:90% que quería usar nuestra tecnología, 00:25:14.320 --> 00:25:15.450 align:middle line:90% saber cuánto costaba. 00:25:15.450 --> 00:25:20.187 align:middle line:84% Y recuerdo a nuestro jefe de ventas preguntándome que le contestaba. 00:25:20.187 --> 00:25:21.520 align:middle line:90% No podía pagar nuestra tecnología. 00:25:21.520 --> 00:25:24.390 align:middle line:90% Y le dije que se la dé gratis. 00:25:24.390 --> 00:25:26.250 align:middle line:90% ¿Qué va a hacer con ella de todos modos? 00:25:26.250 --> 00:25:29.808 align:middle line:84% Y Erin desapareció por un par de meses y volvió. 00:25:29.808 --> 00:25:31.350 align:middle line:90% Ella se ha asociado con la fundación 00:25:31.350 --> 00:25:36.120 align:middle line:84% Michael J. Fox y ha creado este sistema para identificar marcadores biológicos 00:25:36.120 --> 00:25:38.250 align:middle line:90% faciales del Parkinson. 00:25:38.250 --> 00:25:40.590 align:middle line:84% Y ella continuó trabajando en esta investigación. 00:25:40.590 --> 00:25:43.060 align:middle line:90% Es una joven muy inspiradora. 00:25:43.060 --> 00:25:45.090 align:middle line:90% Y me siento muy orgullosa que estemos 00:25:45.090 --> 00:25:47.190 align:middle line:84% desempeñando un pequeño papel en su recorrido. 00:25:47.190 --> 00:25:50.490 align:middle line:84% También sabemos que hay marcadores biológicos faciales y vocales 00:25:50.490 --> 00:25:51.780 align:middle line:90% de depresión. 00:25:51.780 --> 00:25:56.040 align:middle line:84% Y se está llevando a cabo mucho trabajo para señalar los intentos suicidas 00:25:56.040 --> 00:25:57.630 align:middle line:90% basados en estas señales. 00:25:57.630 --> 00:26:00.570 align:middle line:84% Es un trabajo en el que estamos colaborando 00:26:00.570 --> 00:26:05.960 align:middle line:90% con el Profesor Steven Benoit y otros. 00:26:05.960 --> 00:26:08.260 align:middle line:84% Pero esto pone en tema una cuestión muy importante, 00:26:08.260 --> 00:26:10.410 align:middle line:90% que es, bueno, hay muchas aplicaciones 00:26:10.410 --> 00:26:13.320 align:middle line:84% de esta tecnología, ¿dónde marcamos el límite? 00:26:13.320 --> 00:26:16.470 align:middle line:84% Y me siento entusiasmada sobre este concepto 00:26:16.470 --> 00:26:20.460 align:middle line:84% del desarrollo ético y el despliegue de la IA. 00:26:20.460 --> 00:26:24.990 align:middle line:90% No es solo sobre reconocer que hay 00:26:24.990 --> 00:26:27.630 align:middle line:90% mucho potencial para el bien, sino 00:26:27.630 --> 00:26:29.940 align:middle line:84% también reconocer en qué punto se puede abusar de esto 00:26:29.940 --> 00:26:33.560 align:middle line:84% y las consecuencias no deseadas de esta tecnología. 00:26:33.560 --> 00:26:35.310 align:middle line:90% Hace varios años, cuando recaudábamos 00:26:35.310 --> 00:26:37.380 align:middle line:90% fondos para la empresa, nos abordó 00:26:37.380 --> 00:26:41.670 align:middle line:84% una agencia que nos quería dar mucho dinero... 00:26:41.670 --> 00:26:44.700 align:middle line:84% $40 millones en ese momento, que era mucho dinero 00:26:44.700 --> 00:26:47.150 align:middle line:90% para nuestra pequeña empresa emergente... 00:26:47.150 --> 00:26:49.680 align:middle line:84% con la condición de que querían utilizar la tecnología para la 00:26:49.680 --> 00:26:52.500 align:middle line:90% detección de mentiras y la vigilancia. 00:26:52.500 --> 00:26:54.690 align:middle line:84% Y eso no se ajustaba con nuestros valores fundamentales 00:26:54.690 --> 00:26:58.020 align:middle line:84% de respeto hacia la privacidad y el consentimiento de las personas. 00:26:58.020 --> 00:27:02.020 align:middle line:90% Y reconocer que, como usuario, 00:27:02.020 --> 00:27:03.730 align:middle line:90% esta información es muy personal. 00:27:03.730 --> 00:27:05.940 align:middle line:90% Y si la voy a compartir, 00:27:05.940 --> 00:27:07.890 align:middle line:84% necesito saber exactamente quién la está utilizando, 00:27:07.890 --> 00:27:12.370 align:middle line:84% cómo está siendo utilizada, y también en qué me beneficia. 00:27:12.370 --> 00:27:14.040 align:middle line:90% Así que pasamos mucho tiempo pensando 00:27:14.040 --> 00:27:15.780 align:middle line:90% acerca de esta asimetría de poder... 00:27:15.780 --> 00:27:17.580 align:middle line:90% qué valor obtengo a cambio 00:27:17.580 --> 00:27:20.307 align:middle line:84% por compartir esta información muy personal. 00:27:20.307 --> 00:27:22.390 align:middle line:84% Lo que es realmente genial sobre esto es que la industria 00:27:22.390 --> 00:27:25.440 align:middle line:84% está asumiendo el liderazgo en la definición de estas mejores 00:27:25.440 --> 00:27:26.820 align:middle line:90% prácticas y lineamientos. 00:27:26.820 --> 00:27:30.600 align:middle line:84% Así que formamos parte de un consorcio llamado Asociación para la IA. 00:27:30.600 --> 00:27:32.460 align:middle line:90% Lo empezaron gigantes de la tecnología... 00:27:32.460 --> 00:27:35.430 align:middle line:90% Amazon, Google, Facebook, Microsoft. 00:27:35.430 --> 00:27:39.120 align:middle line:84% Y desde entonces han invitado a una cantidad de empresas emergentes 00:27:39.120 --> 00:27:40.440 align:middle line:90% como Affectiva. 00:27:40.440 --> 00:27:44.880 align:middle line:84% Pero también a otros accionistas como ACLU y Amnistía Internacional. 00:27:44.880 --> 00:27:47.760 align:middle line:90% Y soy parte del comité FATE, 00:27:47.760 --> 00:27:51.090 align:middle line:84% que es confiable, responsable, transparente y equitativo. 00:27:51.090 --> 00:27:55.290 align:middle line:84% Y nuestra tarea es proponer estos lineamientos 00:27:55.290 --> 00:27:57.227 align:middle line:90% relativos a la regulación cuidadosa. 00:27:57.227 --> 00:27:59.310 align:middle line:84% Necesitamos regulación, pero necesita ser cuidadosa. 00:27:59.310 --> 00:28:02.100 align:middle line:84% No queremos desaprovechar la innovación por completo, 00:28:02.100 --> 00:28:03.600 align:middle line:84% pero al mismo tiempo, realmente necesitamos 00:28:03.600 --> 00:28:06.030 align:middle line:90% pensar por dónde trazamos la línea 00:28:06.030 --> 00:28:11.910 align:middle line:84% y a qué se asemeja esta regulación cuidadosa. 00:28:11.910 --> 00:28:14.240 align:middle line:90% Y, al final del día, mi misión 00:28:14.240 --> 00:28:17.570 align:middle line:84% es humanizar a la tecnología antes de que ella nos deshumanice. 00:28:17.570 --> 00:28:21.080 align:middle line:84% Y quiero que pongamos el foco de nuevo en el humano, 00:28:21.080 --> 00:28:23.200 align:middle line:90% no en lo artificial. 00:28:23.200 --> 00:28:27.290 align:middle line:84% Y para concluir, si esto te volvió un poco más curioso 00:28:27.290 --> 00:28:29.750 align:middle line:90% sobre las emociones IA y sus aplicaciones 00:28:29.750 --> 00:28:34.280 align:middle line:84% y sus consecuencias, estoy regalando un libro autografiado 00:28:34.280 --> 00:28:37.520 align:middle line:84% a las primeras 3 personas que publiquen en mis redes sociales... 00:28:37.520 --> 00:28:41.350 align:middle line:84% LinkedIn, Facebook, Twitter, Instagram... utilizando las etiquetas 00:28:41.350 --> 00:28:45.860 align:middle line:84% #LIVEWORX y #GIRLDECODED con un comentario o una pregunta 00:28:45.860 --> 00:28:47.970 align:middle line:90% sobre esta presentación. 00:28:47.970 --> 00:28:50.970 align:middle line:90% Gracias. 00:28:50.970 --> 00:28:52.470 align:middle line:90% [MELODÍA LIVEWORX] 00:28:52.470 --> 00:28:54.500 align:middle line:84% Gracias por acompañarnos Dra. el Kaliouby. 00:28:54.500 --> 00:28:56.690 align:middle line:90% Qué presentación tan atractiva. 00:28:56.690 --> 00:29:00.000 align:middle line:84% Así concluye nuestra tercera sesión del día. 00:29:00.000 --> 00:29:01.460 align:middle line:90% A continuación, a primera hora, 00:29:01.460 --> 00:29:05.240 align:middle line:84% escucharemos cómo las empresas están aprovechando el CAD ScuS, PLM, 00:29:05.240 --> 00:29:07.550 align:middle line:84% y la realidad aumentada como herramientas principales, 00:29:07.550 --> 00:29:11.270 align:middle line:84% para sobrellevar las alteraciones y para adoptar esta nueva normalidad. 00:29:11.270 --> 00:29:13.160 align:middle line:90% Volvemos luego de una pequeña pausa. 00:29:13.160 --> 00:29:16.510 align:middle line:90% [MELODÍA LIVEWORX]