WEBVTT 00:00:00.000 --> 00:00:02.640 align:middle line:90% [LIVEWORX主题] 00:00:02.640 --> 00:00:05.100 align:middle line:90% 欢迎回到LIVEWORX 2020。 00:00:05.100 --> 00:00:07.200 align:middle line:90% 我叫Andia Winslow,是今天 00:00:07.200 --> 00:00:09.420 align:middle line:90% 直播活动的主持人。 00:00:09.420 --> 00:00:10.920 align:middle line:90% 我们已经收到了 00:00:10.920 --> 00:00:12.810 align:middle line:90% 一些来自工业界的 00:00:12.810 --> 00:00:14.580 align:middle line:90% 顶尖技术思想领袖的来信。 00:00:14.580 --> 00:00:17.730 align:middle line:90% 现在,如果你不能参加之前的会议, 00:00:17.730 --> 00:00:21.090 align:middle line:90% 记得一定要在LiveWorx点播目录上查看, 00:00:21.090 --> 00:00:24.180 align:middle line:90% 从今天到6月19日,你都可以看到。 00:00:24.180 --> 00:00:27.810 align:middle line:90% 这个在线图书馆有超过100个额外的优秀的 00:00:27.810 --> 00:00:29.340 align:middle line:90% 内容直播节目。 00:00:29.340 --> 00:00:31.800 align:middle line:90% 另外,请留意即将收到的电子邮件, 00:00:31.800 --> 00:00:35.800 align:middle line:90% 以便在一整年内仍可访问我们的内容存档。 00:00:35.800 --> 00:00:38.220 align:middle line:90% 现在,让我们开始下一个直播—— 00:00:38.220 --> 00:00:40.770 align:middle line:90% 人工情感智能或情感 00:00:40.770 --> 00:00:44.100 align:middle line:90% 人工智能,它是什么以及它的重要性。 00:00:44.100 --> 00:00:48.810 align:middle line:90% Rana el Kaliouby博士是Affectiva的首席执行官和联合创始人。 00:00:48.810 --> 00:00:52.890 align:middle line:90% 麻省理工学院媒体实验室的一个分支,Affectiva创造并定义了 00:00:52.890 --> 00:00:54.750 align:middle line:90% 情感人工智能类别。 00:00:54.750 --> 00:00:57.630 align:middle line:90% 能够从面部和语音中检测出细微差别的 00:00:57.630 --> 00:01:01.740 align:middle line:90% 人类情感和复杂认知状态的软件。 00:01:01.740 --> 00:01:05.099 align:middle line:90% El Kaliouby博士是情感人工智能的先驱, 00:01:05.099 --> 00:01:07.680 align:middle line:90% 也是《女孩解码:一位科学家 00:01:07.680 --> 00:01:10.080 align:middle line:90% 通过将情感智能引入科技 00:01:10.080 --> 00:01:12.240 align:middle line:90% 来重塑人类的探索》一书的作者。 00:01:12.240 --> 00:01:17.690 align:middle line:90% 我非常高兴欢迎Rana el Kaliouby博士。 00:01:17.690 --> 00:01:18.740 align:middle line:90% 谢谢你,Andia。 00:01:18.740 --> 00:01:22.020 align:middle line:90% 很高兴今天能和你们在一起。 00:01:22.020 --> 00:01:24.770 align:middle line:90% 我的使命是在技术使我们失去人性之前 00:01:24.770 --> 00:01:29.180 align:middle line:90% 人性化技术,通过在我们的设备和技术中 00:01:29.180 --> 00:01:32.900 align:middle line:90% 建立情感智能和同理心。 00:01:32.900 --> 00:01:35.420 align:middle line:90% 在这样做的过程中,我的目标是重新想象 00:01:35.420 --> 00:01:38.690 align:middle line:90% 人机界面以及 00:01:38.690 --> 00:01:42.100 align:middle line:90% 人与人之间的联系。 00:01:42.100 --> 00:01:45.250 align:middle line:90% 我们都被突然抛入到这个 00:01:45.250 --> 00:01:46.479 align:middle line:90% 以虚拟方式工作的宇宙中。 00:01:46.479 --> 00:01:49.210 align:middle line:90% 这就是我们与团队成员的联系方式。 00:01:49.210 --> 00:01:50.800 align:middle line:90% 我们在网上学习,我的意思是,我的孩子 00:01:50.800 --> 00:01:52.420 align:middle line:90% 就是这样学习的。 00:01:52.420 --> 00:01:55.870 align:middle line:90% 我们以虚拟的方式和朋友和家人联系。 00:01:55.870 --> 00:01:57.680 align:middle line:90% 但是,总是少了些什么。 00:01:57.680 --> 00:01:59.410 align:middle line:90% 有些东西不一样了。 00:01:59.410 --> 00:02:03.610 align:middle line:90% 这就是我们所有的非语言信号 00:02:03.610 --> 00:02:07.180 align:middle line:90% 在虚拟环境中缺失的概念。 00:02:07.180 --> 00:02:11.570 align:middle line:90% 人工智能扮演着传统上由人类完成的角色, 00:02:11.570 --> 00:02:13.990 align:middle line:90% 比如协助驾驶我们的汽车, 00:02:13.990 --> 00:02:17.620 align:middle line:90% 协助我们的医疗保健,帮助我们提高生产力, 00:02:17.620 --> 00:02:21.310 align:middle line:90% 甚至可能雇佣你的下一个同事。 00:02:21.310 --> 00:02:25.240 align:middle line:90% 问题是我们需要在人类和人工智能之间建立一个 00:02:25.240 --> 00:02:26.380 align:middle line:90% 新的社会契约。 00:02:26.380 --> 00:02:30.130 align:middle line:90% 建立在相互信任基础上。 00:02:30.130 --> 00:02:32.200 align:middle line:90% 当然,我们需要信任人工智能, 00:02:32.200 --> 00:02:34.450 align:middle line:90% 围绕这一点有很多对话。 00:02:34.450 --> 00:02:40.030 align:middle line:90% 但更重要的是,人工智能需要信任我们人类。 00:02:40.030 --> 00:02:43.060 align:middle line:90% 毕竟,在做正确事情上, 00:02:43.060 --> 00:02:46.420 align:middle line:90% 我们记录并不完美。 00:02:46.420 --> 00:02:49.480 align:middle line:90% 不幸的是,已经有很多例子表明 00:02:49.480 --> 00:02:51.650 align:middle line:90% 这种信任出了问题。 00:02:51.650 --> 00:02:56.500 align:middle line:90% 一个推特聊天机器人一夜之间就变成了种族主义者, 00:02:56.500 --> 00:02:59.470 align:middle line:90% 自动驾驶汽车出了致命事故, 00:02:59.470 --> 00:03:03.040 align:middle line:90% 面部识别技术 00:03:03.040 --> 00:03:05.230 align:middle line:90% 歧视某些人群—— 00:03:05.230 --> 00:03:08.740 align:middle line:90% 特别是有色人种的女性。 00:03:08.740 --> 00:03:13.090 align:middle line:90% 为了重建这种信任,让我们看看人类是如何做到的。 00:03:13.090 --> 00:03:15.160 align:middle line:90% 每天我们都会做出成千上万的决定, 00:03:15.160 --> 00:03:17.150 align:middle line:90% 包括相互信任, 00:03:17.150 --> 00:03:21.329 align:middle line:90% 在我们的个人和职业关系中。 00:03:21.329 --> 00:03:24.060 align:middle line:90% 有时这种信托是基于合法的 00:03:24.060 --> 00:03:25.890 align:middle line:90% 条款和条件。 00:03:25.890 --> 00:03:30.360 align:middle line:90% 但更常见的是,这是基于我们之间的隐性的、非言语的、微妙的暗示, 00:03:30.360 --> 00:03:33.930 align:middle line:90% 在建立信任的核心 00:03:33.930 --> 00:03:36.450 align:middle line:90% 是我们用同理心的互相交流。 00:03:36.450 --> 00:03:38.970 align:middle line:90% 今天的科技有很多智商—— 00:03:38.970 --> 00:03:42.690 align:middle line:90% 很多认知智力,但没有情商—— 00:03:42.690 --> 00:03:44.410 align:middle line:90% 没有情商。 00:03:44.410 --> 00:03:47.340 align:middle line:90% 这就是缺少的部分。 00:03:47.340 --> 00:03:50.950 align:middle line:90% 所以,在我的整个职业生涯中,我一直在问, 00:03:50.950 --> 00:03:54.990 align:middle line:90% 如果技术能像我们一样识别人类的情感, 00:03:54.990 --> 00:03:56.942 align:middle line:90% 那会怎样呢? 00:03:56.942 --> 00:03:58.900 align:middle line:90% 如果你的电脑能分辨 00:03:58.900 --> 00:04:01.750 align:middle line:90% 微笑和洋洋得意地笑的区别呢? 00:04:01.750 --> 00:04:03.890 align:middle line:90% 两者都涉及下半部的脸, 00:04:03.890 --> 00:04:06.770 align:middle line:90% 但两个笑容有非常不同的含义。 00:04:06.770 --> 00:04:11.690 align:middle line:90% 那么,我们怎样才能构建出理解人类的人工智能呢? 00:04:11.690 --> 00:04:14.570 align:middle line:90% 方法是看看人类是如何做到的。 00:04:14.570 --> 00:04:18.320 align:middle line:90% 只有7%的交流方式是基于 00:04:18.320 --> 00:04:21.760 align:middle line:90% 我们实际使用的词汇。 00:04:21.760 --> 00:04:26.960 align:middle line:90% 93%是非语言的,分为面部表情 00:04:26.960 --> 00:04:27.950 align:middle line:90% 和手势—— 00:04:27.950 --> 00:04:30.420 align:middle line:90% 我经常这么做—— 00:04:30.420 --> 00:04:34.040 align:middle line:90% 38%的语调, 00:04:34.040 --> 00:04:37.640 align:middle line:90% 你说话的速度有多快,你的声音有多少能量? 00:04:37.640 --> 00:04:40.080 align:middle line:90% 我的职业生涯很多时候都集中在脸部上。 00:04:40.080 --> 00:04:44.240 align:middle line:90% 脸部是一张传达人类情感的非常强大的画布。 00:04:44.240 --> 00:04:49.740 align:middle line:90% 面部情绪学已经存在200多年了。 00:04:49.740 --> 00:04:52.700 align:middle line:90% 这个叫Duchenne的家伙,曾经用电刺激 00:04:52.700 --> 00:04:57.740 align:middle line:90% 我们的面部肌肉来描绘这些面部肌肉是如何运动的。 00:04:57.740 --> 00:05:00.790 align:middle line:90% 谢天谢地,我们不再那样做了。 00:05:00.790 --> 00:05:04.740 align:middle line:90% 然后在20世纪70年代末,Paul Ekman和他的团队 00:05:04.740 --> 00:05:07.770 align:middle line:90% 发布了面部动作编码系统—— 00:05:07.770 --> 00:05:11.760 align:middle line:90% 一种客观方法,将每一个面部肌肉运动映射到 00:05:11.760 --> 00:05:13.960 align:middle line:90% 一个动作单元,映射到一个代码。 00:05:13.960 --> 00:05:16.650 align:middle line:90% 所以,举个例子,当你微笑的时候——和我一起试试—— 00:05:16.650 --> 00:05:19.800 align:middle line:90% 当你微笑的时候,你在拉动颧骨肌肉, 00:05:19.800 --> 00:05:24.180 align:middle line:90% 这基本上就是唇角拉或者动作单元12。 00:05:24.180 --> 00:05:28.210 align:middle line:90% 当你皱眉或皱眉时,这是动作单元4, 00:05:28.210 --> 00:05:29.910 align:middle line:90% 这是皱眉。 00:05:29.910 --> 00:05:32.310 align:middle line:90% 它通常是一种消极情绪的标志, 00:05:32.310 --> 00:05:36.080 align:middle line:90% 比如困惑或愤怒。 00:05:36.080 --> 00:05:39.530 align:middle line:90% 这些面部肌肉大约有45块, 00:05:39.530 --> 00:05:42.290 align:middle line:90% 要成为一名合格的传真编码员或面部读取员 00:05:42.290 --> 00:05:47.090 align:middle line:90% 需要大约100个小时的训练—— 00:05:47.090 --> 00:05:49.790 align:middle line:90% 非常辛苦,非常耗时。 00:05:49.790 --> 00:05:51.650 align:middle line:90% 对每一分钟的视频进行编码 00:05:51.650 --> 00:05:54.140 align:middle line:90% 需要你花大约5分钟的时间观看 00:05:54.140 --> 00:05:56.890 align:middle line:90% 视频慢动作,然后说,哦,啊哈,我看到了, 00:05:56.890 --> 00:05:59.570 align:middle line:90% 我看到了眉毛抬起来或斜视。 00:05:59.570 --> 00:06:01.040 align:middle line:90% 我们不需要再这么做了。 00:06:01.040 --> 00:06:04.370 align:middle line:90% 相反,我们使用计算机视觉、机器学习和深度学习 00:06:04.370 --> 00:06:07.670 align:middle line:90% 来自动训练算法来检测 00:06:07.670 --> 00:06:10.720 align:middle line:90% 这些面部表情。 00:06:10.720 --> 00:06:13.450 align:middle line:90% 我们使用数十万个微笑、 00:06:13.450 --> 00:06:17.140 align:middle line:90% 洋洋得意的笑和皱眉的例子 00:06:17.140 --> 00:06:18.670 align:middle line:90% 来训练这些算法。 00:06:18.670 --> 00:06:23.290 align:middle line:90% 而深度学习网络能够提炼出 00:06:23.290 --> 00:06:25.480 align:middle line:90% 这些微笑之间的共同点, 00:06:25.480 --> 00:06:29.710 align:middle line:90% 这些皱眉之间的共同点,这就是它的学习方式。 00:06:29.710 --> 00:06:32.320 align:middle line:90% 因此,为了简化它,这个过程的第一步 00:06:32.320 --> 00:06:34.930 align:middle line:90% 是三角定位脸部的位置, 00:06:34.930 --> 00:06:39.130 align:middle line:90% 找到像眉毛、嘴或鼻子这样的 00:06:39.130 --> 00:06:40.240 align:middle line:90% 面部标志。 00:06:40.240 --> 00:06:43.750 align:middle line:90% 然后你把这个区域输入一个深层的神经网络, 00:06:43.750 --> 00:06:46.300 align:middle line:90% 这个神经网络能够提取出 00:06:46.300 --> 00:06:49.450 align:middle line:90% 面部正在发生的表情,并将这些表情 00:06:49.450 --> 00:06:51.760 align:middle line:90% 映射到一些情绪和认知状态。 00:06:51.760 --> 00:06:55.090 align:middle line:90% 从喜悦、惊讶、愤怒、厌恶 00:06:55.090 --> 00:06:58.720 align:middle line:90% 到更复杂的状态,如疲劳、注意力、 00:06:58.720 --> 00:07:02.470 align:middle line:90% 认知超负荷、困惑等等。 00:07:02.470 --> 00:07:04.540 align:middle line:90% 在过去几年的工作中, 00:07:04.540 --> 00:07:08.260 align:middle line:90% 我们积累了世界上最大的情感库。 00:07:08.260 --> 00:07:11.680 align:middle line:90% 我们收集了900万和120万张面部视频—— 00:07:11.680 --> 00:07:13.930 align:middle line:90% 每个人都可以选择加入并同意了—— 00:07:13.930 --> 00:07:16.280 align:middle line:90% 在全世界90个国家。 00:07:16.280 --> 00:07:19.900 align:middle line:90% 这大致相当于大约50亿个面部框架。 00:07:19.900 --> 00:07:22.450 align:middle line:90% 它是迄今为止最大的 00:07:22.450 --> 00:07:25.090 align:middle line:90% 实际情绪反应库。 00:07:25.090 --> 00:07:27.280 align:middle line:90% 我们利用这些数据进行训练, 00:07:27.280 --> 00:07:30.690 align:middle line:90% 同时也验证了我们的算法。 00:07:30.690 --> 00:07:33.800 align:middle line:90% 这项技术的应用如此之多, 00:07:33.800 --> 00:07:37.340 align:middle line:90% 足以改变工业。 00:07:37.340 --> 00:07:39.980 align:middle line:90% 我的大愿景是,在未来几年里, 00:07:39.980 --> 00:07:43.159 align:middle line:90% 我们将看到情感人工智能 00:07:43.159 --> 00:07:44.900 align:middle line:90% 成为事实上的人机界面。 00:07:44.900 --> 00:07:47.810 align:middle line:90% 基本上我们和我们的设备的交互方式 00:07:47.810 --> 00:07:50.150 align:middle line:90% 就是我们彼此交互的方式。 00:07:50.150 --> 00:07:51.260 align:middle line:90% 通过谈话。 00:07:51.260 --> 00:07:53.600 align:middle line:90% 我们已经在Alexa和Siri这样的对话设备上 00:07:53.600 --> 00:07:55.550 align:middle line:90% 看到了这一点。 00:07:55.550 --> 00:07:56.540 align:middle line:90% 通过感知。 00:07:56.540 --> 00:07:58.520 align:middle line:90% 再说一次,我们已经开始看到 00:07:58.520 --> 00:08:00.530 align:middle line:90% 有摄像头的设备了。 00:08:00.530 --> 00:08:04.070 align:middle line:90% 但也许最重要的是,通过移情 00:08:04.070 --> 00:08:05.550 align:middle line:90% 和情商。 00:08:05.550 --> 00:08:06.800 align:middle line:90% 有很多应用程序。 00:08:06.800 --> 00:08:09.120 align:middle line:90% 我将集中讨论几个问题。 00:08:09.120 --> 00:08:11.420 align:middle line:90% 第一个应用程序是量化消费者 00:08:11.420 --> 00:08:14.960 align:middle line:90% 在情感上如何与周围的产品和品牌 00:08:14.960 --> 00:08:16.730 align:middle line:90% 打交道。 00:08:16.730 --> 00:08:20.240 align:middle line:90% 我们的工作方式是向人们发送调查, 00:08:20.240 --> 00:08:22.710 align:middle line:90% 让他们观看一段内容。 00:08:22.710 --> 00:08:26.120 align:middle line:90% 它可能是一个在线视频广告,可能是一个电影预告片, 00:08:26.120 --> 00:08:30.380 align:middle line:90% 可能是一个真正的电视节目,可能是学习内容。 00:08:30.380 --> 00:08:32.299 align:middle line:90% 但我们的想法是要捕捉 00:08:32.299 --> 00:08:35.510 align:middle line:90% 人们对这些内容的情感投入 00:08:35.510 --> 00:08:37.789 align:middle line:90% 和情感反应。 00:08:37.789 --> 00:08:39.990 align:middle line:90% 我们让人们打开相机—— 00:08:39.990 --> 00:08:42.182 align:middle line:90% 同意并选择加入非常重要—— 00:08:42.182 --> 00:08:44.390 align:middle line:90% 然后我们就能捕捉到这些时时刻刻的 00:08:44.390 --> 00:08:46.710 align:middle line:90% 反应。 00:08:46.710 --> 00:08:52.170 align:middle line:90% 我们的技术正被25%的《财富》全球500强企业 00:08:52.170 --> 00:08:55.080 align:middle line:90% 以及领先的市场研究公司所使用, 00:08:55.080 --> 00:08:59.400 align:middle line:90% 这些公司利用我们的技术量化消费者 00:08:59.400 --> 00:09:02.898 align:middle line:90% 和观众对其内容的情感反应。 00:09:02.898 --> 00:09:04.440 align:middle line:90% 我觉得给你看一个 00:09:04.440 --> 00:09:08.580 align:middle line:90% 我们测试过的视频广告会很有趣, 00:09:08.580 --> 00:09:11.200 align:middle line:90% 我们已经取得了权限可以公开分享。 00:09:11.200 --> 00:09:12.250 align:middle line:90% 我们一起看吧。 00:09:12.250 --> 00:09:15.666 align:middle line:90% [音乐 - TONY DALLARA,“COME PRIMA”] 00:09:18.106 --> 00:09:21.522 align:middle line:90% [意大利歌曲] 00:10:13.124 --> 00:10:16.390 align:middle line:90% 呃,妈妈抢到了先机。 00:10:16.390 --> 00:10:21.380 align:middle line:90% 今天,我们在全球范围内测试了超过50000个广告。 00:10:21.380 --> 00:10:27.520 align:middle line:90% 这个广告在所有广告中排名前10% 00:10:27.520 --> 00:10:30.760 align:middle line:90% 位于第90个百分位。 00:10:30.760 --> 00:10:34.060 align:middle line:90% 它获得了非常强烈的情感参与, 00:10:34.060 --> 00:10:36.040 align:middle line:90% 这是我们的表达得分。 00:10:36.040 --> 00:10:37.570 align:middle line:90% 它赢得了很多微笑。 00:10:37.570 --> 00:10:40.960 align:middle line:90% 你可以看到每个看过广告的人的 00:10:40.960 --> 00:10:43.660 align:middle line:90% 微笑曲线,我们可以从中 00:10:43.660 --> 00:10:46.400 align:middle line:90% 记录数据。 00:10:46.400 --> 00:10:48.710 align:middle line:90% 这个特别的广告真正吸引人的是, 00:10:48.710 --> 00:10:51.410 align:middle line:90% 如果你比较一下人们第一次看到它的时候, 00:10:51.410 --> 00:10:53.300 align:middle line:90% 那是绿色的实线。 00:10:53.300 --> 00:10:55.130 align:middle line:90% 第二次观看它, 00:10:55.130 --> 00:10:57.050 align:middle line:90% 是绿色的虚线。 00:10:57.050 --> 00:11:00.140 align:middle line:90% 你可以看到人们对这则广告有记忆。 00:11:00.140 --> 00:11:02.420 align:middle line:90% 他们期待着广告真正有趣的地方, 00:11:02.420 --> 00:11:05.420 align:middle line:90% 甚至在那一幕开始之前他们就笑了, 00:11:05.420 --> 00:11:07.640 align:middle line:90% 这正是你想要的。 00:11:07.640 --> 00:11:09.920 align:middle line:90% 而且,更重要的是,我们带着观众 00:11:09.920 --> 00:11:12.050 align:middle line:90% 踏上了一段情感之旅,最终 00:11:12.050 --> 00:11:15.650 align:middle line:90% 在与品牌揭晓相吻合的结尾处 00:11:15.650 --> 00:11:16.700 align:middle line:90% 得到了非常积极的回应。 00:11:16.700 --> 00:11:19.280 align:middle line:90% 同样,我们从研究中知道, 00:11:19.280 --> 00:11:22.990 align:middle line:90% 这些指标都是非常积极的。 00:11:22.990 --> 00:11:25.020 align:middle line:90% 我喜欢这个特别的例子,因为 00:11:25.020 --> 00:11:29.130 align:middle line:90% 这是可口可乐和联合利华等品牌 00:11:29.130 --> 00:11:32.820 align:middle line:90% 利用这一技术真正推动在线视频 00:11:32.820 --> 00:11:36.720 align:middle line:90% 广告,让广告变得更加包容和进步的一个例子。 00:11:36.720 --> 00:11:39.780 align:middle line:90% 但他们必须以一种深思熟虑的方式做到这一点。 00:11:39.780 --> 00:11:42.750 align:middle line:90% 他们能够捕捉到这些对广告的潜意识的 00:11:42.750 --> 00:11:45.830 align:middle line:90% 本能反应。 00:11:45.830 --> 00:11:48.800 align:middle line:90% 我们也知道,从我们对这些品牌的大量研究中, 00:11:48.800 --> 00:11:51.650 align:middle line:90% 我们将情感反应与实际的消费者行为 00:11:51.650 --> 00:11:54.860 align:middle line:90% 联系起来,这种 00:11:54.860 --> 00:11:58.460 align:middle line:90% 情感旅程和积极的情感反应 00:11:58.460 --> 00:12:00.620 align:middle line:90% 与诸如销售提升、购买意向和活力 00:12:00.620 --> 00:12:03.800 align:middle line:90% 之类的事情高度相关。 00:12:06.790 --> 00:12:09.910 align:middle line:90% 因为我们已经在全球测试了50000个广告, 00:12:09.910 --> 00:12:12.280 align:middle line:90% 我们能够创建基准。 00:12:12.280 --> 00:12:14.680 align:middle line:90% 例如,我们知道,在美国, 00:12:14.680 --> 00:12:19.070 align:middle line:90% 宠物护理和婴儿护理广告最能引起人们的享受。 00:12:19.070 --> 00:12:22.400 align:middle line:90% 有趣的是,在加拿大,谷类食品广告 00:12:22.400 --> 00:12:24.980 align:middle line:90% 最能引起人们的兴趣。 00:12:24.980 --> 00:12:28.950 align:middle line:90% 不幸的是,电信广告几乎没有 00:12:28.950 --> 00:12:29.450 align:middle line:90% 任何乐趣。 00:12:29.450 --> 00:12:32.010 align:middle line:90% 它们看起来很无聊。 00:12:32.010 --> 00:12:34.470 align:middle line:90% 因此,这些数据真的非常有洞察力, 00:12:34.470 --> 00:12:36.510 align:middle line:90% 为品牌和营销人员 00:12:36.510 --> 00:12:39.120 align:middle line:90% 提供了新颖的见解,有助于 00:12:39.120 --> 00:12:41.400 align:middle line:90% 他们围绕媒体支出 00:12:41.400 --> 00:12:44.510 align:middle line:90% 以及如何优化广告内容做出决策。 00:12:44.510 --> 00:12:46.140 align:middle line:90% 不仅仅是广告, 00:12:46.140 --> 00:12:50.803 align:middle line:90% 你还可以用电视节目生成同样类型的数据。 00:12:50.803 --> 00:12:52.470 align:middle line:90% 这是我最喜欢的例子之一。 00:12:52.470 --> 00:12:56.430 align:middle line:90% 这是一个情景喜剧,我们为哥伦比亚广播公司测试了一段时间。 00:12:56.430 --> 00:12:58.260 align:middle line:90% 它叫Friends With Better Lives。 00:12:58.260 --> 00:12:59.610 align:middle line:90% 它播出的时间并不久。 00:12:59.610 --> 00:13:01.120 align:middle line:90% 它的成绩不太好。 00:13:01.120 --> 00:13:03.810 align:middle line:90% 但在这里,你又看到了微笑曲线。 00:13:03.810 --> 00:13:06.690 align:middle line:90% 我们把场景的角色 00:13:06.690 --> 00:13:08.850 align:middle line:90% 叠加在曲线上。 00:13:08.850 --> 00:13:11.490 align:middle line:90% 你可以看到有两个特别的角色, 00:13:11.490 --> 00:13:14.770 align:middle line:90% 每次他们出现的时候都不好笑。 00:13:14.770 --> 00:13:19.120 align:middle line:90% 他们基本上是这个微笑曲线的低谷。 00:13:19.120 --> 00:13:21.210 align:middle line:90% 而且,再一次强调,非常,非常有趣的数据, 00:13:21.210 --> 00:13:23.730 align:middle line:90% 制作者能够利用这些数据 00:13:23.730 --> 00:13:27.780 align:middle line:90% 来转换这些人物角色。 00:13:27.780 --> 00:13:32.240 align:middle line:90% 从理解人们对内容的 00:13:32.240 --> 00:13:33.840 align:middle line:90% 情感投入这个话题转到 00:13:33.840 --> 00:13:36.240 align:middle line:90% 另一个我们花费了 00:13:36.240 --> 00:13:37.830 align:middle line:90% 大量时间的领域。 00:13:37.830 --> 00:13:41.430 align:middle line:90% 它是未来的交通工具。 00:13:41.430 --> 00:13:43.320 align:middle line:90% 当我们刚开始在这个领域工作时, 00:13:43.320 --> 00:13:45.780 align:middle line:90% 世界各地的许多汽车制造商 00:13:45.780 --> 00:13:49.710 align:middle line:90% 都与我们接洽,他们希望将我们的情感感应技术 00:13:49.710 --> 00:13:51.780 align:middle line:90% 重新用于汽车。 00:13:51.780 --> 00:13:54.360 align:middle line:90% 要那样做的话,我们需要看看, 00:13:54.360 --> 00:13:57.640 align:middle line:90% 人们在车里的表现,尤其是司机。 00:13:57.640 --> 00:14:00.330 align:middle line:90% 所以我们开始收集一些数据。 00:14:00.330 --> 00:14:03.683 align:middle line:90% 我们公司的很多人都非常怀疑这一点, 00:14:03.683 --> 00:14:05.100 align:middle line:90% 也许是因为人们知道 00:14:05.100 --> 00:14:06.725 align:middle line:90% 仪表板上会有一个摄像头, 00:14:06.725 --> 00:14:09.990 align:middle line:90% 他们就不会有任何有趣的情绪 00:14:09.990 --> 00:14:12.210 align:middle line:90% 或认知反应。 00:14:12.210 --> 00:14:13.060 align:middle line:90% 我们错了。 00:14:13.060 --> 00:14:16.920 align:middle line:90% 所以我要给你们看一些视频片段的例子。 00:14:16.920 --> 00:14:19.920 align:middle line:90% 同样,这些人知道相机 00:14:19.920 --> 00:14:22.320 align:middle line:90% 在他们的车里,他们安装了相机, 00:14:22.320 --> 00:14:27.090 align:middle line:90% 他们同意了,但是我们还是看到了非常有趣的 00:14:27.090 --> 00:14:28.030 align:middle line:90% 驾驶行为。 00:14:28.030 --> 00:14:32.610 align:middle line:90% 在这个特殊的案例中,这位父亲驾驶着这辆车。 00:14:32.610 --> 00:14:33.920 align:middle line:90% 他昏昏欲睡。 00:14:33.920 --> 00:14:35.700 align:middle line:90% 有四种程度的困倦。 00:14:35.700 --> 00:14:38.370 align:middle line:90% 他基本上睡着了。 00:14:38.370 --> 00:14:40.170 align:middle line:90% 你还可以看到 00:14:40.170 --> 00:14:41.460 align:middle line:90% 他刚学会走路的女儿在后座。 00:14:41.460 --> 00:14:45.330 align:middle line:90% 非常非常不安全的驾驶。 00:14:45.330 --> 00:14:48.480 align:middle line:90% 我当然可以理解。 00:14:48.480 --> 00:14:52.200 align:middle line:90% 有很多次,当我们旅行的时候, 00:14:52.200 --> 00:14:56.190 align:middle line:90% 我从长途旅行回来,当我开车送我的孩子时 00:14:56.190 --> 00:14:57.870 align:middle line:90% 还在经历时差,感到筋疲力尽。 00:14:57.870 --> 00:14:59.940 align:middle line:90% 所以我挺有同感的。 00:14:59.940 --> 00:15:03.597 align:middle line:90% 但这是一个简单的、技术可以选择的例子。 00:15:03.597 --> 00:15:05.430 align:middle line:90% 你可以在这里看到,这项技术 00:15:05.430 --> 00:15:08.745 align:middle line:90% 能够检测出诸如闭眼、张嘴 00:15:08.745 --> 00:15:10.650 align:middle line:90% 和睡意程度等情况。 00:15:10.650 --> 00:15:14.200 align:middle line:90% 你可以想象汽车在这种情况下是如何干预的。 00:15:14.200 --> 00:15:15.730 align:middle line:90% 这是另一个例子。 00:15:15.730 --> 00:15:17.880 align:middle line:90% 她在开车。 00:15:17.880 --> 00:15:21.960 align:middle line:90% 她开车时也在发短信,所以很分心。 00:15:21.960 --> 00:15:24.510 align:middle line:90% 哦,她手里拿着两个电话, 00:15:24.510 --> 00:15:27.330 align:middle line:90% 所以她很心烦意乱。 00:15:27.330 --> 00:15:28.680 align:middle line:90% 她的眼睛没有看路。 00:15:28.680 --> 00:15:30.780 align:middle line:90% 她的手没有放在方向盘上。 00:15:30.780 --> 00:15:33.960 align:middle line:90% 你不会愿意坐在她开的车上。 00:15:33.960 --> 00:15:37.080 align:middle line:90% 但是,这又是一个例子,技术可以通过 00:15:37.080 --> 00:15:38.860 align:middle line:90% 观察她的目光行为, 00:15:38.860 --> 00:15:41.670 align:middle line:90% 她的头部姿势信息,也可以 00:15:41.670 --> 00:15:43.270 align:middle line:90% 将其与物体检测等结合起来。 00:15:43.270 --> 00:15:45.810 align:middle line:90% 所以我们可以发现她手里不仅有一部手机, 00:15:45.810 --> 00:15:47.070 align:middle line:90% 而是有两部手机。 00:15:47.070 --> 00:15:50.160 align:middle line:90% 我们可以将其标记为注意力高度分散的驾驶员。 00:15:50.160 --> 00:15:52.800 align:middle line:90% 再说一次,这辆车可以以某种方式进行干预。 00:15:52.800 --> 00:15:55.740 align:middle line:90% 你可以想象,如果这是一辆特斯拉, 00:15:55.740 --> 00:15:58.710 align:middle line:90% 它可以跳到半自动模式, 00:15:58.710 --> 00:16:00.360 align:middle line:90% 它基本上是说,等一下, 00:16:00.360 --> 00:16:02.610 align:middle line:90% 我在这个时刻会比你做得更好, 00:16:02.610 --> 00:16:06.030 align:middle line:90% 让我在来掌控局面。 00:16:06.030 --> 00:16:08.670 align:middle line:90% 我们与麻省理工学院的先进车辆技术小组合作 00:16:08.670 --> 00:16:11.970 align:middle line:90% 进行了大量的研究, 00:16:11.970 --> 00:16:15.900 align:middle line:90% 在那里我们进行了有史以来 00:16:15.900 --> 00:16:17.590 align:middle line:90% 第一次大规模的驾驶员行为研究。 00:16:17.590 --> 00:16:19.260 align:middle line:90% 在这个特殊的例子中, 00:16:19.260 --> 00:16:22.030 align:middle line:90% 你看到的是66号参与者。 00:16:22.030 --> 00:16:23.450 align:middle line:90% 她是女性。 00:16:23.450 --> 00:16:24.930 align:middle line:90% 她22岁了。 00:16:24.930 --> 00:16:28.950 align:middle line:90% 她的星期一驾驶情况都连接在星期一的那一行中。 00:16:28.950 --> 00:16:31.860 align:middle line:90% 她星期二的驾驶情况都连接在星期二那一行, 00:16:31.860 --> 00:16:33.130 align:middle line:90% 以此类推。 00:16:33.130 --> 00:16:37.470 align:middle line:90% 你可以看到她这周很累。 00:16:37.470 --> 00:16:39.030 align:middle line:90% 在一天的开始有很多 00:16:39.030 --> 00:16:40.650 align:middle line:90% 打哈欠的事情发生。 00:16:40.650 --> 00:16:44.020 align:middle line:90% 在周末和一天快结束的时候, 00:16:44.020 --> 00:16:49.650 align:middle line:90% 会有很多积极的表达。 00:16:49.650 --> 00:16:53.040 align:middle line:90% 俗语说一幅画胜过千言万语。 00:16:53.040 --> 00:16:55.950 align:middle line:90% 我相信一个视频更有价值。 00:16:55.950 --> 00:17:02.220 align:middle line:90% 所以我就给你们展示她晚上对比早上再对比晚上的 00:17:02.220 --> 00:17:06.420 align:middle line:90% 驾驶行为的例子。 00:17:06.420 --> 00:17:09.990 align:middle line:90% 再说一次,这些都是用我们的算法挖掘出来的。 00:17:09.990 --> 00:17:12.930 align:middle line:90% 所以我们基本上调用了纱线分类器 00:17:12.930 --> 00:17:15.060 align:middle line:90% 来检测她在所有驾驶期间的 00:17:15.060 --> 00:17:20.000 align:middle line:90% 所有打哈欠行为。 00:17:20.000 --> 00:17:23.618 align:middle line:90% 你可以看到她早上经常很累。 00:17:23.618 --> 00:17:25.887 align:middle line:90% 你可以想象,如果这是一个反复出现的模式, 00:17:25.887 --> 00:17:27.430 align:middle line:90% 那么车已经知道 00:17:27.430 --> 00:17:30.340 align:middle line:90% 她会筋疲力尽。 00:17:30.340 --> 00:17:32.770 align:middle line:90% 也许有人主动建议, 00:17:32.770 --> 00:17:37.690 align:middle line:90% 考虑到司机的个人资料,这辆车可以向她提出建议。 00:17:37.690 --> 00:17:42.720 align:middle line:90% 现在对比一下她的下午驾驶行为。 00:17:42.720 --> 00:17:46.140 align:middle line:90% 你可以看到她看起来已经清醒多了。 00:17:46.140 --> 00:17:49.110 align:middle line:90% 她更活泼,更多微笑, 00:17:49.110 --> 00:17:50.520 align:middle line:90% 有更积极的表情。 00:17:50.520 --> 00:17:54.300 align:middle line:90% 再次,如果这辆车有她的司机简介, 00:17:54.300 --> 00:17:56.940 align:middle line:90% 它可以定制和个性化的 00:17:56.940 --> 00:18:02.170 align:middle line:90% 驾驶体验,基于她的情感体验。 00:18:02.170 --> 00:18:05.310 align:middle line:90% 因此,我们正与多家汽车制造商密切合作, 00:18:05.310 --> 00:18:08.400 align:middle line:90% 重新设想这种运输体验。 00:18:08.400 --> 00:18:10.260 align:middle line:90% 不仅在今天的汽车中,我们可以 00:18:10.260 --> 00:18:13.890 align:middle line:90% 将注意力集中在驾驶员身上,而且在未来的汽车中, 00:18:13.890 --> 00:18:17.910 align:middle line:90% 我们真的可以看到一种现有的传感解决方案, 00:18:17.910 --> 00:18:20.670 align:middle line:90% 它可以同时观察驾驶员和车内 00:18:20.670 --> 00:18:21.510 align:middle line:90% 其他乘客。 00:18:21.510 --> 00:18:23.820 align:middle line:90% 以及车里的其他东西。 00:18:23.820 --> 00:18:25.680 align:middle line:90% 有没有落下一个孩子? 00:18:25.680 --> 00:18:27.600 align:middle line:90% 你把手机忘了吗? 00:18:27.600 --> 00:18:29.557 align:middle line:90% 车上有多少人? 00:18:29.557 --> 00:18:30.390 align:middle line:90% 他们的状态是什么? 00:18:30.390 --> 00:18:34.300 align:middle line:90% 你能对音乐、内容、灯光等 00:18:34.300 --> 00:18:37.260 align:middle line:90% 进行个性化设置吗? 00:18:37.260 --> 00:18:39.110 align:middle line:90% 但是,当然,在这场 00:18:39.110 --> 00:18:40.610 align:middle line:90% 全球大流行病期间, 00:18:40.610 --> 00:18:43.310 align:middle line:90% 我们很多人不再在车上花太多时间。 00:18:43.310 --> 00:18:47.870 align:middle line:90% 而且,事实上,我们中的很多人把更多的时间 00:18:47.870 --> 00:18:52.250 align:middle line:90% 花在视频会议和虚拟活动上。 00:18:52.250 --> 00:18:55.700 align:middle line:90% 通过技术建立人际关系真的很难。 00:18:55.700 --> 00:19:00.140 align:middle line:90% 这主要是因为交流的主要方式是 00:19:00.140 --> 00:19:01.430 align:middle line:90% 非语言的。 00:19:01.430 --> 00:19:05.070 align:middle line:90% 有时候,当我们参加这些虚拟会议、 00:19:05.070 --> 00:19:09.140 align:middle line:90% 虚拟活动和视频活动时, 00:19:09.140 --> 00:19:13.310 align:middle line:90% 你并没有真正地利用观众的精力 00:19:13.310 --> 00:19:14.000 align:middle line:90% 和表达方式。 00:19:14.000 --> 00:19:16.220 align:middle line:90% 我自己也有这种感觉。 00:19:16.220 --> 00:19:19.220 align:middle line:90% 我刚刚为我的书《女孩解码》启动了新书发布会,正如我提到的。 00:19:19.220 --> 00:19:21.890 align:middle line:90% 3月、4月和5月,我本应该 00:19:21.890 --> 00:19:24.650 align:middle line:90% 为我的新书发布会不断地旅行, 00:19:24.650 --> 00:19:28.220 align:middle line:90% 但我不得不改变成虚拟的新书发布会 00:19:28.220 --> 00:19:28.910 align:middle line:90% 和虚拟的新书演讲。 00:19:28.910 --> 00:19:32.840 align:middle line:90% 太不同了,因为在现场环境中, 00:19:32.840 --> 00:19:34.370 align:middle line:90% 我可以看到观众。 00:19:34.370 --> 00:19:36.710 align:middle line:90% 我可以看到你们所有人,我可以感受到你们的精力。 00:19:36.710 --> 00:19:38.870 align:middle line:90% 我可以根据你和我相处的方式 00:19:38.870 --> 00:19:43.010 align:middle line:90% 来定制、个性化和调整我的内容。 00:19:43.010 --> 00:19:46.190 align:middle line:90% 当我进行虚拟对话时,通常是单向对话, 00:19:46.190 --> 00:19:49.010 align:middle line:90% 或者至少在我看来是单向对话。 00:19:49.010 --> 00:19:51.750 align:middle line:90% 我觉得很痛苦也很不安。 00:19:51.750 --> 00:19:55.820 align:middle line:90% 但我认为这是一个改变的机会。 00:19:55.820 --> 00:19:59.390 align:middle line:90% 如果我们整合情感人工智能, 00:19:59.390 --> 00:20:02.300 align:middle line:90% 作为一种聚集观众反应的方式, 00:20:02.300 --> 00:20:05.360 align:middle line:90% 匿名捕捉你所有的面部表情。 00:20:05.360 --> 00:20:08.070 align:middle line:90% 我不需要看每个人的脸。 00:20:08.070 --> 00:20:11.120 align:middle line:90% 事实上,那会让我在演讲时不知所措, 00:20:11.120 --> 00:20:14.510 align:middle line:90% 但如果我能时时刻刻地追踪到 00:20:14.510 --> 00:20:17.042 align:middle line:90% 你的积极或消极的一面—— 00:20:17.042 --> 00:20:18.500 align:middle line:90% 你是否用心投入了这些内容, 00:20:18.500 --> 00:20:20.420 align:middle line:90% 这将是非常强大的信息, 00:20:20.420 --> 00:20:22.670 align:middle line:90% 让我能够定制和了解 00:20:22.670 --> 00:20:27.030 align:middle line:90% 观众的参与程度。 00:20:27.030 --> 00:20:28.900 align:middle line:90% 所以我想给你们举一个例子。 00:20:28.900 --> 00:20:31.390 align:middle line:90% 就在zoom的内部团队会议上, 00:20:31.390 --> 00:20:34.240 align:middle line:90% 我们记录了团队的反应。 00:20:34.240 --> 00:20:37.360 align:middle line:90% 您可以在这里看到总计的响应。 00:20:37.360 --> 00:20:40.180 align:middle line:90% 当然,有不同的方法来可视化这些数据, 00:20:40.180 --> 00:20:42.070 align:middle line:90% 但是我们能够跟踪每个人, 00:20:42.070 --> 00:20:44.405 align:middle line:90% 我们可以汇总人们的微笑和反应。 00:20:44.405 --> 00:20:46.030 align:middle line:90% 他们实际上是在谈论——这是 00:20:46.030 --> 00:20:49.960 align:middle line:90% 在三月初,就在大流行刚爆发的时候。 00:20:49.960 --> 00:20:51.970 align:middle line:90% 我们在讨论会发生什么, 00:20:51.970 --> 00:20:54.287 align:middle line:90% 以及在家工作的事情。 00:20:54.287 --> 00:20:55.870 align:middle line:90% 人们分享他们的故事。 00:20:55.870 --> 00:20:58.190 align:middle line:90% 能看到有很多同情心和微笑的行为。 00:20:58.190 --> 00:21:00.190 align:middle line:90% 所以我们可以追踪那些。 00:21:00.190 --> 00:21:02.890 align:middle line:90% 现在把它与一个大家都不感兴趣的 00:21:02.890 --> 00:21:04.600 align:middle line:90% 无聊会议相比。 00:21:04.600 --> 00:21:06.230 align:middle line:90% 你可以看出区别。 00:21:06.230 --> 00:21:09.790 align:middle line:90% 我们能够量化这些数据以实现实时参与, 00:21:09.790 --> 00:21:16.050 align:middle line:90% 但也可以在事后进行分析。 00:21:16.050 --> 00:21:18.800 align:middle line:90% 同样,在在线学习环境中, 00:21:18.800 --> 00:21:21.650 align:middle line:90% 如果教师能像在现场教室中那样 00:21:21.650 --> 00:21:24.920 align:middle line:90% 测量学生的情感投入, 00:21:24.920 --> 00:21:26.150 align:middle line:90% 会怎么样。 00:21:26.150 --> 00:21:28.070 align:middle line:90% 一个很棒的老师就是这么做的,对吧? 00:21:28.070 --> 00:21:30.710 align:middle line:90% 你感受到了学生的参与, 00:21:30.710 --> 00:21:33.710 align:middle line:90% 然后你可以个性化的学习体验。 00:21:33.710 --> 00:21:37.620 align:middle line:90% 最大限度地提高学习效果。 00:21:37.620 --> 00:21:41.390 align:middle line:90% 同样,在心理健康方面也有应用。 00:21:41.390 --> 00:21:44.090 align:middle line:90% 今天当你走进一个医生的办公室, 00:21:44.090 --> 00:21:46.403 align:middle line:90% 他们不会问你 00:21:46.403 --> 00:21:48.320 align:middle line:90% 体温或者血压, 00:21:48.320 --> 00:21:49.970 align:middle line:90% 他们会测量一下。 00:21:49.970 --> 00:21:51.890 align:middle line:90% 那么,如果医生能客观地 00:21:51.890 --> 00:21:53.930 align:middle line:90% 测量你的感受,就像他们能测量 00:21:53.930 --> 00:21:56.090 align:middle line:90% 其他生命体征一样,会怎样呢? 00:21:56.090 --> 00:21:58.430 align:middle line:90% 不幸的是,精神健康的黄金标准 00:21:58.430 --> 00:22:01.230 align:middle line:90% 仍然是1到10分—— 00:22:01.230 --> 00:22:02.840 align:middle line:90% 你有多沮丧? 00:22:02.840 --> 00:22:04.160 align:middle line:90% 你有多想自杀? 00:22:04.160 --> 00:22:05.810 align:middle line:90% 你现在有多痛? 00:22:05.810 --> 00:22:08.780 align:middle line:90% 我们可以引入情感人工智能, 00:22:08.780 --> 00:22:12.620 align:middle line:90% 并以一种能够客观衡量心理健康状况的方式 00:22:12.620 --> 00:22:15.190 align:middle line:90% 应用它。 00:22:15.190 --> 00:22:17.760 align:middle line:90% 其中一个领域是非常贴近我的内心深处, 00:22:17.760 --> 00:22:21.010 align:middle line:90% 我探索的第一个情感人工智能的应用就是 00:22:21.010 --> 00:22:22.300 align:middle line:90% 关于自闭症的。 00:22:22.300 --> 00:22:24.760 align:middle line:90% 自闭症患者在阅读和理解 00:22:24.760 --> 00:22:28.780 align:middle line:90% 非语言信号方面有困难。 00:22:28.780 --> 00:22:32.620 align:middle line:90% 他们尤其觉得脸部让人不知所措。 00:22:32.620 --> 00:22:34.300 align:middle line:90% 有时他们会完全避开脸部。 00:22:34.300 --> 00:22:37.390 align:middle line:90% 它们完全避免面部和眼部接触。 00:22:37.390 --> 00:22:40.690 align:middle line:90% 所以我们和一家叫做Brain Power的公司合作。 00:22:40.690 --> 00:22:45.910 align:middle line:90% 他们使用谷歌眼镜和我们的技术 00:22:45.910 --> 00:22:49.180 align:middle line:90% 帮助自闭症患者以一种非常有趣和游戏化的方式 00:22:49.180 --> 00:22:51.550 align:middle line:90% 学习这些非语言信号。 00:22:51.550 --> 00:22:56.200 align:middle line:90% 所以我要给你们看一段视频。 00:22:56.200 --> 00:22:57.850 align:middle line:90% 你在屏幕上看到什么? 00:22:57.850 --> 00:22:59.090 align:middle line:90% 妈妈。 00:22:59.090 --> 00:23:02.128 align:middle line:90% 8岁的马Matthew Krieger被诊断出患有自闭症。 00:23:02.128 --> 00:23:04.170 align:middle line:90% 他和其他孩子相处的很多麻烦 00:23:04.170 --> 00:23:05.820 align:middle line:90% 就是他觉得自己很有趣。 00:23:05.820 --> 00:23:07.950 align:middle line:90% 他感觉不到也许情况不是这样 00:23:07.950 --> 00:23:10.020 align:middle line:90% 或者其他小朋友觉得烦或者是生气了。 00:23:10.020 --> 00:23:11.550 align:middle line:90% Matthew的母亲Laura为他报名 00:23:11.550 --> 00:23:15.570 align:middle line:90% 参加了一项由Ned Sahin主持的临床试验。 00:23:15.570 --> 00:23:20.010 align:middle line:90% 我想知道自闭症患者的大脑里 00:23:20.010 --> 00:23:21.270 align:middle line:90% 发生了什么。 00:23:21.270 --> 00:23:24.600 align:middle line:90% 事实证明父母也很想知道。 00:23:24.600 --> 00:23:26.700 align:middle line:90% 你可以看一段时间, 00:23:26.700 --> 00:23:29.660 align:middle line:90% 即使把脸转过去再转回来看,你也会得到分数。 00:23:29.660 --> 00:23:32.910 align:middle line:90% Sahin的公司Brain Power 00:23:32.910 --> 00:23:35.940 align:middle line:90% 在Matthew使用的谷歌眼镜中使用了Affectiva的软件。 00:23:35.940 --> 00:23:37.950 align:middle line:90% 这些游戏试图帮助他理解 00:23:37.950 --> 00:23:40.860 align:middle line:90% 面部表情如何与情绪对应, 00:23:40.860 --> 00:23:42.840 align:middle line:90% 并学习社交线索。 00:23:42.840 --> 00:23:45.300 align:middle line:90% 关键的生活技能之一是理解 00:23:45.300 --> 00:23:47.000 align:middle line:90% 他人的情绪。 00:23:47.000 --> 00:23:50.190 align:middle line:90% 另一个是他们说话的时候 00:23:50.190 --> 00:23:51.510 align:middle line:90% 朝他们的方向看。 00:23:51.510 --> 00:23:54.750 align:middle line:90% 看着你的妈妈,当它是绿色的时候,你就得分了, 00:23:54.750 --> 00:23:58.020 align:middle line:90% 当它开始变成橙色和红色的时候—— 00:23:58.020 --> 00:24:00.660 align:middle line:90% 得分就慢下来了。 00:24:00.660 --> 00:24:01.698 align:middle line:90% 我正在看着你。 00:24:01.698 --> 00:24:02.490 align:middle line:90% 你是在看我。 00:24:02.490 --> 00:24:05.250 align:middle line:90% 就在几分钟后,Matthew目光的不同 00:24:05.250 --> 00:24:06.780 align:middle line:90% 让他母亲感到很激动。 00:24:06.780 --> 00:24:09.200 align:middle line:90% 我想哭。 00:24:09.200 --> 00:24:09.700 align:middle line:90% 为什么? 00:24:13.540 --> 00:24:19.340 align:middle line:90% 因为,当你看着我的时候, 00:24:19.340 --> 00:24:22.020 align:middle line:90% 让我觉得你以前没有真正地看过我, 00:24:22.020 --> 00:24:25.230 align:middle line:90% 因为现在你看我的眼光不一样了。 00:24:25.230 --> 00:24:29.260 align:middle line:90% Brain Power在美国各地家庭中部署了 00:24:29.260 --> 00:24:33.400 align:middle line:90% 大约有400个谷歌眼镜系统。 00:24:33.400 --> 00:24:35.650 align:middle line:90% 他们试图回答的主要问题是——我们 00:24:35.650 --> 00:24:38.290 align:middle line:90% 已经看到,当孩子们 00:24:38.290 --> 00:24:41.763 align:middle line:90% 戴着眼镜时,他们在社交和非语言 00:24:41.763 --> 00:24:43.180 align:middle line:90% 理解方面有所改善。 00:24:43.180 --> 00:24:47.410 align:middle line:90% 关键问题是当他们摘下眼镜时会发生什么。 00:24:47.410 --> 00:24:50.580 align:middle line:90% 这种学习是不是一概而论? 00:24:50.580 --> 00:24:53.592 align:middle line:90% 这项技术在心理健康方面也有 00:24:53.592 --> 00:24:54.300 align:middle line:90% 其他应用。 00:24:54.300 --> 00:24:58.050 align:middle line:90% 例如,一个早期检测帕金森氏症的系统。 00:24:58.050 --> 00:25:02.070 align:middle line:90% Erin Smith——她现在是斯坦福大学的学生。 00:25:02.070 --> 00:25:05.370 align:middle line:90% 早在她高中三年级的时候, 00:25:05.370 --> 00:25:08.550 align:middle line:90% 她就给我们发过电子邮件,说我一直在看 00:25:08.550 --> 00:25:12.240 align:middle line:90% 这部关于帕金森氏症的纪录片, 00:25:12.240 --> 00:25:14.320 align:middle line:90% 我想利用你们的技术。 00:25:14.320 --> 00:25:15.450 align:middle line:90% 要多少钱? 00:25:15.450 --> 00:25:20.187 align:middle line:90% 我记得我们的销售主管问我该怎么回答她? 00:25:20.187 --> 00:25:21.520 align:middle line:90% 她不可能负担我们的技术。 00:25:21.520 --> 00:25:24.390 align:middle line:90% 我说免费给她。 00:25:24.390 --> 00:25:26.250 align:middle line:90% 她到底要怎么用我们的技术? 00:25:26.250 --> 00:25:29.808 align:middle line:90% Erin消失了几个月又回来了。 00:25:29.808 --> 00:25:31.350 align:middle line:90% 她与Michael J. Fox基金会合作, 00:25:31.350 --> 00:25:36.120 align:middle line:90% 建立了这个系统来识别帕金森患者的 00:25:36.120 --> 00:25:38.250 align:middle line:90% 面部生物标志物。 00:25:38.250 --> 00:25:40.590 align:middle line:90% 她继续从事这项研究。 00:25:40.590 --> 00:25:43.060 align:middle line:90% 非常鼓舞人心的年轻女子。 00:25:43.060 --> 00:25:45.090 align:middle line:90% 我为我们在她的旅程中扮演一个小角色 00:25:45.090 --> 00:25:47.190 align:middle line:90% 而感到骄傲。 00:25:47.190 --> 00:25:50.490 align:middle line:90% 我们也知道抑郁症有面部和声音的 00:25:50.490 --> 00:25:51.780 align:middle line:90% 生物标志物。 00:25:51.780 --> 00:25:56.040 align:middle line:90% 基于这些信号,我们做了很多工作标志出 00:25:56.040 --> 00:25:57.630 align:middle line:90% 自杀的意图。 00:25:57.630 --> 00:26:00.570 align:middle line:90% 这是我们正在与Steven Benoit教授 00:26:00.570 --> 00:26:05.960 align:middle line:90% 和其他人合作的工作。 00:26:05.960 --> 00:26:08.260 align:middle line:90% 但这引出了一个非常重要的话题, 00:26:08.260 --> 00:26:10.410 align:middle line:90% 那就是,好吧,这项技术 00:26:10.410 --> 00:26:13.320 align:middle line:90% 有很多应用,我们该在哪里适可而止? 00:26:13.320 --> 00:26:16.470 align:middle line:90% 我对人工智能的伦理发展 00:26:16.470 --> 00:26:20.460 align:middle line:90% 和部署AI的概念充满激情。 00:26:20.460 --> 00:26:24.990 align:middle line:90% 不仅仅是承认它有太多的 00:26:24.990 --> 00:26:27.630 align:middle line:90% 潜在好处,而且也承认 00:26:27.630 --> 00:26:29.940 align:middle line:90% 这项技术可能被滥用, 00:26:29.940 --> 00:26:33.560 align:middle line:90% 并且承认这项技术的意外后果。 00:26:33.560 --> 00:26:35.310 align:middle line:90% 几年前,当我们 00:26:35.310 --> 00:26:37.380 align:middle line:90% 为公司筹款时,一家机构找我们, 00:26:37.380 --> 00:26:41.670 align:middle line:90% 想给我们很多钱—— 00:26:41.670 --> 00:26:44.700 align:middle line:90% 当时是4000万美元,这对我们的小初创公司来说 00:26:44.700 --> 00:26:47.150 align:middle line:90% 是一大笔钱—— 00:26:47.150 --> 00:26:49.680 align:middle line:90% 条件是他们想把这项技术用于 00:26:49.680 --> 00:26:52.500 align:middle line:90% 测谎和监视。 00:26:52.500 --> 00:26:54.690 align:middle line:90% 这确实不符合我们尊重人们隐私 00:26:54.690 --> 00:26:58.020 align:middle line:90% 和需要征得人们同意的核心价值观。 00:26:58.020 --> 00:27:02.020 align:middle line:90% 并承认,作为用户, 00:27:02.020 --> 00:27:03.730 align:middle line:90% 这些数据是非常私人的。 00:27:03.730 --> 00:27:05.940 align:middle line:90% 如果我要分享它, 00:27:05.940 --> 00:27:07.890 align:middle line:90% 我需要知道到底是谁在使用它, 00:27:07.890 --> 00:27:12.370 align:middle line:90% 它是如何被使用的,以及它对我有什么好处? 00:27:12.370 --> 00:27:14.040 align:middle line:90% 所以我们花了很多时间来思考 00:27:14.040 --> 00:27:15.780 align:middle line:90% 这种权力不对称—— 00:27:15.780 --> 00:27:17.580 align:middle line:90% 分享这些非常私人的数据, 00:27:17.580 --> 00:27:20.307 align:middle line:90% 我能得到什么回报。 00:27:20.307 --> 00:27:22.390 align:middle line:90% 关于它真正酷的一点是,业界 00:27:22.390 --> 00:27:25.440 align:middle line:90% 正在率先定义这些最佳 00:27:25.440 --> 00:27:26.820 align:middle line:90% 实践和指导原则。 00:27:26.820 --> 00:27:30.600 align:middle line:90% 我们是一个叫Partnership on AI组织的一部分。 00:27:30.600 --> 00:27:32.460 align:middle line:90% 它是由科技巨头发起—— 00:27:32.460 --> 00:27:35.430 align:middle line:90% 亚马逊、谷歌、脸书、微软。 00:27:35.430 --> 00:27:39.120 align:middle line:90% 此后,他们邀请了许多像Affectiva这样的 00:27:39.120 --> 00:27:40.440 align:middle line:90% 初创公司。 00:27:40.440 --> 00:27:44.880 align:middle line:90% 但也有其他利益相关者,如ACLU和国际特赦组织。 00:27:44.880 --> 00:27:47.760 align:middle line:90% 我是FATE委员会的一员, 00:27:47.760 --> 00:27:51.090 align:middle line:90% 它是公平、负责、透明和公正的人工智能。 00:27:51.090 --> 00:27:55.290 align:middle line:90% 我们的任务是围绕深思熟虑的监管 00:27:55.290 --> 00:27:57.227 align:middle line:90% 制定这些指导方针。 00:27:57.227 --> 00:27:59.310 align:middle line:90% 我们需要监管,但它需要被深思熟虑。 00:27:59.310 --> 00:28:02.100 align:middle line:90% 我们不想完全浪费创新, 00:28:02.100 --> 00:28:03.600 align:middle line:90% 但同时,我们真的 00:28:03.600 --> 00:28:06.030 align:middle line:90% 需要思考,我们应该在哪里适可而止, 00:28:06.030 --> 00:28:11.910 align:middle line:90% 这种经过深思熟虑的监管是什么样子的。 00:28:11.910 --> 00:28:14.240 align:middle line:90% 而且,归根结底,我的使命 00:28:14.240 --> 00:28:17.570 align:middle line:90% 是在技术使我们失去人性之前使其人性化。 00:28:17.570 --> 00:28:21.080 align:middle line:90% 我希望我们把重点放在人身上, 00:28:21.080 --> 00:28:23.200 align:middle line:90% 而不是人造的。 00:28:23.200 --> 00:28:27.290 align:middle line:90% 最后,如果这让你对情绪人工智能 00:28:27.290 --> 00:28:29.750 align:middle line:90% 及其应用程序和它的含义 00:28:29.750 --> 00:28:34.280 align:middle line:90% 开始有点好奇的话,我会把一本签名的书 00:28:34.280 --> 00:28:37.520 align:middle line:90% 送给前三个在我的社交媒体上发表评论的人—— 00:28:37.520 --> 00:28:41.350 align:middle line:90% LinkedIn、Facebook、Twitter、Instagram——使用 00:28:41.350 --> 00:28:45.860 align:middle line:90% #LIVEWORX和#GIRLDECODED标签,写下对这个直播的 00:28:45.860 --> 00:28:47.970 align:middle line:90% 评论或问题。 00:28:47.970 --> 00:28:50.970 align:middle line:90% 谢谢您。 00:28:50.970 --> 00:28:52.470 align:middle line:90% [LIVEWORX 主题] 00:28:52.470 --> 00:28:54.500 align:middle line:90% 感谢你加入我们,El Kaliouby博士。 00:28:54.500 --> 00:28:56.690 align:middle line:90% 多么吸引人的演讲。 00:28:56.690 --> 00:29:00.000 align:middle line:90% 今天的第三节直播到此结束。 00:29:00.000 --> 00:29:01.460 align:middle line:90% 下一个小时, 00:29:01.460 --> 00:29:05.240 align:middle line:90% 我们将了解公司如何利用基于SAAS的CAD、PLM 00:29:05.240 --> 00:29:07.550 align:middle line:90% 和增强现实技术作为关键工具, 00:29:07.550 --> 00:29:11.270 align:middle line:90% 使其不仅能够在中断中生存下来,而且能够接受这一新常态。 00:29:11.270 --> 00:29:13.160 align:middle line:90% 我们休息一会儿就回来。 00:29:13.160 --> 00:29:16.510 align:middle line:90% [LIVEWORX主题]