WEBVTT 00:00:00.000 --> 00:00:02.640 align:middle line:90% [LIVEWORXのテーマ] 00:00:02.640 --> 00:00:05.100 align:middle line:90% LiveWorx 2020にようこそ 00:00:05.100 --> 00:00:07.200 align:middle line:90% 私は司会のアンディア・ウィンズローです 00:00:07.200 --> 00:00:09.420 align:middle line:90% 今日はライブストリームイベントをお見せします 00:00:09.420 --> 00:00:10.920 align:middle line:90% 私達は既に業界の 00:00:10.920 --> 00:00:12.810 align:middle line:90% トップ技術ソートリーダーから 00:00:12.810 --> 00:00:14.580 align:middle line:90% お話を聞きました 00:00:14.580 --> 00:00:17.730 align:middle line:90% 以前のセッションに参加できなかった場合は 00:00:17.730 --> 00:00:21.090 align:middle line:84% LiveWorxのオンデマンドカタログを 参照してください 00:00:21.090 --> 00:00:24.180 align:middle line:90% このカタログは6月19日まで利用可能です 00:00:24.180 --> 00:00:27.810 align:middle line:90% このオンラインライブラリのセッション数は100を超えており 00:00:27.810 --> 00:00:29.340 align:middle line:90% 素晴らしいコンテンツとなっております 00:00:29.340 --> 00:00:31.800 align:middle line:90% 一年間のアーカイブコンテンツに 00:00:31.800 --> 00:00:35.800 align:middle line:84% アクセスするために今後のメール通知を チェックしてください 00:00:35.800 --> 00:00:38.220 align:middle line:90% 次のセッションを始めましょう 00:00:38.220 --> 00:00:40.770 align:middle line:90% 人工感情知性または感情認識AIとは何か? 00:00:40.770 --> 00:00:44.100 align:middle line:90% そしてその重要性について 00:00:44.100 --> 00:00:48.810 align:middle line:84% ラナ・エル・カリウビ博士は Affectivaの共同創設者であり CEOです 00:00:48.810 --> 00:00:52.890 align:middle line:84% MIT Media Labのスピンオフである 感情認識AIカテゴリの 00:00:52.890 --> 00:00:54.750 align:middle line:90% Affectivaを作成して定義しました 00:00:54.750 --> 00:00:57.630 align:middle line:84% ソフトウェアはニュアンスのある 人間感情を検知できて 00:00:57.630 --> 00:01:01.740 align:middle line:84% さらには顔や声などの 複雑な認知状態を検知します 00:01:01.740 --> 00:01:05.099 align:middle line:84% エル・カリウビ博士は 感情認知AIの革新者であり 00:01:05.099 --> 00:01:07.680 align:middle line:90% Girl Decoded: A Scientist's Quest 00:01:07.680 --> 00:01:10.080 align:middle line:90% to Reclaim our Humanity by Bringing Emotional Intelligence to Technologyの 00:01:10.080 --> 00:01:12.240 align:middle line:90% 著者でもあります 00:01:12.240 --> 00:01:17.690 align:middle line:84% 今日はラナ・エル・カリウビ博士に 来て頂いております 00:01:17.690 --> 00:01:18.740 align:middle line:90% ありがとう アンディアさん 00:01:18.740 --> 00:01:22.020 align:middle line:90% 今日は皆さんとお話しできて嬉しいです 00:01:22.020 --> 00:01:24.770 align:middle line:90% 私のミッションは私達の技術とデバイスに 00:01:24.770 --> 00:01:29.180 align:middle line:84% 感情インテリジェンスと共感を組み込んで 私達が非人間化される前に 00:01:29.180 --> 00:01:32.900 align:middle line:90% 技術を人間化することです 00:01:32.900 --> 00:01:35.420 align:middle line:84% そのために 私の目標は 人間計算機インターフェースと 00:01:35.420 --> 00:01:38.690 align:middle line:90% 人の間のコネクションを 00:01:38.690 --> 00:01:42.100 align:middle line:90% 新たに想像することです 00:01:42.100 --> 00:01:45.250 align:middle line:90% 私達は全員 仮想世界に 00:01:45.250 --> 00:01:46.479 align:middle line:90% 囲まれて生きています 00:01:46.479 --> 00:01:49.210 align:middle line:84% そうやって 私達はチームメンバーと つながっています 00:01:49.210 --> 00:01:50.800 align:middle line:84% 私達はオンラインで学習しています  少なくとも 00:01:50.800 --> 00:01:52.420 align:middle line:90% 私の子供たちはそうです 00:01:52.420 --> 00:01:55.870 align:middle line:84% そして 私達はバーチャルで 友人や家族とつながっています 00:01:55.870 --> 00:01:57.680 align:middle line:90% しかし 何かが足りません 00:01:57.680 --> 00:01:59.410 align:middle line:90% 実際に会って話すのとは微妙に違います 00:01:59.410 --> 00:02:03.610 align:middle line:84% それは 仮想環境から すべての言葉を用いない合図という 00:02:03.610 --> 00:02:07.180 align:middle line:90% 概念が欠如しているためです 00:02:07.180 --> 00:02:11.570 align:middle line:90% AIは従来 人間が担ってきた役割を請け負うようになり 00:02:11.570 --> 00:02:13.990 align:middle line:90% これは車の運転や 00:02:13.990 --> 00:02:17.620 align:middle line:90% 医療ケアの手助け 生産性を向上する手助けや 00:02:17.620 --> 00:02:21.310 align:middle line:90% 次の同僚を雇う作業などを含みます 00:02:21.310 --> 00:02:25.240 align:middle line:84% 問題の原因は 人間とAI間の新しい社会契約が 00:02:25.240 --> 00:02:26.380 align:middle line:90% 必要だと言うことです 00:02:26.380 --> 00:02:30.130 align:middle line:90% 相互的な信頼に基づいた関係が必要です 00:02:30.130 --> 00:02:32.200 align:middle line:90% 当然 私達はAIを信頼する必要があり 00:02:32.200 --> 00:02:34.450 align:middle line:90% それに関する会話はたくさんあります 00:02:34.450 --> 00:02:40.030 align:middle line:84% 何より重要なのは AIも人間を 信頼できる必要があります 00:02:40.030 --> 00:02:43.060 align:middle line:90% 今までの人間の行動を見ても 00:02:43.060 --> 00:02:46.420 align:middle line:90% 私達は常に正しいとは限りません 00:02:46.420 --> 00:02:49.480 align:middle line:90% 残念なことに 信頼が裏切られてしまう 00:02:49.480 --> 00:02:51.650 align:middle line:90% 例も多いです 00:02:51.650 --> 00:02:56.500 align:middle line:84% 一晩で人種差別をするようになった ツイッターのチャットボット 00:02:56.500 --> 00:02:59.470 align:middle line:90% 自動運転車が死につながるような事故にあったり 00:02:59.470 --> 00:03:03.040 align:middle line:90% 特定の人口を 特に有色人種の女性を 00:03:03.040 --> 00:03:05.230 align:middle line:90% 差別するようになってしまった 00:03:05.230 --> 00:03:08.740 align:middle line:90% 顔認識技術などがその例です 00:03:08.740 --> 00:03:13.090 align:middle line:84% この信頼を修復するために 人間のやり方を見ましょう 00:03:13.090 --> 00:03:15.160 align:middle line:90% 毎日 私達はお互いの信頼基づいた 00:03:15.160 --> 00:03:17.150 align:middle line:90% 幾千もの決断をします 00:03:17.150 --> 00:03:21.329 align:middle line:84% これは私達の個人と プロフェッショナルな関係も含みます 00:03:21.329 --> 00:03:24.060 align:middle line:90% これらの関係が法や 00:03:24.060 --> 00:03:25.890 align:middle line:90% 取引条件に基づく場合があります 00:03:25.890 --> 00:03:30.360 align:middle line:90% 多くの場合 人間がお互いに共感して交わす 00:03:30.360 --> 00:03:33.930 align:middle line:84% 暗示された 非言語の 些細なキューに基づいており 00:03:33.930 --> 00:03:36.450 align:middle line:90% これは信頼を築くためのコアとなっております 00:03:36.450 --> 00:03:38.970 align:middle line:90% 今日の技術はIQが高く 00:03:38.970 --> 00:03:42.690 align:middle line:84% 認識インテリジェンスは高いですが EQはありません 00:03:42.690 --> 00:03:44.410 align:middle line:90% 感情知性はありません 00:03:44.410 --> 00:03:47.340 align:middle line:90% 欠如している要素です 00:03:47.340 --> 00:03:50.950 align:middle line:90% 私のキャリアで 私は疑問を持ちました 00:03:50.950 --> 00:03:54.990 align:middle line:90% テクノロジーが私達のように人間の感情を 00:03:54.990 --> 00:03:56.942 align:middle line:90% 識別出来たら? 00:03:56.942 --> 00:03:58.900 align:middle line:90% コンピューターが笑顔と冷ややかな笑いの 00:03:58.900 --> 00:04:01.750 align:middle line:84% 違いを分かるようになったら どうなるでしょうか? 00:04:01.750 --> 00:04:03.890 align:middle line:90% どちらも顔の下半分に影響されますが 00:04:03.890 --> 00:04:06.770 align:middle line:90% それぞれの表情の意味は大きく異なります 00:04:06.770 --> 00:04:11.690 align:middle line:90% 人間を理解できるAIを作る方法はなんでしょうか? 00:04:11.690 --> 00:04:14.570 align:middle line:90% 人間の行動を観察することで作ることが出来ます 00:04:14.570 --> 00:04:18.320 align:middle line:90% 私達の心の状況を伝える方法のたった7%が 00:04:18.320 --> 00:04:21.760 align:middle line:90% 私達が選ぶ実際の言葉に基づいています 00:04:21.760 --> 00:04:26.960 align:middle line:90% 残りの93%は非言語であり 顔の表情や 00:04:26.960 --> 00:04:27.950 align:middle line:90% ジェスチャーを含みます 00:04:27.950 --> 00:04:30.420 align:middle line:90% 私はこれらの多くを行い 00:04:30.420 --> 00:04:34.040 align:middle line:90% 声のイントネーションは38%であり 00:04:34.040 --> 00:04:37.640 align:middle line:90% これは話す速度やエネルギーを含みます 00:04:37.640 --> 00:04:40.080 align:middle line:84% 私のキャリアのほとんどは 顔に焦点を当ててきました 00:04:40.080 --> 00:04:44.240 align:middle line:84% 顔は人間の感情を伝えるための 非常に強力なキャンバスです 00:04:44.240 --> 00:04:49.740 align:middle line:90% 顔の表情に関する科学の歴史は200年以上です 00:04:49.740 --> 00:04:52.700 align:middle line:90% デュシェンヌは電気を使って 00:04:52.700 --> 00:04:57.740 align:middle line:84% 顔の表情を刺激することで 顔の筋肉の動きを調べました 00:04:57.740 --> 00:05:00.790 align:middle line:84% 幸い 今ではもう電気で顔を 刺激する必要はありません 00:05:00.790 --> 00:05:04.740 align:middle line:84% そして 1970年代後半では ポール・エックマンとそのチームが 00:05:04.740 --> 00:05:07.770 align:middle line:90% 顔面動作符号化システムを公表しました 00:05:07.770 --> 00:05:11.760 align:middle line:84% これは顔の各筋肉の動きを コードである動作ユニットに 00:05:11.760 --> 00:05:13.960 align:middle line:90% マッピングするための客観的な方法です 00:05:13.960 --> 00:05:16.650 align:middle line:90% 例えば 笑うときに 皆さんもやってみましょう 00:05:16.650 --> 00:05:19.800 align:middle line:90% 笑顔になる時に 皆さんは大頬骨筋を使います 00:05:19.800 --> 00:05:24.180 align:middle line:84% これは行動ユニット12または 口の端を引き上げる動作です 00:05:24.180 --> 00:05:28.210 align:middle line:90% 眉間を寄せたり しかめ顔をする時は 00:05:28.210 --> 00:05:29.910 align:middle line:90% 行動ユニット4です 00:05:29.910 --> 00:05:32.310 align:middle line:90% これは通常 混乱や怒りなどの 00:05:32.310 --> 00:05:36.080 align:middle line:90% ネガティブな感情の表れです 00:05:36.080 --> 00:05:39.530 align:middle line:90% 顔の筋肉は45種類あり 00:05:39.530 --> 00:05:42.290 align:middle line:84% 認証されたファックスコーダーまたは フェースリーダーになるには 00:05:42.290 --> 00:05:47.090 align:middle line:90% 100時間のトレーニングが必要になります 00:05:47.090 --> 00:05:49.790 align:middle line:90% これは多くの労力と時間を必要とします 00:05:49.790 --> 00:05:51.650 align:middle line:90% 動画を毎分コードするために 00:05:51.650 --> 00:05:54.140 align:middle line:90% 動画を5分間観察する必要があります 00:05:54.140 --> 00:05:56.890 align:middle line:84% スローモーションで視聴して 実際に口真似をして 00:05:56.890 --> 00:05:59.570 align:middle line:90% 眉毛を引き上げたり 目を細めたりします 00:05:59.570 --> 00:06:01.040 align:middle line:90% もうその必要はありません 00:06:01.040 --> 00:06:04.370 align:middle line:84% 代わりに コンピュータービジョンと 機械学習を使って 00:06:04.370 --> 00:06:07.670 align:middle line:84% 深層学習も適用して 自動的にアルゴリズムを訓練して 00:06:07.670 --> 00:06:10.720 align:middle line:90% これらの顔の表情を検知できるようにします 00:06:10.720 --> 00:06:13.450 align:middle line:90% 私達はこれらのアルゴリズムを訓練するために 00:06:13.450 --> 00:06:17.140 align:middle line:84% 笑顔やニヤニヤ笑い そして眉間を寄せた表情の例を何千も 00:06:17.140 --> 00:06:18.670 align:middle line:90% 使います 00:06:18.670 --> 00:06:23.290 align:middle line:90% 深層学習ネットワークはこれらの笑顔の 00:06:23.290 --> 00:06:25.480 align:middle line:90% 間の共通点をくみ取って 00:06:25.480 --> 00:06:29.710 align:middle line:90% しかめ顔の共通点をくみ取って学習します 00:06:29.710 --> 00:06:32.320 align:middle line:84% それをシンプルにするために 工程の最初のステップは 00:06:32.320 --> 00:06:34.930 align:middle line:90% 顔がどこにあるのか三角測量することです 00:06:34.930 --> 00:06:39.130 align:middle line:90% 眉毛 口や鼻などの顔の特徴を 00:06:39.130 --> 00:06:40.240 align:middle line:90% 発見することです 00:06:40.240 --> 00:06:43.750 align:middle line:84% それらの顔の部分を 深層神経ネットワークに組み込んで 00:06:43.750 --> 00:06:46.300 align:middle line:90% 顔の表情をくみ取って 00:06:46.300 --> 00:06:49.450 align:middle line:90% それを数々の感情と 00:06:49.450 --> 00:06:51.760 align:middle line:90% 認識状況にマッピングします 00:06:51.760 --> 00:06:55.090 align:middle line:90% 喜び 驚き 怒りと嫌気 00:06:55.090 --> 00:06:58.720 align:middle line:90% そして 疲労 配慮 認知オーバーロード 00:06:58.720 --> 00:07:02.470 align:middle line:90% 混乱などの複雑な状況も含みます 00:07:02.470 --> 00:07:04.540 align:middle line:90% 過去数年の調査の結果 00:07:04.540 --> 00:07:08.260 align:middle line:90% 私達は世界最大の感情リポジトリを蓄積しました 00:07:08.260 --> 00:07:11.680 align:middle line:90% 私達は参加者全員の許可を得て 00:07:11.680 --> 00:07:13.930 align:middle line:90% 950万もの顔の動画を収集して 00:07:13.930 --> 00:07:16.280 align:middle line:90% 世界中の90カ国から集めました 00:07:16.280 --> 00:07:19.900 align:middle line:84% これは約50憶の表情フレームを 集めたことになります 00:07:19.900 --> 00:07:22.450 align:middle line:90% これは実際の感情リスポンスの 00:07:22.450 --> 00:07:25.090 align:middle line:90% 世界最大のリポジトリです 00:07:25.090 --> 00:07:27.280 align:middle line:90% 私達は訓練するためにデータを使って 00:07:27.280 --> 00:07:30.690 align:middle line:90% さらにアルゴリズムを正当化します 00:07:30.690 --> 00:07:33.800 align:middle line:90% 業界を変革できる技術の 00:07:33.800 --> 00:07:37.340 align:middle line:90% 適用方法はたくさんあります 00:07:37.340 --> 00:07:39.980 align:middle line:90% 私達の大きい展望は今後数年で 00:07:39.980 --> 00:07:43.159 align:middle line:90% 感情AIが事実上の人間と機械間の 00:07:43.159 --> 00:07:44.900 align:middle line:90% インターフェイスとなります 00:07:44.900 --> 00:07:47.810 align:middle line:84% 基本的に私達人間は お互いに作用するのと同様に 00:07:47.810 --> 00:07:50.150 align:middle line:90% デバイスともお互いに作用するようになります 00:07:50.150 --> 00:07:51.260 align:middle line:90% 会話を通して作用できます 00:07:51.260 --> 00:07:53.600 align:middle line:90% これは既にAlexaやSiriなどの 00:07:53.600 --> 00:07:55.550 align:middle line:90% 会話装置で実証されています 00:07:55.550 --> 00:07:56.540 align:middle line:90% 認識を通して行います 00:07:56.540 --> 00:07:58.520 align:middle line:90% 既にカメラが搭載されている 00:07:58.520 --> 00:08:00.530 align:middle line:90% デバイスが存在します 00:08:00.530 --> 00:08:04.070 align:middle line:90% さらに重要なのは 共感と感情 00:08:04.070 --> 00:08:05.550 align:middle line:90% インテリジェンスです 00:08:05.550 --> 00:08:06.800 align:middle line:90% 適用方法はたくさんあります 00:08:06.800 --> 00:08:09.120 align:middle line:90% いくつか紹介したいと思います 00:08:09.120 --> 00:08:11.420 align:middle line:90% 最初の適用方法は消費者が 00:08:11.420 --> 00:08:14.960 align:middle line:84% どのようにして周囲の製品やブランドと 感情的にどう関わるのか 00:08:14.960 --> 00:08:16.730 align:middle line:90% 評価する方法です 00:08:16.730 --> 00:08:20.240 align:middle line:90% 私達は人にアンケートを送ってコンテンツの一部を 00:08:20.240 --> 00:08:22.710 align:middle line:90% 視聴してもらいます 00:08:22.710 --> 00:08:26.120 align:middle line:84% 視聴する内容はオンラインの広告動画 映画の予告動画 00:08:26.120 --> 00:08:30.380 align:middle line:90% 実際のテレビ番組や学習コンテンツを含みます 00:08:30.380 --> 00:08:32.299 align:middle line:90% 私達はこれらのコンテンツに対する 00:08:32.299 --> 00:08:35.510 align:middle line:90% 参加者の感情のかかわりや反応を 00:08:35.510 --> 00:08:37.789 align:middle line:90% 捉えるのが目的です 00:08:37.789 --> 00:08:39.990 align:middle line:90% 私達は人々にカメラをつけてもらって 00:08:39.990 --> 00:08:42.182 align:middle line:90% 事前にちゃんと許可を得たうえで 00:08:42.182 --> 00:08:44.390 align:middle line:90% それらの反応の瞬間を一つ一つ 00:08:44.390 --> 00:08:46.710 align:middle line:90% 捉えます 00:08:46.710 --> 00:08:52.170 align:middle line:84% 私達のテクノロジーは Fortune Global 500の25%が使用しており 00:08:52.170 --> 00:08:55.080 align:middle line:90% 他にも市場を率いる研究機関が 00:08:55.080 --> 00:08:59.400 align:middle line:90% 私達の技術を使って消費者と視聴者の 00:08:59.400 --> 00:09:02.898 align:middle line:90% コンテンツに対する感情的な反応を測定します 00:09:02.898 --> 00:09:04.440 align:middle line:90% 私達が公表する許可を持つ 00:09:04.440 --> 00:09:08.580 align:middle line:90% テスト済みの動画広告の一つを 00:09:08.580 --> 00:09:11.200 align:middle line:90% 皆さんに紹介したいと思います 00:09:11.200 --> 00:09:12.250 align:middle line:90% 一緒に見てみましょう 00:09:12.250 --> 00:09:15.666 align:middle line:90% [音楽-トニー・ダラーラ 「おいでプリマ」] 00:09:18.106 --> 00:09:21.522 align:middle line:90% [イタリア語の歌] 00:10:13.124 --> 00:10:16.390 align:middle line:90% 母親が先に着きましたね 00:10:16.390 --> 00:10:21.380 align:middle line:90% 今日は世界中で5万もの広告をテストしました 00:10:21.380 --> 00:10:27.520 align:middle line:90% この特定の広告は 00:10:27.520 --> 00:10:30.760 align:middle line:90% すべての広告のトップ10%に入っています 00:10:30.760 --> 00:10:34.060 align:middle line:90% これは強い感情的な関りを集めて 00:10:34.060 --> 00:10:36.040 align:middle line:90% これは私達の表現性スコアです 00:10:36.040 --> 00:10:37.570 align:middle line:90% 笑顔になる広告です 00:10:37.570 --> 00:10:40.960 align:middle line:90% その広告を視聴したすべての人の 00:10:40.960 --> 00:10:43.660 align:middle line:90% その瞬間のスマイルカーブを見ることが出来て 00:10:43.660 --> 00:10:46.400 align:middle line:90% そこからデータを記録できます 00:10:46.400 --> 00:10:48.710 align:middle line:90% この特定の広告で本当に面白いのは 00:10:48.710 --> 00:10:51.410 align:middle line:90% 初めて視聴する人と比較したものが 00:10:51.410 --> 00:10:53.300 align:middle line:90% この緑のラインです 00:10:53.300 --> 00:10:55.130 align:middle line:90% 二回目に見た参加者のデータは 00:10:55.130 --> 00:10:57.050 align:middle line:90% 緑の点線です 00:10:57.050 --> 00:11:00.140 align:middle line:90% 参加者が広告を覚えていたのがわかります 00:11:00.140 --> 00:11:02.420 align:middle line:90% 面白い部分を事前に知っているので 00:11:02.420 --> 00:11:05.420 align:middle line:90% シーンが始まる前に既に笑っていたりします 00:11:05.420 --> 00:11:07.640 align:middle line:90% 望んだとおりの結果です 00:11:07.640 --> 00:11:09.920 align:middle line:90% さらに重要なのは視聴者を 00:11:09.920 --> 00:11:12.050 align:middle line:90% 感情的な旅に連れ出すことであり 00:11:12.050 --> 00:11:15.650 align:middle line:84% 動画の終わりのブランド名を表す時に ポジティブな 00:11:15.650 --> 00:11:16.700 align:middle line:90% 反応を起こすことです 00:11:16.700 --> 00:11:19.280 align:middle line:90% 前述したように 私達の研究から 00:11:19.280 --> 00:11:22.990 align:middle line:84% これらの様々なメトリックが ポジティブであることは把握しています 00:11:22.990 --> 00:11:25.020 align:middle line:90% 私はこの特定の例が大好きです 00:11:25.020 --> 00:11:29.130 align:middle line:90% コカ・コーラやユニリーバなどのブランドの例は 00:11:29.130 --> 00:11:32.820 align:middle line:90% 技術を使ってオンライン動画広告を押すことで 00:11:32.820 --> 00:11:36.720 align:middle line:90% もっと包括的で進歩的な広告にします 00:11:36.720 --> 00:11:39.780 align:middle line:90% しかし よく考慮して慎重に行う必要があります 00:11:39.780 --> 00:11:42.750 align:middle line:90% 彼らはそれらの広告に対する潜在意識で直感的な 00:11:42.750 --> 00:11:45.830 align:middle line:90% 反応を捉えることが出来ます 00:11:45.830 --> 00:11:48.800 align:middle line:90% これらのブランドと協力して 00:11:48.800 --> 00:11:51.650 align:middle line:90% 感情の反応を実際の消費者の 00:11:51.650 --> 00:11:54.860 align:middle line:90% 行動と相関することで知ったのは 00:11:54.860 --> 00:11:58.460 align:middle line:90% これらの感情の旅やポジティブで感情的な反応は 00:11:58.460 --> 00:12:00.620 align:middle line:90% 営業実績の向上や 00:12:00.620 --> 00:12:03.800 align:middle line:90% 購入する意思 そしてバイタリティーと相関します 00:12:06.790 --> 00:12:09.910 align:middle line:90% 私達は世界中で5万の広告をテストしてきて 00:12:09.910 --> 00:12:12.280 align:middle line:90% ベンチマークも作成できました 00:12:12.280 --> 00:12:14.680 align:middle line:90% 例えば 米国では 00:12:14.680 --> 00:12:19.070 align:middle line:84% ペットや赤ちゃんのケアに関する広告が 最も喜びの感情を引き出します 00:12:19.070 --> 00:12:22.400 align:middle line:84% 興味深いことに カナダで一番喜びを引き起こすのは 00:12:22.400 --> 00:12:24.980 align:middle line:90% シリアルの広告です 00:12:24.980 --> 00:12:28.950 align:middle line:90% 残念なことにテレコムの広告は喜びの感情を 00:12:28.950 --> 00:12:29.450 align:middle line:90% 引き起こすことはありません 00:12:29.450 --> 00:12:32.010 align:middle line:90% かなりつまらないです 00:12:32.010 --> 00:12:34.470 align:middle line:90% だから このデータは洞察に満ちており 00:12:34.470 --> 00:12:36.510 align:middle line:90% ブランドやマーケターに 00:12:36.510 --> 00:12:39.120 align:middle line:90% 新しい知識を提供するため 00:12:39.120 --> 00:12:41.400 align:middle line:90% メディアに関する決断の手助けや 00:12:41.400 --> 00:12:44.510 align:middle line:84% 広告コンテンツをどうやって 最適化できるのかを把握できます 00:12:44.510 --> 00:12:46.140 align:middle line:90% これは広告だけではありません 00:12:46.140 --> 00:12:50.803 align:middle line:84% 皆さんはテレビ番組でも 似たようなデータを生成できます 00:12:50.803 --> 00:12:52.470 align:middle line:90% これは私のお気に入りの例の一つです 00:12:52.470 --> 00:12:56.430 align:middle line:84% これはしばらく前に CBSのためにテストしたシットコムです 00:12:56.430 --> 00:12:58.260 align:middle line:90% Friends With Better Livesという番組です 00:12:58.260 --> 00:12:59.610 align:middle line:90% 放映期間は長くありませんでした 00:12:59.610 --> 00:13:01.120 align:middle line:90% あまり人気はありませんでした 00:13:01.120 --> 00:13:03.810 align:middle line:90% ここでまたスマイルカーブがあります 00:13:03.810 --> 00:13:06.690 align:middle line:90% そのシーンの登場人物をカーブに 00:13:06.690 --> 00:13:08.850 align:middle line:90% スーパーインポーズします 00:13:08.850 --> 00:13:11.490 align:middle line:90% ご覧のように 二人の特定の登場人物がいます 00:13:11.490 --> 00:13:14.770 align:middle line:90% この二人の人物はまったく面白くありません 00:13:14.770 --> 00:13:19.120 align:middle line:90% この二人はスマイルカーブのくぼみです 00:13:19.120 --> 00:13:21.210 align:middle line:90% とても面白いデータであり 00:13:21.210 --> 00:13:23.730 align:middle line:90% プロデューサーはこれを使って 00:13:23.730 --> 00:13:27.780 align:middle line:90% これらの登場人物を交換しました 00:13:27.780 --> 00:13:32.240 align:middle line:90% 人々の感情的な関りを 00:13:32.240 --> 00:13:33.840 align:middle line:90% 把握することで行動を変えて 00:13:33.840 --> 00:13:36.240 align:middle line:84% つまらないコンテンツを 視聴者が時間をつぎ込む 00:13:36.240 --> 00:13:37.830 align:middle line:90% エリアにうつしていきます 00:13:37.830 --> 00:13:41.430 align:middle line:90% これは移動性と輸送の未来です 00:13:41.430 --> 00:13:43.320 align:middle line:90% このスペースで作業を始めたころ 00:13:43.320 --> 00:13:45.780 align:middle line:90% 世界中のいくつかの自動車メーカーから 00:13:45.780 --> 00:13:49.710 align:middle line:84% アプローチされて これらのメーカーは 自動車のための感情感知技術を 00:13:49.710 --> 00:13:51.780 align:middle line:90% 作り変えるのが目的でした 00:13:51.780 --> 00:13:54.360 align:middle line:90% それを行うために私達が見たいのは 00:13:54.360 --> 00:13:57.640 align:middle line:90% 車内の人々 特に運転手の行動です 00:13:57.640 --> 00:14:00.330 align:middle line:90% だから 私達はデータを集めることになりました 00:14:00.330 --> 00:14:03.683 align:middle line:90% 社内のほとんどの人は懐疑的であり 00:14:03.683 --> 00:14:05.100 align:middle line:90% 人々はダッシュボードにカメラがあるのを 00:14:05.100 --> 00:14:06.725 align:middle line:90% 参加者は知っていたため 00:14:06.725 --> 00:14:09.990 align:middle line:90% 興味深い感情または認識反応は 00:14:09.990 --> 00:14:12.210 align:middle line:90% 恐らくないだろうというのが社員の見込みでした 00:14:12.210 --> 00:14:13.060 align:middle line:90% しかし 結果は違いました 00:14:13.060 --> 00:14:16.920 align:middle line:90% 動画クリップの一部の例をお見せしましょう 00:14:16.920 --> 00:14:19.920 align:middle line:90% 人々は取り付ける際に 00:14:19.920 --> 00:14:22.320 align:middle line:90% 社内にカメラがあることを知っていました 00:14:22.320 --> 00:14:27.090 align:middle line:84% 彼らはそのことを理解した上で同意し その後の運転行動は 00:14:27.090 --> 00:14:28.030 align:middle line:90% とても興味深いものでした 00:14:28.030 --> 00:14:32.610 align:middle line:90% この特定のケースで この父親は運転しています 00:14:32.610 --> 00:14:33.920 align:middle line:90% 彼は非常に眠そうです 00:14:33.920 --> 00:14:35.700 align:middle line:90% 眠気にはレベルが4つあります 00:14:35.700 --> 00:14:38.370 align:middle line:90% 彼は基本的に寝ています 00:14:38.370 --> 00:14:40.170 align:middle line:90% 幼児である娘は 00:14:40.170 --> 00:14:41.460 align:middle line:90% 後部座席に乗っています 00:14:41.460 --> 00:14:45.330 align:middle line:90% 非常に危険な運転です 00:14:45.330 --> 00:14:48.480 align:middle line:90% 共感できる状況です 00:14:48.480 --> 00:14:52.200 align:middle line:90% 私も過去に数回 実際に 00:14:52.200 --> 00:14:56.190 align:middle line:84% 長旅で時差ボケした状態で 帰る時に疲労状態で子供を乗せて 00:14:56.190 --> 00:14:57.870 align:middle line:90% 車を運転したことはあります 00:14:57.870 --> 00:14:59.940 align:middle line:90% だから 共感は出来ます 00:14:59.940 --> 00:15:03.597 align:middle line:90% しかし これは技術が選ぶことが出来る簡単な例です 00:15:03.597 --> 00:15:05.430 align:middle line:90% この技術は 00:15:05.430 --> 00:15:08.745 align:middle line:90% 閉じた目 開いた口など 眠気の度合いを示す 00:15:08.745 --> 00:15:10.650 align:middle line:90% 表情を検知出来ました 00:15:10.650 --> 00:15:14.200 align:middle line:84% この場合に車が介入する方法は 想像できると思います 00:15:14.200 --> 00:15:15.730 align:middle line:90% 例はもう一つあります 00:15:15.730 --> 00:15:17.880 align:middle line:90% 彼女は運転しています 00:15:17.880 --> 00:15:21.960 align:middle line:84% テキストメッセージをしながらなので 気は散っています 00:15:21.960 --> 00:15:24.510 align:middle line:90% しかし 彼女の手には携帯が二つあります 00:15:24.510 --> 00:15:27.330 align:middle line:90% 注意散漫ですね 00:15:27.330 --> 00:15:28.680 align:middle line:90% 目が道路を見ていません 00:15:28.680 --> 00:15:30.780 align:middle line:90% 手もハンドルに触れていません 00:15:30.780 --> 00:15:33.960 align:middle line:90% この女性の隣で運転したくありませんね 00:15:33.960 --> 00:15:37.080 align:middle line:90% この技術は彼女の行動を一瞥するだけで 00:15:37.080 --> 00:15:38.860 align:middle line:90% 状況を把握できます 00:15:38.860 --> 00:15:41.670 align:middle line:90% 彼女の頭の姿勢などの情報を物理検知などと 00:15:41.670 --> 00:15:43.270 align:middle line:90% 組み合わせて状況を判断します 00:15:43.270 --> 00:15:45.810 align:middle line:84% だから 彼女の手には一つだけでなく 二つの携帯があると 00:15:45.810 --> 00:15:47.070 align:middle line:90% 検知出来ます 00:15:47.070 --> 00:15:50.160 align:middle line:90% これは注意力が散漫している運転手としてフラグできます 00:15:50.160 --> 00:15:52.800 align:middle line:90% 前のケースと同じように車は介入できます 00:15:52.800 --> 00:15:55.740 align:middle line:90% これがテスラなら 00:15:55.740 --> 00:15:58.710 align:middle line:90% セミ自動モードに切り替えられます 00:15:58.710 --> 00:16:00.360 align:middle line:90% 車は ちょっと待って 00:16:00.360 --> 00:16:02.610 align:middle line:90% 今この瞬間はオート運転の方が安全だ 00:16:02.610 --> 00:16:06.030 align:middle line:90% 私が代わりに運転しましょうと判断できます 00:16:06.030 --> 00:16:08.670 align:middle line:90% MITの最先端車技術グループと 00:16:08.670 --> 00:16:11.970 align:middle line:90% たくさんの共同研究を行い 00:16:11.970 --> 00:16:15.900 align:middle line:90% 長期間における運転手の行動を観察する 00:16:15.900 --> 00:16:17.590 align:middle line:90% 初めての大規模な調査を行いました 00:16:17.590 --> 00:16:19.260 align:middle line:90% この特定のケースの場合 00:16:19.260 --> 00:16:22.030 align:middle line:90% 参加者ナンバー66を見て行きます 00:16:22.030 --> 00:16:23.450 align:middle line:90% 彼女は女性です 00:16:23.450 --> 00:16:24.930 align:middle line:90% 22才です 00:16:24.930 --> 00:16:28.950 align:middle line:84% 彼女の月曜日の運転行動は 月曜日の列とリンクしています 00:16:28.950 --> 00:16:31.860 align:middle line:84% 彼女のすべての火曜日の運転行動は 火曜日の列とリンクしています 00:16:31.860 --> 00:16:33.130 align:middle line:90% 残りも同様です 00:16:33.130 --> 00:16:37.470 align:middle line:90% 彼女は平日はとても疲れているのがわかります 00:16:37.470 --> 00:16:39.030 align:middle line:90% 一日の始まりは 00:16:39.030 --> 00:16:40.650 align:middle line:90% あくびが多いです 00:16:40.650 --> 00:16:44.020 align:middle line:90% 週末 そして一日の終わりは 00:16:44.020 --> 00:16:49.650 align:middle line:90% ポジティブな表情が増えています 00:16:49.650 --> 00:16:53.040 align:middle line:90% 一枚の絵は一千語に匹敵すると言います 00:16:53.040 --> 00:16:55.950 align:middle line:90% 動画はさらに多くを語ることでしょう 00:16:55.950 --> 00:17:02.220 align:middle line:90% 午後と午前の運転行動を比較した例を 00:17:02.220 --> 00:17:06.420 align:middle line:90% 見て行きましょう 00:17:06.420 --> 00:17:09.990 align:middle line:90% これらはすべてアルゴリズムを使って採掘しました 00:17:09.990 --> 00:17:12.930 align:middle line:90% あくびの分類子を基本的に適用して 00:17:12.930 --> 00:17:15.060 align:middle line:90% 彼女のすべての運転セッションにおける 00:17:15.060 --> 00:17:20.000 align:middle line:90% 彼女のすべてのあくびの行動を検知します 00:17:20.000 --> 00:17:23.618 align:middle line:90% 朝の彼女はよく疲れています 00:17:23.618 --> 00:17:25.887 align:middle line:90% これがよくあるパターンなら 00:17:25.887 --> 00:17:27.430 align:middle line:90% 車は既に 00:17:27.430 --> 00:17:30.340 align:middle line:90% 彼女が疲れていることを予期できます 00:17:30.340 --> 00:17:32.770 align:middle line:90% 彼女のプロフィールに基づいて車が 00:17:32.770 --> 00:17:37.690 align:middle line:84% 積極的に運転手に いろいろ提案できるかもしれません 00:17:37.690 --> 00:17:42.720 align:middle line:90% それを彼女の午後の運転行動と比較しましょう 00:17:42.720 --> 00:17:46.140 align:middle line:90% 彼女は午後の方が目が冴えてるのがわかります 00:17:46.140 --> 00:17:49.110 align:middle line:84% 彼女はもっとイキイキしていて 笑顔も多くポジティブな 00:17:49.110 --> 00:17:50.520 align:middle line:90% 表情も多いです 00:17:50.520 --> 00:17:54.300 align:middle line:90% 車が彼女の運転プロフィールを持っている場合 00:17:54.300 --> 00:17:56.940 align:middle line:90% 彼女の感情的な経験に基づいて 00:17:56.940 --> 00:18:02.170 align:middle line:84% 運転経験をカスタマイズして パーソナライズできます 00:18:02.170 --> 00:18:05.310 align:middle line:90% この輸送経験を新たに認識するために 00:18:05.310 --> 00:18:08.400 align:middle line:90% いくつかの車のメーカーと密接に協力しました 00:18:08.400 --> 00:18:10.260 align:middle line:90% 私達は運転手に焦点を当てられる 00:18:10.260 --> 00:18:13.890 align:middle line:90% 今日の車だけでなく 今後の将来の車は 00:18:13.890 --> 00:18:17.910 align:middle line:90% 運転手を見る現職の反応ソリューションだけでなく 00:18:17.910 --> 00:18:20.670 align:middle line:90% 車の他の搭乗者にも反応できるビジョンを 00:18:20.670 --> 00:18:21.510 align:middle line:90% 持っています 00:18:21.510 --> 00:18:23.820 align:middle line:90% 社内の他のものにも反応できるようにしたいと思います 00:18:23.820 --> 00:18:25.680 align:middle line:90% 車に子供が取り残されていないか? 00:18:25.680 --> 00:18:27.600 align:middle line:90% 携帯は置き忘れていないか? 00:18:27.600 --> 00:18:29.557 align:middle line:90% 社内の搭乗者の数は何か? 00:18:29.557 --> 00:18:30.390 align:middle line:90% 状況は何か? 00:18:30.390 --> 00:18:34.300 align:middle line:90% 音楽 コンテンツや照明などは 00:18:34.300 --> 00:18:37.260 align:middle line:90% パーソナライズできるか? 00:18:37.260 --> 00:18:39.110 align:middle line:90% 当然 世界的なパンデミックの中 00:18:39.110 --> 00:18:40.610 align:middle line:90% 私達の多くは 00:18:40.610 --> 00:18:43.310 align:middle line:90% 車内で過ごすことが減ったと思います 00:18:43.310 --> 00:18:47.870 align:middle line:90% 実際に私達の多くはバーチャルイベントや 00:18:47.870 --> 00:18:52.250 align:middle line:84% 動画カンファレンスに 時間を費やすことが多くなっています 00:18:52.250 --> 00:18:55.700 align:middle line:90% テクノロジーを通して人とつながるのは困難です 00:18:55.700 --> 00:19:00.140 align:middle line:84% これはコミュニケーションの主な方法が 非言語だからというのが 00:19:00.140 --> 00:19:01.430 align:middle line:90% その理由です 00:19:01.430 --> 00:19:05.070 align:middle line:90% 時々 これらのバーチャルコンファレンスや 00:19:05.070 --> 00:19:09.140 align:middle line:90% バーチャルイベントや動画イベントで 00:19:09.140 --> 00:19:13.310 align:middle line:90% 皆さんは視聴者の表情とエナジーを 00:19:13.310 --> 00:19:14.000 align:middle line:90% 活かすことが出来ていません 00:19:14.000 --> 00:19:16.220 align:middle line:90% 私はそれを実感しています 00:19:16.220 --> 00:19:19.220 align:middle line:84% 前述したように 私は「Girl Decoded」 という本を出版しました 00:19:19.220 --> 00:19:21.890 align:middle line:90% 本のツアーで3月~5月の間ノンストップで 00:19:21.890 --> 00:19:24.650 align:middle line:90% 旅を続ける予定だったのですが 00:19:24.650 --> 00:19:28.220 align:middle line:84% すべてのバーチャルブックツアーと バーチャルブックトークの予定を 00:19:28.220 --> 00:19:28.910 align:middle line:90% 変更する必要がありました 00:19:28.910 --> 00:19:32.840 align:middle line:90% ライブ環境では視聴者を観察できるので 00:19:32.840 --> 00:19:34.370 align:middle line:90% 全然違います 00:19:34.370 --> 00:19:36.710 align:middle line:84% 視聴者全員を見て その反応に合わせて行動できます 00:19:36.710 --> 00:19:38.870 align:middle line:90% カスタマイズおよびパーソナライズして 00:19:38.870 --> 00:19:43.010 align:middle line:84% 皆さんの私とのインタラクションに基づいて 内容を調整できます 00:19:43.010 --> 00:19:46.190 align:middle line:84% バーチャルで行う場合 会話は一方通行であることが多く 00:19:46.190 --> 00:19:49.010 align:middle line:84% 少なくても 私にとっては 一方通行のように感じます 00:19:49.010 --> 00:19:51.750 align:middle line:90% これは痛々しくて不安な状況です 00:19:51.750 --> 00:19:55.820 align:middle line:90% それを変えられる機会はあると思います 00:19:55.820 --> 00:19:59.390 align:middle line:90% 感情AIを統合して 00:19:59.390 --> 00:20:02.300 align:middle line:90% 視聴者の反応を集積して 00:20:02.300 --> 00:20:05.360 align:middle line:84% 顔の表情を匿名で 捉えることができたらどうでしょう? 00:20:05.360 --> 00:20:08.070 align:middle line:90% 全員の顔を見る必要がありません 00:20:08.070 --> 00:20:11.120 align:middle line:90% 実際に 私がお見せしているように圧倒されます 00:20:11.120 --> 00:20:14.510 align:middle line:90% その瞬間ごとの皆さんのポジティブまたは 00:20:14.510 --> 00:20:17.042 align:middle line:90% ネガティブな表情を確認できれば 00:20:17.042 --> 00:20:18.500 align:middle line:90% あるいはコンテンツに興味を持っているかわかれば 00:20:18.500 --> 00:20:20.420 align:middle line:90% それはとても強力な情報になり 00:20:20.420 --> 00:20:22.670 align:middle line:90% それに合わせて内容をカスタマイズし 00:20:22.670 --> 00:20:27.030 align:middle line:90% 視聴者がどれだけ関わっているか把握できます 00:20:27.030 --> 00:20:28.900 align:middle line:90% 一つの例を紹介しましょう 00:20:28.900 --> 00:20:31.390 align:middle line:90% チームの反応を記録したZoomを通した 00:20:31.390 --> 00:20:34.240 align:middle line:90% 社内チーム会議です 00:20:34.240 --> 00:20:37.360 align:middle line:90% ここで集積した反応を見ることが出来ます 00:20:37.360 --> 00:20:40.180 align:middle line:90% 当然 データを可視化する方法は様々ですが 00:20:40.180 --> 00:20:42.070 align:middle line:90% 全員を追跡して 00:20:42.070 --> 00:20:44.405 align:middle line:90% 人の笑顔と反応を集積出来ます 00:20:44.405 --> 00:20:46.030 align:middle line:90% ちょうどその話をしていたところです 00:20:46.030 --> 00:20:49.960 align:middle line:84% これはパンデミックが始まった 3月の初めの出来事でした 00:20:49.960 --> 00:20:51.970 align:middle line:90% これからどうなるのか そして 00:20:51.970 --> 00:20:54.287 align:middle line:90% 在宅ワークについて話しましょう 00:20:54.287 --> 00:20:55.870 align:middle line:90% 人々はストーリーを共有していました 00:20:55.870 --> 00:20:58.190 align:middle line:90% 多くの人は共感して 笑顔をかわしていました 00:20:58.190 --> 00:21:00.190 align:middle line:90% 私達はそれを追跡できます 00:21:00.190 --> 00:21:02.890 align:middle line:90% それを本当に平坦でつまらない会議 00:21:02.890 --> 00:21:04.600 align:middle line:90% 誰も乗り気ではない会議と比較しましょう 00:21:04.600 --> 00:21:06.230 align:middle line:90% 違いは明らかです 00:21:06.230 --> 00:21:09.790 align:middle line:84% リアルタイムのエンゲージメントで そのデータを測定できます 00:21:09.790 --> 00:21:16.050 align:middle line:90% ポストアナリティクスでも測定できます 00:21:16.050 --> 00:21:18.800 align:middle line:90% 同様に オンラインの学習環境で 00:21:18.800 --> 00:21:21.650 align:middle line:90% 実際に教室で教える時と同様に 教師が 00:21:21.650 --> 00:21:24.920 align:middle line:90% その生徒の感情的な関りを 00:21:24.920 --> 00:21:26.150 align:middle line:90% 測定出来たらどうでしょうか? 00:21:26.150 --> 00:21:28.070 align:middle line:90% 優秀な教師はそうしますよね? 00:21:28.070 --> 00:21:30.710 align:middle line:90% 生徒の反応に基づいて 00:21:30.710 --> 00:21:33.710 align:middle line:90% 学習経験をパーソナライズします 00:21:33.710 --> 00:21:37.620 align:middle line:90% 学習成果も最大化します 00:21:37.620 --> 00:21:41.390 align:middle line:90% 同様に 心の健康にも適用できます 00:21:41.390 --> 00:21:44.090 align:middle line:90% 今日 医院を訪問しても 00:21:44.090 --> 00:21:46.403 align:middle line:90% 体温を聞かれたり 00:21:46.403 --> 00:21:48.320 align:middle line:90% 血圧を聞かれたりしません 00:21:48.320 --> 00:21:49.970 align:middle line:90% 代わりにその場で測定します 00:21:49.970 --> 00:21:51.890 align:middle line:90% それと同様に 医師も客観的に 00:21:51.890 --> 00:21:53.930 align:middle line:90% 他の生活反応と同じように 00:21:53.930 --> 00:21:56.090 align:middle line:90% 患者の心の具合を測定できたらどうでしょうか? 00:21:56.090 --> 00:21:58.430 align:middle line:90% 残念なことに 心の健康の金本位制は 00:21:58.430 --> 00:22:01.230 align:middle line:90% まだ1~10のうつ度合いスケールで 00:22:01.230 --> 00:22:02.840 align:middle line:90% 評価されます 00:22:02.840 --> 00:22:04.160 align:middle line:90% 患者はどれだけ自暴自棄か? 00:22:04.160 --> 00:22:05.810 align:middle line:90% 患者の痛みの度合いは? 00:22:05.810 --> 00:22:08.780 align:middle line:90% 感情AIを適用することで 00:22:08.780 --> 00:22:12.620 align:middle line:90% 心の健康の度合いを客観的に 00:22:12.620 --> 00:22:15.190 align:middle line:90% 測定できます 00:22:15.190 --> 00:22:17.760 align:middle line:90% これは私にとって思い入れのあるトピックであり 00:22:17.760 --> 00:22:21.010 align:middle line:84% 私が一番最初に 感情AIを適用してみたトピックでもあります 00:22:21.010 --> 00:22:22.300 align:middle line:90% 自閉症です 00:22:22.300 --> 00:22:24.760 align:middle line:90% 自閉症スペクトラム障害の人は 00:22:24.760 --> 00:22:28.780 align:middle line:84% 非言語コミュニケーションを読み取ったり 理解するのが困難です 00:22:28.780 --> 00:22:32.620 align:middle line:90% 自閉症の人は特に顔の表情に圧倒されます 00:22:32.620 --> 00:22:34.300 align:middle line:84% 完全に表情を読もうとすることを 避ける人もいます 00:22:34.300 --> 00:22:37.390 align:middle line:84% こういう人は顔を見たり 目を合わせようとしたりしません 00:22:37.390 --> 00:22:40.690 align:middle line:90% 私達のパートナーはBrain Powerという会社です 00:22:40.690 --> 00:22:45.910 align:middle line:90% 彼らはGoogle Glassと私達の技術を使って 00:22:45.910 --> 00:22:49.180 align:middle line:84% ゲームを通した楽しい方法で 自閉症スペクトラム障害の人が 00:22:49.180 --> 00:22:51.550 align:middle line:84% 非言語コミュニケーションを 理解する手助けをします 00:22:51.550 --> 00:22:56.200 align:middle line:90% それをお見せするために短い動画を紹介しましょう 00:22:56.200 --> 00:22:57.850 align:middle line:90% 画面上に何が見えますか? 00:22:57.850 --> 00:22:59.090 align:middle line:90% 母親です 00:22:59.090 --> 00:23:02.128 align:middle line:90% 8才のマシュー・クリーガーは自閉症です 00:23:02.128 --> 00:23:04.170 align:middle line:90% 彼がその他の子供と接する中で問題になるのは 00:23:04.170 --> 00:23:05.820 align:middle line:90% 彼が自分の言葉が面白いと思い込む点です 00:23:05.820 --> 00:23:07.950 align:middle line:90% 周囲の子供が面白いと思わなくても 00:23:07.950 --> 00:23:10.020 align:middle line:84% あるいは彼の言葉に嫌気がさしたり 怒ったりしても彼は気づきません 00:23:10.020 --> 00:23:11.550 align:middle line:90% マシューの母親であるローラは 00:23:11.550 --> 00:23:15.570 align:middle line:84% ネッド・サヒンによって実施された 臨床治験に子供を参加させました 00:23:15.570 --> 00:23:20.010 align:middle line:90% 私は自閉症の人の脳内を 00:23:20.010 --> 00:23:21.270 align:middle line:90% 知りたいと思いました 00:23:21.270 --> 00:23:24.600 align:middle line:90% 親も自閉症の子供の脳内を知りたいと思います 00:23:24.600 --> 00:23:26.700 align:middle line:90% 少しの間眺めるとポイントを獲得できて 00:23:26.700 --> 00:23:29.660 align:middle line:90% 目を逸らしても 目を戻せばポイントをもらえます 00:23:29.660 --> 00:23:32.910 align:middle line:84% サヒンの会社であるBrain Powerは Affectivaのソフトウェアを使います 00:23:32.910 --> 00:23:35.940 align:middle line:84% これはマシューがGoogle Glassを通して見た プログラムにも適用されます 00:23:35.940 --> 00:23:37.950 align:middle line:90% これらのゲームを通して 00:23:37.950 --> 00:23:40.860 align:middle line:90% マシューが表情を理解して 感情に反応して 00:23:40.860 --> 00:23:42.840 align:middle line:90% ソーシャルキューを学べるようにします 00:23:42.840 --> 00:23:45.300 align:middle line:90% 重要な生活技能の一つは 00:23:45.300 --> 00:23:47.000 align:middle line:90% 他者の感情を理解する能力です 00:23:47.000 --> 00:23:50.190 align:middle line:90% もう一つ重要なのは話している相手の 00:23:50.190 --> 00:23:51.510 align:middle line:90% 方向を向くことです 00:23:51.510 --> 00:23:54.750 align:middle line:90% 母親と向き合うときに緑色になってポイントを 00:23:54.750 --> 00:23:58.020 align:middle line:90% 得られますが オレンジや赤色になると 00:23:58.020 --> 00:24:00.660 align:middle line:90% 得られるポイントは少なくなります 00:24:00.660 --> 00:24:01.698 align:middle line:90% 私はあなたを見ています 00:24:01.698 --> 00:24:02.490 align:middle line:90% あなたも私を見ています 00:24:02.490 --> 00:24:05.250 align:middle line:90% たった数分後に マシューの視線の違いに 00:24:05.250 --> 00:24:06.780 align:middle line:90% 母親は感情的になりました 00:24:06.780 --> 00:24:09.200 align:middle line:90% 私も泣き出しそうです 00:24:09.200 --> 00:24:09.700 align:middle line:90% それはなぜか? 00:24:13.540 --> 00:24:19.340 align:middle line:90% それはあなたが私を見た時に 00:24:19.340 --> 00:24:22.020 align:middle line:84% あなたが今までちゃんと 私を見ていなかったことに気づくからです 00:24:22.020 --> 00:24:25.230 align:middle line:90% 今までと見方がまったく違うからです 00:24:25.230 --> 00:24:29.260 align:middle line:90% Brain Powerは約400のGoogle Glassシステムを 00:24:29.260 --> 00:24:33.400 align:middle line:90% 米国全国の家族に提供してきました 00:24:33.400 --> 00:24:35.650 align:middle line:90% その家族が主に見つけたい答えに関しては 00:24:35.650 --> 00:24:38.290 align:middle line:90% 子供の社会と非言語理解に関しては 00:24:38.290 --> 00:24:41.763 align:middle line:90% 眼鏡をつけているときに 00:24:41.763 --> 00:24:43.180 align:middle line:90% 既に向上が見られています 00:24:43.180 --> 00:24:47.410 align:middle line:84% ここで重要な疑問は 眼鏡をはずした時にどうなるかです 00:24:47.410 --> 00:24:50.580 align:middle line:90% この学習は一般化できるか? 00:24:50.580 --> 00:24:53.592 align:middle line:90% この技術を心の健康に適用できる 00:24:53.592 --> 00:24:54.300 align:middle line:90% 他の方法もあります 00:24:54.300 --> 00:24:58.050 align:middle line:90% 例えば パーキンソン病の早期発見のためのシステムです 00:24:58.050 --> 00:25:02.070 align:middle line:84% エリン・スミスは今 スタンフォード大学で勉強している学生です 00:25:02.070 --> 00:25:05.370 align:middle line:90% 昔 彼女が中学生だったときに 00:25:05.370 --> 00:25:08.550 align:middle line:90% 彼女は私達が作ったドキュメンタリーである 00:25:08.550 --> 00:25:12.240 align:middle line:90% 「パーキンソン病と私」を見て その技術を 00:25:12.240 --> 00:25:14.320 align:middle line:90% 使いたいとEメールで伝えてくれました 00:25:14.320 --> 00:25:15.450 align:middle line:90% その費用を聞かれました 00:25:15.450 --> 00:25:20.187 align:middle line:84% 私達の営業のリーダーに 「彼女に何て言えばいい?」と聞かれました 00:25:20.187 --> 00:25:21.520 align:middle line:90% 中学生には到底買えません 00:25:21.520 --> 00:25:24.390 align:middle line:90% 私は無料で提供するように指示しました 00:25:24.390 --> 00:25:26.250 align:middle line:90% 彼女がそれを濫用することはないのだから 00:25:26.250 --> 00:25:29.808 align:middle line:90% 数か月の後に再びエリンから連絡がありました 00:25:29.808 --> 00:25:31.350 align:middle line:90% 彼女はマイケル・J・フォックス 00:25:31.350 --> 00:25:36.120 align:middle line:84% パーキンソン病リサーチ財団と協力して パーキンソン病の 00:25:36.120 --> 00:25:38.250 align:middle line:90% 顔のバイオマーカーを識別するシステムを作りました 00:25:38.250 --> 00:25:40.590 align:middle line:90% 彼女は研究を続けてきました 00:25:40.590 --> 00:25:43.060 align:middle line:90% とても荘厳な女性です 00:25:43.060 --> 00:25:45.090 align:middle line:90% 私達が彼女の戦いの一部を支持する 00:25:45.090 --> 00:25:47.190 align:middle line:90% 役割を担えることを誇りに思っています 00:25:47.190 --> 00:25:50.490 align:middle line:90% うつ病の顔と声のバイオマーカーが存在することは 00:25:50.490 --> 00:25:51.780 align:middle line:90% 知っています 00:25:51.780 --> 00:25:56.040 align:middle line:84% それらの信号に基づいて 自殺願望のある患者をフラグするために 00:25:56.040 --> 00:25:57.630 align:middle line:90% 多くの研究がおこなわれています 00:25:57.630 --> 00:26:00.570 align:middle line:90% 私達はスティーブン・ベノアなどの博士とも 00:26:00.570 --> 00:26:05.960 align:middle line:90% 協力しています 00:26:05.960 --> 00:26:08.260 align:middle line:90% これで重要な疑問が出てきます 00:26:08.260 --> 00:26:10.410 align:middle line:90% この技術の適用方法は多いですが 00:26:10.410 --> 00:26:13.320 align:middle line:90% その技術の適用範囲はどうなってるのか? 00:26:13.320 --> 00:26:16.470 align:middle line:90% 私はAIを展開する際の倫理展開という 00:26:16.470 --> 00:26:20.460 align:middle line:90% 概念にとても強い思い入れがあります 00:26:20.460 --> 00:26:24.990 align:middle line:90% それは潜在的に役立つことを 00:26:24.990 --> 00:26:27.630 align:middle line:90% ただ認識するだけでなく 00:26:27.630 --> 00:26:29.940 align:middle line:90% どうやって濫用される可能性あるのか 00:26:29.940 --> 00:26:33.560 align:middle line:84% またはその技術の意図しない結果を 認めることも重要です 00:26:33.560 --> 00:26:35.310 align:middle line:90% 数年前 会社のために 00:26:35.310 --> 00:26:37.380 align:middle line:90% 資金繰りする際に私達は 00:26:37.380 --> 00:26:41.670 align:middle line:84% 大金を払いたいというエージェンシーに アプローチされました 00:26:41.670 --> 00:26:44.700 align:middle line:90% 当時のお金で4000万ドルで小さなスタートアップの 00:26:44.700 --> 00:26:47.150 align:middle line:90% 会社にとって大金でした 00:26:47.150 --> 00:26:49.680 align:middle line:90% その代わりに彼らは私達の技術を 00:26:49.680 --> 00:26:52.500 align:middle line:90% 嘘発見と監視に使いたいと言いました 00:26:52.500 --> 00:26:54.690 align:middle line:84% それは私達の人々のプライバシーと 同意を尊重するという 00:26:54.690 --> 00:26:58.020 align:middle line:90% コアな価値と一致する内容ではありませんでした 00:26:58.020 --> 00:27:02.020 align:middle line:90% ユーザーにとってデータはとても個人的なものだと 00:27:02.020 --> 00:27:03.730 align:middle line:90% 私達は認識しています 00:27:03.730 --> 00:27:05.940 align:middle line:90% 私達がそれを共有するなら 00:27:05.940 --> 00:27:07.890 align:middle line:90% 誰が使っているのか把握する必要があります 00:27:07.890 --> 00:27:12.370 align:middle line:84% どうやって使われているのか どんな利益があるのか理解する必要があります 00:27:12.370 --> 00:27:14.040 align:middle line:84% 私達はそのパワーの不均整について 十分に時間をかけて 00:27:14.040 --> 00:27:15.780 align:middle line:90% 考慮しました 00:27:15.780 --> 00:27:17.580 align:middle line:90% 私達はこのデータを共有する代わりに 00:27:17.580 --> 00:27:20.307 align:middle line:90% どんな価値を得ているのか? 00:27:20.307 --> 00:27:22.390 align:middle line:90% これに関して本当に素晴らしいのは 00:27:22.390 --> 00:27:25.440 align:middle line:84% 業界がこれらのベストプラクティスと ガイドラインを 00:27:25.440 --> 00:27:26.820 align:middle line:90% リードしている点です 00:27:26.820 --> 00:27:30.600 align:middle line:84% 私達はAIのパートナーシップと 呼ばれる組合の一部です 00:27:30.600 --> 00:27:32.460 align:middle line:90% これは技術系最大手企業によって創始され 00:27:32.460 --> 00:27:35.430 align:middle line:84% これはAmazon Google Facebook Microsoftを含みます 00:27:35.430 --> 00:27:39.120 align:middle line:90% Affectivaなどのいくつかのスタートアップを 00:27:39.120 --> 00:27:40.440 align:middle line:90% 招待してきました 00:27:40.440 --> 00:27:44.880 align:middle line:84% ACLUやアムネスティ・インターナショナルなどの その他のステークホルダーも含みます 00:27:44.880 --> 00:27:47.760 align:middle line:90% 私もFATE委員会の一員であり 00:27:47.760 --> 00:27:51.090 align:middle line:84% これはFATEと呼ばれ 公平性(Fairness) 説明責任(Accountability) 透明性(Transparency) 倫理(Ethics)の略称です 00:27:51.090 --> 00:27:55.290 align:middle line:90% 慎重な規制のためのガイドラインを見つけることが 00:27:55.290 --> 00:27:57.227 align:middle line:90% 私達の課題です 00:27:57.227 --> 00:27:59.310 align:middle line:90% 規制は必要ですが 慎重に行う必要があります 00:27:59.310 --> 00:28:02.100 align:middle line:90% 革新を完全につぶしたくはありませんが 00:28:02.100 --> 00:28:03.600 align:middle line:90% 同時に私達は 00:28:03.600 --> 00:28:06.030 align:middle line:90% 適用範囲を慎重に考慮する必要があります 00:28:06.030 --> 00:28:11.910 align:middle line:90% 慎重な規制が何なのか理解する必要があります 00:28:11.910 --> 00:28:14.240 align:middle line:90% 結局 私達の目標は 00:28:14.240 --> 00:28:17.570 align:middle line:84% テクノロジーに人間性を奪われる前に 技術を人間化することです 00:28:17.570 --> 00:28:21.080 align:middle line:90% ここで強調すべきは人間です 00:28:21.080 --> 00:28:23.200 align:middle line:90% 人工的なものではありません 00:28:23.200 --> 00:28:27.290 align:middle line:90% 最後にまとめとして この動画で感情認識AIや 00:28:27.290 --> 00:28:29.750 align:middle line:90% その適用法と意味合いについて 00:28:29.750 --> 00:28:34.280 align:middle line:90% 興味を持って頂けたなら 署名付きの本を 00:28:34.280 --> 00:28:37.520 align:middle line:84% 私のLinkedIn Facebook Twitter Instagramなどの ソーシャルメディアに 00:28:37.520 --> 00:28:41.350 align:middle line:84% #LIVEWORXと#GIRLDECODEDの ハッシュタグ付きで 00:28:41.350 --> 00:28:45.860 align:middle line:84% このプレゼンに関するコメントまたは 質問を投稿した先着三名に 00:28:45.860 --> 00:28:47.970 align:middle line:90% プレゼントしたいと思います 00:28:47.970 --> 00:28:50.970 align:middle line:90% ご視聴ありがとうございました 00:28:50.970 --> 00:28:52.470 align:middle line:90% [LIVEWORXのテーマ] 00:28:52.470 --> 00:28:54.500 align:middle line:84% 今日は来て頂いてありがとうございました エル・カリウビ博士 00:28:54.500 --> 00:28:56.690 align:middle line:90% 感動的なプレゼンテーションでしたね 00:28:56.690 --> 00:29:00.000 align:middle line:90% 今日の第三のセッションはこれで終わりです 00:29:00.000 --> 00:29:01.460 align:middle line:90% 次に正時に 00:29:01.460 --> 00:29:05.240 align:middle line:84% どうやって主なツールとして 会社がSAASに基づいたCAD PLMと 00:29:05.240 --> 00:29:07.550 align:middle line:90% 拡張現実感を使えるか会社から聞きます 00:29:07.550 --> 00:29:11.270 align:middle line:84% これは障害を生き残るだけでなく 新しい日常を受け取るためです 00:29:11.270 --> 00:29:13.160 align:middle line:90% 短い休憩の後にプレゼンを再開しましょう 00:29:13.160 --> 00:29:16.510 align:middle line:90% [LIVEWORXのテーマ]