セミナー 印刷
【 2 名 同 時 申 込 で 1 名 無 料 】 対 象 セ ミ ナ ー 【Live配信セミナー(Zoom使用)】 ※会社・自宅にいながら学習可能です※

【Live配信(リアルタイム配信)】 
多様な情報から人の感情、態度、個性を推定!
マルチモーダル社会的信号処理技術

~言語・音声・視線・姿勢・ジェスチャ・生体情報・・・etc.
言語・非言語マルチモーダル情報の統合的な処理技術~
【アーカイブ(見逃し)配信付き】

進展する機械学習・データマイニング・AI技術を活用し、
人から得られる音声・画像・言語情報や生体情報などの複数の情報を統合的に処理することで、
感性や個性といった人の内面をどこまで導き出せるのか!?
人の心に寄り添った製品やサービス開発をされる方にお勧めの一講です
日時 2021年3月24日(水)  10:30~16:30
会場 Live配信セミナー(リアルタイム配信) ※会社・自宅にいながら学習可能です※  
会場地図
受講料(税込)
各種割引特典
49,500円 ( E-Mail案内登録価格 46,970円 ) S&T会員登録について
定価:本体45,000円+税4,500円
E-Mail案内登録価格:本体42,700円+税4,270円
E-Mail案内登録なら、2名同時申込みで1名分無料 1名分無料適用条件
2名で49,500円 (2名ともE-Mail案内登録必須​/1名あたり定価半額の24,750円)
【テレワーク応援キャンペーン(1名受講)【Live配信/WEBセミナー受講限定】
 1名申込みの場合:受講料( 定価:35,200円/E-Mail案内登録価格 33,440円 )
  35,200円 ( E-Mail案内登録価格 33,440円 )
   定価:本体32,000円+税3,200円
   E-Mail案内登録価格:本体30,400円+税3,040円
 ※1名様でLive配信/WEBセミナーを受講する場合、上記特別価格になります。
 ※お申込みフォームで【テレワーク応援キャンペーン】を選択のうえお申込みください。
 ※他の割引は併用できません。
特典アーカイブ(見逃し)配信付き:
 視聴期間:終了翌日から7日間[3/25~3/31]
 ※アーカイブは原則として編集は行いません
配布資料・PDFテキスト(印刷可)のみ
※PDFテキストはマイページよりダウンロードいただきます。(開催の営業日2日前よりダウンロード可)
オンライン配信【ZoomによるLive配信】
  ・本セミナーはビデオ会議ツール「Zoom」を使ったライブ配信セミナーとなります。
   ・お申し込みの際は、接続確認用URL(https://zoom.us/test)にアクセスして
   接続できるか等ご確認下さい。 

  ・マイページの「セミナー資料ダウンロード/映像視聴ページ」で
   本セミナーの視聴用リンクをご案内しております。
  ・セミナー開催日時に、ログインしていただき、ご視聴ください。
  ・リアルタイムで講師へのご質問も可能です。

・開始時に視聴できないなどのお問い合わせが増えています。予めZoomのテスト確認を必ずお願いいたします。
 Zoomのテスト http://zoom.us/test
 音声に関するQ&A https://support.zoom.us/hc/ja/articles/115002262083
 Zoomのアプリの他、ブラウザによる視聴環境について
 https://support.zoom.us/hc/ja/articles/214629443-Zoom
・タブレットやスマートフォンでも視聴できます。
備考※資料付
※講義中の録音・撮影はご遠慮ください。
得られる知識
マルチモーダル情報処理の基礎,社会的信号処理の基礎,マルチモーダル機械学習の基礎,マルチモーダルインタラクション研究の最新の動向
 
受講対象
マルチモーダル情報の機械学習,非言語情報から内面状態を推定する技術,マルチモーダル対話ロボットなどの研究に興味のある,企業・アカデミックの研究者の皆様。
パターン認識,機械学習,マルチメディア処理(言語,音声,画像)の基礎の予備知識があるとより理解が深まりますが、予備知識がない場合でも問題ないようにセミナーの内容を構成しています
 

セミナー講師

北陸先端科学技術大学院大学 准教授 博士(工学) 岡田 将吾 氏
【専門】マルチモーダルインタラクション,社会的信号処理,機械学習  【Web】【講師紹介

セミナー趣旨

 マルチモーダル情報から人の内面状態を推定する社会的信号処理技術は会話ロボットを初めとする人工知能システムのための,インターフェイスを構築する上で重要であり,ユーザの態度推定に基づいて適応的に振る舞うロボットなど,人に寄り添う人工知能の実現に欠かせない.本講義では,コミュニケーション中に人が表出する言語・非言語マルチモーダル情報 (言語・音声・視線・姿勢・ジェスチャ・生体情報など)を統合的に処理することによって,その人の行動や感情,態度,個性といった内面状態を推定する技術に関して解説を行う.また会話ロボット・インタラクティブシステムへの応用に関する最新の研究動向を紹介する.

セミナー講演内容

1.マルチモーダル社会的信号処理の導入

2.マルチモーダル社会的信号処理のための理論 

 2.1 社会言語学の知見
 2.2 社会心理学の知見

3.社会的信号処理に用いるマルチモーダル情報処理のための基礎 
 3.1 音声情報処理
 3.2 画像情報処理
 3.3 言語情報処理
 3.4 生体情報,その他のセンサ情報処理

4.社会的信号処理のためのAI技術 
 4.1 機械学習
   1) 分類・回帰学習
   2) 時系列データの学習
   3) マルチモーダル情報の統合手法
   4) マルチモーダル機械学習
 4.2 データマイニング
   1) 時系列データからのパターン発見
   2) 時系列パターンのクラスタリング

5.社会的信号処理モデルの構築方法 
 5.1 データコーパスの収集   
 5.2 心理学の知見を利用した正解ラベルデータの作成方法
 5.3 入力モダリティの選定
 5.4 マルチモーダル特徴量の抽出
 5.5 マルチモーダル情報の機械学習・評価

6.社会的信号処理の応用実例 
 6.1 マルチメディアコンテンツ解析
 6.2 会話理解
 6.3 コミュニケーション・プレゼンテーション能力の推定
 6.4 行動情報に基づくストレス推定
 6.5 行動データに基づく認知症傾向の推定

7.社会的信号処理の知能ロボットへの応用 
 7.1 マルチモーダル会話ロボット
 7.2 ユーザの内的状態推定に基づくロボットの会話戦略
 7.3 ユーザの面接対話スキル判定機能を備えた就職面接訓練エージェントシステム

8.社会的信号処理・マルチモーダル情報処理の課題

 □質疑応答□

【キーワード】人工知能,機械学習,マルチモーダルインタラクション,マルチメディア,ヒューマンコンピュータインタラクション,Affective Computing ​