キャラクターとユーザーの間のコミュニケ―ションに興味を持つ方、身振り・手振りなど非言語情報を用いたコミュニケーションに興味を持つ方、リアルなキャラクターを生み出すことを目標にしているエンジニア、デザイナー双方に向けたセッションとなります。
言語、身振り・手振りなど、音律などを含めた総合的なキャラクターの会話を実現する方法の中核となる技術やテクニックを、エンジニアリングとデザインの立場から解説いたします。また、このテーマを研究するための実践的なツール、プラットフォーム、コラボレーションの可能性を含めてご紹介いたします。
セッションの内容
理化学研究所・革新知能統合研究センター(AIP)の人とAIのコミュニケーション(HAIC)チームは、人の人工知能が言語・身振りを通じたコミュニケーションのあり方を、実際にさまざまな実験を通して研究して来ました。「会話情報学」「会話エージェント技術」と呼ばれるこの分野のアカデミックな知見を、ゲーム開発の現場に橋渡しするために、理論と実験的実例(デモ)を通じてご紹介いたします。第一に会話の前提となるコモングラウンド(背景、状況)の構成です。これは会話がそもそも成り立つための社会的状況がいかなるものであるかを探求した結果です。グラフィックレコーディングから実際の人間の会話から抽出します。第二に会話エージェントを研究するためのプラットフォームです。様々なエージェントを迅速に作成できる環境があります。これは産業との共同研究にも活用できます。具体的には、FACS表現を中間表現として用いたデータフロー型の顔表情認識・合成システムをFACSvatarを紹介します。こちらは実際のゲーム開発にも直ちに応用にして頂けます。第三の知見は、非言語情報、音律・ゼスチャアと言った言語にならない情報によるコミュニケーションです。この情報を用いることで、より自然な人工知能と人間の会話を実現することができます。今回は、これらの知識をわかりやすくゲーム開発者に多数のデモを用いつつご説明いたします。