人間機械調和環境研究



Director: 橋本周司教授

本研究室では、ヒューマノイドロボットの視覚系と情緒系を主に担当し、環境認識、人間認識、および感性インタフェースの研究を行ってきました。これらを基礎にして、人間の知情意と機械系が調和する環境の実現を目指しています。








エネルギー自給型自律移動ロボットおよびそれらを組み合わせた群ロボット


ニューラルネットワークによる感性情報解析


解剖学知見に基づく顔の物理モデル

人工生命体基礎研究



ロボットを造ることによって、生物の学習や進化の意味あるいは人間の感性の起源を探求したいと考えています。そこで、「生き延びる」ことをテーマとするエネルギー自給型サバイバルロボットや群ロボットを製作しました。また、生命の情報的な機能をニューラルネットワークや遺伝的アルゴリズムで実現する研究も行なっています。さらに、「バーチャルヒューマノイド」として、解剖学的知見に基づく顔の物理モデルおよび感性情報のニューラルネットワークによる解析も試みています。









3次元環境モデルを用いたHadalyロボットビジョン


能動的探索による環境地図生成ロボット


顔画像認識による能動的人物追跡システム

聴覚・視覚による環境理解



 人間の生活環境の中で人間とコミュニケーションするロボットは、外部環境を認識しなければなりません。ヒューマノイドロボットHadalyは、獲得した視覚情報と3次元の環境モデルを比較することで、自己位置を特定します。また、移動ロボットによる自動環境地図生成システムを用いるで自己位置・姿勢を認識することができます。

 人間の「顔」に注目した研究では、顔画像の特徴抽出・認識を行い、CCDカメラを備えたロボットアーム(図右)による能動的人物追跡システムを作成しました。さらに、聴覚モデルに基づく音源定位、音源分離および環境情報からのテンポ抽出、シーン解析などの研究が進められています。








(A) (B)
(A) 触覚・力覚情報を用いた遠隔地とのコミュニケーション
(B) 電話回線を通じた遠離握手システム


(C) (D)
(E)
(C) 人間協調移動ロボットのための力覚インタフェース
(D) 重心移動インターフェイスと全方向移動ロボット
(E) 握り動作による音楽生成システム

アドバンスドインタフェース



 ロボットには人間の生活環境に適した形態と機能を持つばかりでなく、特別な使用訓練を必要としない、安全で柔軟なインタフェースを備えることが要求されます。また、人間との情報空間の共有のために、視覚、聴覚、触覚などの感覚を用いたマルチモーダルなインタフェースが求められるでしょう。

 これまでに、力覚や触覚を用いたコミュニケーション、重心移動により全方向へ移動できるロボットや、握り動作によりロボットをコントロールしたり、音楽生成システムなど、ユーザのより直感的な操作を可能とするインタフェースの開発を進めています。









M動画像と環境音による音響生成システム・ マルチモーダル移動ロボットによるダンスシステム


4次元仮想空間ディスプレイ

メディアフュージョン



 従来のキーボード、モニタ、スイッチなどに加え、音声、音楽、画像などのチャンネルによるマルチメディアインタフェースは重要です。ここでは、大型ディスプレイとモーションキャプチャを用い、4次元空間上の物体を表現・獲得する試みや、動画像と環境音による音響生成システム、マルチモーダルなモバイルプラットフォームなど、様々なメディアの要素技術を統合する試みを進めております。




Content Top    


Copyright by Humanoid Robotics Institute, Waseda University. All rights reserved.