擬似的に触った感覚を伝える「ハプティクス」技術を、機器やロボットなどの制御に活用する研究を進めているのが慶應義塾大学ハプティクス研究センターだ。一般にハプティクスというと、接触を通知したり触感を錯覚させたりする技術を指すが、同センターでは接触情報を双方向に通信しリアルな力触覚を伝送し再現する「リアルハプティクス」の研究に取り組んでいる。つまり、「何か」に「触った」ときに、触った感覚を伝えると同時に、その「何か」に対して「触った」のと同じ効果を与えようというものだ。
同センターの所長を務める慶應義塾大学理工学部システムデザイン工学科教授の大西公平氏は、「私たちの身の回りに電気で動くものは多い。しかし、視覚や聴覚は認識したり伝送したりすることが可能になっているが、触った感覚である力触覚の技術は実用化されていない。触る感覚を通信したり記録したりする技術が実用化できれば、センサーで情報を取得する現在のIoT(Internet of Things)から、人間と同じようにモノをつかむような動作を含めた広い概念のIoA(Internet of Actions)への拡張が可能になる」と語る。
同センターは前回のCEATEC 2016に、人工の手となる高性能ハプティクス義手を出展し、審査員特別賞を受賞した。義手から得た力触覚を義手装着者の足に伝え、義手が触れたものが柔らかいか硬いか、壊れそうなものなのか、さらに落としそうなのかを理解できるようにした。そして装着者の感覚で義手の力の入れ方を制御することに成功したことを示す展示だ。義手でポテトチップスをつまんだり、紙パックにストローを通したりといった力加減の難しい動きを、自然にできるようにした研究成果が評価された受賞である。
■遠隔操作だけでなく力加減を含めた動作の記録・再現も
同センターでは、リアルハプティクス技術の実用化に向けて、NEDO、20社を超える企業との共同研究も含めて研究を推進している。その1つの成果が、触れた感覚を取り扱うロボットアームの「General Purpose Arm」。General Purpose Armが触れた感覚を離れた場所の操作者に伝え、力触覚を使いながら操作者がGeneral Purpose Armを操作できる装置である。前回出展の義手製作にも携わった同大学理工学部 システムデザイン工学科 助教の野崎貴裕氏は、「人間の力加減を伝えて離れた場所から機械を操作できるだけでなく、動作の記録や編集、再現も可能な世界初の汎用ロボットアームを製作した。こうした機器が実用段階に上がったことをCEATECでは体感してほしい」と語る。
人間の力加減を記録、編集して再現できるようになると、単に時間に対する位置を制御する現在のロボットとは大きな違いが現れる。例えば、6角形のナットを締める動作を記録した場合に、「力加減」を記録したロボットは形や大きさが異なる4角形のナットやひとまわり小さいナットであっても締めることができる。人がいなくても、10倍の高速再生でナット締めの作業を短時間で終わらせるといった業務効率化にもつながる。また編集によって、力加減を含む動作を拡大・縮小すれば、災害救助や土木作業などで必要になる大きな動作を人間の動きで制御できるほか、手術などの医療現場や微小な部品を集めたMEMS(微小電気機械システム)の加工などで人間が力触覚を得ながら細かい作業を行うことも可能になる。
同センターは、このような力触覚を制御、伝送するためのハードウエアとして、力触覚モジュールの「ABC-CORE」を開発した。20mm角のSoC(System-on-a-chip)で、力触覚の制御や伝送を手軽に機器に組み込むことができる。企業との共同研究による成果で、力触覚を実用段階へとステップアップする契機になる。
■4ブースでリアルハプティクスの成果を展示
CEATEC 2017で同センターは、4つのブースで研究成果を紹介する。1つ目は、前述したGeneral Purpose Arm。2つの腕を備えたロボットアームで、力触覚を伝送して離れた場所から動作が可能なほか、動作の記録や再現ができることを実際に体験できる。野崎氏は「これまで人間は、目の前にあるものしか作業ができなかった。General Purpose Armを使うことで、物理的な場所が離れていても、時間的な前後があっても、時空を超えて自分の行為、動作が再現できることを体験してもらい、実用のアプリケーションを考えてもらいたい」と語る。
2つ目の展示は、力触覚モジュールのABC-COREを使った「ポータブル力触覚デバイス」の公開。同センター研究員らが起業した慶應義塾大学発のベンチャー企業の出展で、力触覚を使った製品を企画・開発する際にイメージがしやすいような具体的なデバイスを製作した。ボックス型のポータブル力触覚デバイスには、人間側と機械側のインターフェースが用意され、そこにマジックハンドや操作用のグローブなどを接続するだけで、力触覚を活用したソリューションを作ることができる。
3つ目は、20社を超える共同研究企業との研究成果から、いくつかの具体例を公表するブースとなる。共同研究を行っている企業名も、実際の研究成果の内容も、CEATECを機に公表するという。
4つ目のブースは、リアルハプティクス技術をより具体的に活用した研究成果として、農業分野での活用例の展示を行う。展示では、マニピュレータが白い物体をつかむデモを行う。実は、白い物体は視覚的には同じに見えながら、硬いものや柔らかいものなど触覚が異なる。「これまでのロボットでは未知のものをつかんで理解することはできなかったが、力触覚を使うことで視覚ではわからない情報を理解することができる。農作物の箱詰めや果物の選別など、具体的な利用に向けた成果を体験していただきたい」(野崎氏)。
「力触覚がないと、機械はおいそれとモノに触ることができない。触る感覚を得るということは、相手に合わせて理解することにもつながる。100%国産の慶應義塾発のリアルハプティクス技術で、これまでにない機械やロボットの実用化に貢献できると考えている」(大西氏)。力触覚が実用化されることで、これまでは機械では取り扱えなかった様々なシーンで、ロボットや機械の活用が広がることを、CEATEC 2017の同センターのブースで感じ取ってもらえそうだ。
慶應義塾大学ハプティクス研究センター CEATEC
- 展示エリア
- 特別テーマ エリア
- 小間番号
- S10-65
- URL
- http://haptics-c.keio.ac.jp/article/ceatec2017
- 出展者詳細
- http://www.ceatec.com/ja/exhibitors/detail.html?id=9718