22
8月

CEDEC2018 (2018/8/22)

パシフィコ横浜で開催されたCEDEC2018(Computer Entertainment Developers Conference 2018)で行った講演(アカデミック部門の招待セッション)の様子を記事の形で紹介していただきました。なぜか実際の講演内容よりも、むしろ的確でわかりやすい!

弱いという希望、できないという可能性 ―〈弱いロボット〉の概念とその応用について

以下は、「4Gamer.net」で紹介していただいたイベントレポートの抜粋です。

 

ーー

ロボットには「部分的にであれ人間の持つ力を越えた存在」といったイメージを持つ人が多いのではないだろうか。例えば工業用ロボットは,人間より素早く正確に作業を終わらせるし,力仕事においても人間の筋力を上回ることは珍しくない。要は,特定分野に限れば,ロボットは人間よりも強いわけだ。

また,ロボットは「人間の代わりに仕事をしてくれる存在」と考えられることも多い。愛玩用ロボットもあるが,どちらかといえば例外的な存在であり,ロボットという言葉の語源(※)を踏まえても「人間のために労働する」側面はロボットから切り離し難いように思える。
しかし,そういったイメージがロボットの持つ可能性のすべてではない。むしろロボットが「弱い」ことや「できない」ことによって,拓かれる可能性というものもある。
この可能性について,〈弱いロボット〉を研究する豊橋技術科学大学の岡田美智男教授がCEDEC 2018で講演を行った。「弱いという希望,できないという可能性 ―〈弱いロボット〉の概念とその応用について」と題された講演の内容を紹介しよう。

引き算のデザインで作るロボット

岡田氏が研究する領域は「コミュニケーションの認知科学」「ヒューマン・ロボットインタラクション」「社会的ロボティクス」といった分野となる。ざっくり言えば,人と人のコミュニケーションに比べると,現時点における人とロボットのコミュニケーションには独特の違和感がつきまとっているので,この違和感の理由を(人と人のコミュニケーションを調べることも含めて)探るとともに,人とロボットが共生していけるような社会を目指して社会実装を進めていこう,という研究だ。
このため,講演ではしばしば「ソーシャルなロボット」という言葉が使われているが,ここで言う「ソーシャル」というのはSNSなどに紐付けられるものではなく,「人と共生する」という方向性を示す言葉と考えてほしい。

さて,岡田氏がこの問題に取り組むにあたって最初に疑問に感じたというのは,30年ほど前に設置されていたとある自販機の「ちょっとしたギミック」である。この自販機はお金を入れて商品を購入すると,ユーザーの去り際に「ありがとうございました」と,たどたどしい合成音声で謝意を述べる。ありがちといえばありがちな,小さなギミックだ。

しかしながら,少なからぬ人がそうであるように,自販機に「ありがとうございました」と言われても,「感謝された!」とは感じない。最初はそうやって謝意を示す自販機のことが「ちょっと面白い」と感じたとしても,「いえいえこちらこそありがとうございました」とはまず思わないし,むしろ繰り返すうちにアナウンスを「なんだか鬱陶しい」と感じるようになる可能性すらある。
つまり,ここで自販機が発声する「ありがとうございました」は,ユーザーに謝意としてちゃんと伝わっていないのだ。

しかし,「ありがとうございました」と発声する自販機は,ロボットの一種だ。となると,それ以外のロボットも「自動販売機のようなもの」とユーザーに理解されてしまった段階で,「ありがとうございました」と発声しても「言葉がユーザーに届いていない」(ユーザーを揺り動かす力を持たない)結果に終わる可能性がある。

この問題に対するひとつの回答が,ロボットをどんどん「人間らしくする」方向性だ。ASIMOやPepper,あるいは石黒研究室のGeminoid,Matsukoroidといったロボットは,この方向性で作られたロボットだと言える。
この「ロボットを,より人間らしくする」(実体として人間と同型性の高いものにしていく)という方向性は,いわば「足し算のデザイン」である。もともと人間らしさから遠いものを,様々な機能や装置を足すことで,人間らしくしていく。「足し算」だ。
一方で岡田氏が研究するのは,人間の実体との同型性を追求するのではなく,関係としての同型性を追求するという方針に則っている。つまりコミュニケーションのありようが人間と近いことを目指す,という方向性だ。
そしてここにおいて岡田氏は「引き算のデザイン」を採用した。つまり,コミュニケーションにとって必要なもの以外を取り去っていくのである。
実際に岡田氏の研究室が制作したロボットがどんなものなのかは写真を見てもらうのが早いが,いずれも「人間型」ではない。2015年の作品「Tofu」に至っては柔らかな立方体であり,外見としての「人間らしさ」はまったく見えてこない。それ以外の作品にはまだ「目」があったが,Tofuにはそれすらないのだ。
しかしながら,こういったデザインを「アバンギャルド」の一言で片付けてしまうことはできない。

例えば現代において家庭に入り込んでいる「ユーザーもこれはロボットだと意識するロボット」の代表格である掃除ロボ(「ルンバ」など)は,外見はまったく人間に似ていない。またスマートスピーカーも見た目はただの筒だ。「引き算のデザイン」で作られたロボットは,すでに我々の日常にしっかりと入り込んでいるのである。

不完結な自己の身体

さて,人と人,人とロボットのコミュニケーションという点に注目して作られた最初期の作品が,「Talking Eye」だ。
これはPC上で動くアプリケーションで,画面には目玉のようなアバターが3人,表示されている。このアバターは普段から何やら雑談をしており,彼らに話しかけると,人間との間でなにげない雑談が始まるという仕組みだ。
Talking Eyeのポイントは,発話の意味が削ぎ落とされているという点にある。具体的に言えば,Talking Eyeは主に「なんや?」「そうなん」「うるさいな」「そやそや」といった,わりとふわっとした言葉を発するように作られている。そしてこのようにあまり意味のない単語の応酬であっても,人間はそこで発生している(ように感じる)関係性から,オリジナルな意味を受け取るのだという。
この試みはそれなりにうまくいった(古いゲーマーであれば「シーマン」を想像してほしい)が,一方で新たな課題も生まれた。Talking Eye達が,それこそ「シーマン」のようにユーザーを小馬鹿にするようなことを言うと,ユーザーは「なんだこいつ」「嫌われたみたいだ」という感情を抱くが,一方で彼ら(?)が「助けて」と発話しても,ユーザーは「なんとかしてあげよう」という気持ちを抱かないのである。
この問題について,岡田氏は「オンスクリーン・エージェントの限界」と指摘する。Talking Eyeが身体を持っていないことは,人間が彼らに抱く感情のありようもまた,規定してしまうのだ。
ここで岡田氏は,身体性の持つ2つの側面を指摘する。
「身体」というものを考えたとき,「他者の身体」と「自己の身体」には想像以上に大きな違いがあることが分かってくる。
というのも,我々は一般に,「他者の身体」については「観察者」としての立場を有する。そして他者の身体は,1つの身体として,完全に自己完結している。
ところが「自分の身体」となると,そうはいかない。我々は鏡のような特別の道具なしには,「自分の身体」を完全には観測できない。普通に日常生活を営んでいる範囲で言えば,我々は「自分の身体」の全貌を把握しないままに,活動を続けている(例えばコミュニケーションにおいて表情は重要だと言われることが多いのに,我々は自分がしゃべっているとき,自分がどんな表情をしているのか知覚できない)。

このように,人間の身体には「不完結さ」が内在している。にも関わらず,我々は何の不自由もなく生活できている。
この無理が成立してしまう理由として,アメリカの生態心理学者であるジェームズ・ギブソン氏は「人間は自分を取り囲むものと一つのシステムを作りながら,結果として,価値ある事態を生み出しているのではないか」というアイデアを提示した。つまり我々は様々な他者(あるいは環境)に,自己の身体の不完結さを補われながら生きている,という考え方だ。

この「環境に補われて行動する」というアイデアの具体的な行動例として,岡田氏は「歩行する」という行動を提示した。「歩く」という行動にあたって,行為者は「一歩を踏み出すぞ!」という意思を持って行動を開始するが,その行動が完結するためには地面が「行為者を支える」必要がある。歩くという行為は,歩こうとする個人と,それを支える地面の,カップリングで成立しているというわけだ。
このことを「周囲と1つのシステムを作りつつ,なにかおもしろいことをしている」のが人間であると,岡田氏は語る。
人間は自己の身体という不完結なもの(=弱いもの)を有しつつも,それを環境に対して委ね,また環境はそれを支える。そしてこの委ねる・支えるのカップリングが欠けてしまうと,関係性のリアリティもまた壊れてしまうのである。
そしてこの「他者の身体」と「自己の身体」のどちら側に注目するかという点は,ロボットをデザインする方向性にもそのまま現れる。
自己完結した身体を目指せば,ロボットは必然的に「もっと,もっと」足して作るしかない。能力に「隙間」があってはならないからだ。
一方で不完結な身体を前提とすれば,そこで問われるのは「どのように他に一部の機能を委ね,支えてもらうか」「人の参加する〈隙間〉をどのようにデザインするか」という点だ。そしてそれは必然的に,引き算のデザインにつながっていくのである。

他力本願なロボット

さて,「不完結な身体を前提とし,人の参加する〈隙間〉がデザインされたロボット」と言われても,「理屈は分かりますが……」という顔になってしまうのは当然だ。だが岡田氏はここに至るまで,非常にたくさんの実験作を作り,いくつもの成果をあげている。以下,それらを見ていこう。

不完結な身体を踏まえ,「行為者の内なる視点から見た身体を作れないか?」という意図のもと,1999年に作られたのが「Muu」だ。
これは「ドラゴンクエストのスライムに目玉が1つだけ付いているようなロボット」とでも表現すべき形状をしており,人語めいたものをしゃべるが,その言葉は赤ん坊が発する喃語のようなものばかりである(意味のある単語になっていない)。表情がとくに変化するわけでもなく,外から見ると視線が向いている方向や高さに若干の変化が発生する程度の動きしかしない。

しかしながら「Muu」とインタラクションしたユーザーは,彼らの動きや喃語から「私に気づいたみたいだ」「彼らには意識のようなものがあるのかな?」といった反応を示すという。
また「Muu」は1体だけだと「無表情」だが,2体並べて「対話」させると,そこに表情が見えてくるそうだ。2体の関係性のなかから,我々はそこに表情を見てしまうのである。
ちなみに「Muu」の路線をさらに推し進め,むしろ「どこまで引き算できるのか」に挑んだのが2006年に開発された「Tofu」だ。ただの白い立方体でしかない「Tofu」だが,これでもなお人とのコミュニケーション(人の側での情動の発生)は成立するという。

社会的な実験としても興味深いのが「ゴミ箱ロボット」だ。
このロボットは,ざっくりと言ってしまえば,「あちこちをヨタヨタと移動するゴミ箱」である。時折,おじぎをするような動きをすることはあるが,「ゴミ箱ロボ」と言うわりには自力でゴミを見つけて移動しようともしないし,ましてや自分でゴミを拾おうともしない……というか,そのような機能を持っていない。

しかしながらこのゴミ箱ロボは,そういう「弱い」ロボットであるがゆえに,周囲の人間を味方につける力を持っている。フラフラとさまようゴミ箱ロボットを見た子供たちは,最初は興味津々で叩いたり持ち上げたりするが,次第に「このロボットはゴミを集めようとしているのではないか(そしてそれができないのではないか)」と推測し,自分達でゴミを拾ってロボットに預ける(捨てる)のだ。
また,このゴミ箱ロボットを色違いで3種類投入すると,子供たちは勝手にゴミを分別して捨てるようになるという。なるほど,ゴミ箱ロボットそれ自体にはゴミを拾う機能もゴミを分別する機能もないが,周囲の人間に「ゴミを拾ってもらう」「ゴミを分別してもらう」ことはできており,そして結果的に「ゴミを分別して収集する」という機能を果たしている。

この他力本願なゴミ箱ロボットは,まさに「ソーシャルなロボット」である。使われている技術は「ローテク」と言って問題ないレベルのものだが,それでも人にすり寄ることで,その目的を果たしてしまう。
そしてなにより,ゴミ箱ロボットの使命を果たすために彼らを手伝ってあげた人間の側も,ちょっと嬉しい気持ちになれる。ゴミ箱ロボットに対して人間は「ロボットを支えてあげる存在」となりつつも,同時に「ロボットを支えてあげる存在として認められる」という形で「ロボットに支えられる」のだ。
このように,ゴミ箱ロボットは,使われている技術や実装はチープであっても,そこで発声する関係はリッチになるという成果をあげている。
ちなみに,この「他力本願なロボット」は,もはや実験段階でとどまっているとは言えない。というのもお掃除ロボットとして有名な「ルンバ」は,まさに「他力本願なロボット」として設計され,成功しているからだ。
ルンバのもとになったロボットはMITで1990~92年にかけて開発された「Genghis」で,もともとの設計思想として「知性はロボットの内部にあるのではなく,ロボットと環境という関係的なシステム全体が知性なのだ」という思想のもとに作られているという。
そして実際のところ,ルンバはそこまで万能ではない。「ルンバを導入したかったら,ルンバが掃除をできる部屋にしろ」と言われるように,むしろ人間の側がルンバに寄り添ってやらねばならない(古いルンバだと,床にあるコードを巻き込んでギブアップするといった,なかなかに「手の焼けるやつ」という側面もあった)。
またルンバはそこまで賢くない。障害物をうまく回避する能力はもっておらず,障害物にぶつかったら方向転換するのが基本方針だ。けれどこの結果として,シンプルな動きをするルンバは「障害物で方向を変えつつ部屋全体を掃除する」ことを可能としている。障害物に打ち勝つのではなく,障害物を利用しているのだ。

ルンバを活用するにはルンバに向いた部屋にする必要があったり,ルンバが障害物を自発的に回避できなかったりすることは,一般論で言えば(あるいは「完結した身体を期待する側」にしてみれば)「欠点」だ。
けれどその欠点を技術で乗り越えなくても,「人間の手を借りる」という選択肢を選んだ途端,問題は意外と簡単に解決してしまう。むしろ人間とルンバが互いに弱さを補いながら(人間は「やるぞ!」と決めて瞬発的に部屋をルンバ向きに掃除することはできるが,ルンバのようにその部屋を無心に掃除し続けるのは苦手だ),互いの強さを引き出し,ときには人間の優しさも引き出す。そうやって互いに調整するなかで疎通が起こり,コミュニケーションが発生する。
ルンバは「他力本願な弱いロボット」としての,ひとつの成功例なのである。

他者に開かれたシステムとして

もうひとつ,興味深い方向性としては「他者に開いた,オープンなシステム」としての機能の不完結さというものがある。これも実例で見ていこう。

2016年に開発された「iBones」は,「もじもじしながら通行人にティッシュを渡そうとするロボット」である。
ティッシュ配りのアルバイトをしたことがある人なら分かると思うが,ティッシュ配りというのはなかなかに難度の高い仕事で,差し出したティッシュを受け取ってもらえるかどうかは本人の技術に依存する側面が強い。
iBonesは「うまく受け取ってもらえるようにティッシュを差し出す」ことはまるでできておらず,結果として「もじもじしながらティッシュを手渡そうとする」ことを繰り返すことになる。
しかしながら岡田氏は,ティッシュ配りを別の視点から捉える。
ティッシュを配るという作業は,ティッシュを受け取ってくれる人がいて初めて成立する。そして相手がティッシュを受け取るかどうかは,その相手に委ねられている。つまり行為の半分は「ティッシュを受け取る側」に委ねられており,「ティッシュを配る側」としては,この仕事を「ティッシュを受け取ってもらう仕事」と解釈することもできる。
そして「ティッシュを受け取ってもらう仕事」としてティッシュ配りを理解すると,iBonesの「もじもじする様子」は利点に変わる。通行人としては「仕方ない,受け取ってあげよう」という気持ちになることもあるし,これによってロボットの行為を「手伝ってあげる」側に立つことができる。
このように,機能が不完全であることは,「他者に対して開いている」状態を形成する。このことは,誰か(この場合は人間)と一緒に行為を行うにあたって,非常に大きなポイントとなる。

「Talking-Ally」「Talking-Bones」は,この「他者に対して開いている」状態を,言葉のレベルで達成したロボットだ。
Talking-Allyは,いささかたどたどしい言葉で,言いよどみながらもユーザーに情報を伝えようとするロボットである。ロボットが「言いよどむ」「おどおど話す」ことで,ユーザーはロボットとの会話に参加したり,その会話の行く先を手助けするきっかけを得る(ちなみにTalking-Allyはユーザーの視線を検知しており,ユーザーがロボットから目を離すと言いよどむという構造になっている)。

Talking-Bonesはこれをさらに一歩先に進めたもので,昔話(「桃太郎」など)をたどたどしく語ってくれるロボットである。しかしながらこのロボットは口調がたどたどしいだけでなく,話の行き先も忘れてしまうことがあり,そこで言いよどんでしまう(例えば「おじいさんは山へ芝刈りに,お……えっと……お……」といった具合)。そしてここで聞き手が「おばあさんだよ」と教えてあげると,Talking-Bonesは「おばあさんだった」と言いつつ,話を先に続けてくれる(ユーザーが子供だと大喜びで対話が続く)。

これもまた「機能が不完結であることで,他者に対して開かれた状態」が作られており,その隙間に対してユーザーがコミュニケーションを成立させるという構造が成立している。
ちなみに,最初に示した「Muu」は,今ではこの方式で「たどたどしくしゃべる」ロボットとなっており,「小さな子供が,要領を得ない口調と文脈で,親に報告する」状況をほぼ再現している。この最新型「Muu」では,初代「Muu」と同様に,このような不完結な発話(対話)をするエージェントは複数存在したほうがよりコミュニケーションが豊かになるという知見に基づき,3台セットでの運用がなされている(このため,3人の子供が口々に「今日はこんなことがあって」と必死で説明する様子が,ほぼそのまま再現されることになる)。
もうひとつ,この現象には「そこで発せられている言葉がそもそも不完結である」という特徴も利用されている。
自己完結した言葉は「権威的な言葉」であり,「調整の余地がない」「強い」「きつい」言葉として人に刺さってしまう。だが「不完結な言葉は内的説得力を持つ」(ミハイル・バフチン,「小説の言葉」)が示すように,不完結な言葉は「他との調整の余地」「内的な対話性」「一緒に生み出す」などを持っている。
この「不完結な言葉」が用いられることにより,Talking-AllyやTalking-Bones,あるいは新型のMuuといったものは,発話をよそよそしく感じることなく,「自分も入っていこうかな」とユーザーに感じさせているという側面もある。
なお「不完結な言葉」は必ずしも「たどたどしい言葉」に限られない。喃語の一種や,それこそ単体では完全に意味を持たない発話(「もんもん」「もーこ,もんもん」といった発話)であっても機能する。このあたりの知見は,言語依存性の低いゲームを作るにあたっても有効に活用できる可能性を秘めているように思える。

そこにいるロボット

「他者に開かれた,オープンなシステム」としての弱いロボットの持つ可能性は,他にもある。

「マコのて」は,機能として言えば,一緒に手をつないで歩くだけのロボットだ。その歩みはけして着実とは言えず,どちらかといえばかなり「よたよたした歩み」である。
だがその頼りないロボットと手をつないで歩くことで,次第にロボットと人間の歩調が合い,そこにインタラクションが生まれる。人がロボットを引っ張って歩くのでもなく,ロボットが人を誘導するわけでもない。障害物がある場合も,それを互いに気を遣いながら回避するという形で,協調性が発揮されるようになる。

「ペラット」は「マコのて」よりさらに機能が絞り込まれたロボットで,事実上,何もしない。ただユーザーの近くをフラフラするだけだ。だがそのおぼつかなさにユーザーはふと目をやってしまい,次第に「このロボットに頼られているのではないか」という感情を抱くようになる。
ペラットは,「支えが必要なロボットを,支える人間である」という地位をユーザーに与えることで,逆にその事実がユーザーを(心理的に)支えるという「弱いロボット」の持つ特徴を発揮したロボットといえる。
事実,ペラットのユーザーはとくにこのロボットに愛着を感じていないつもりだったのに,「ちょっとメンテナンスが必要なので」などと言われてペラットを取り上げられてしまうと,なんとなく喪失感を味わうという。
この効果の背景にある重要なポイントとして,人とロボットの距離感という点がある。

言うまでもなく,ただの「モノ」は「自分」から非常に遠い存在だ。それらは物理法則に基づいて動くに過ぎない。
そして何らかの機能を果たすために作られたロボットもまた,人にとってみると「これって誰かが設計したとおりに動くものなんだろう?」と感じてしまうため,距離を感じることになる。
この傾向はロボットの完成度が上がり,どんどん自己完結したロボットになっていったとしても,依然として一定レベルでそこに残ってしまう。

ところが自己不完結な弱いロボットを見た人間は,同じ不完結な身体を持つ存在として,そのロボットを思わず助けたくなる。その弱さを支え,ロボットに同調するようになる。
これが「同型な身体性を持つロボット」の特徴で,自己完結したロボットに対面した人間は「相手の気持ちに寄り添う」のが限界だが,同型な身体性を持った弱いロボットに対しては「我が身のように感じる」のだと岡田氏は指摘する。

弱いロボットの未来

今後の「弱いロボット」の社会実装の可能性として示されたものとして,筆者が個人的に興味深く感じたのは「車の自動運転」に対する弱いロボットの採用である。
自動運転は,すでに「完全ではないもの」として実装は進んでいる。ここにおいて我々が「自動運転なんて無理に決まってる」とか「自動運転こそ自動車の未来」といった極論から極論へと飛びつきがち(つまりは自動運転に対し,一定の不安を感じている)な背景には,「相手(自動運転システム)が何を考えているのかまったく分からない」という,完結した他者に対する不安があるのではないだろうか。
むしろ「弱い自動運転」として,自動運転が難しい環境においてはユーザーに「手助けを頼む」という構図を利用することで,「自動運転システムと運転手が相互に協力して運転する」という自動運転のひとつの形(レベル3)を,より運転手にとって安心できるシステムとして提供できるのではないかと岡田氏は指摘する。

「ロボット」の可能性を求めて

「ロボットが人間の仕事をすべて代替してくれる」というのは,SFが描いてきたひとつの夢だ。一方でその夢には常に「ロボットの反乱」といったイメージもつきまとってきた。結果として今もなお,「AIが人間の仕事を奪う」といった議論はあちこちで行われている。我々は「人間のために働く他者」を想定しながら,その他者が人間に牙をむくことを恐れると同時に,もしかしたら期待すらしている。
だが「弱いロボット」というコンセプトは,そのようなステロタイプからは,かなり遠い。「人が他者としてのロボットを支配し,他者であるロボットの反乱(ないし「しっぺがえし」を恐れる)のではなく,「不完全な自分と不完全なロボットが協力して,ベターな世界を作る」というコンセプトは,むしろより現実的ですらあるように思える。
そのうえで,この「弱いロボット」という発想には,「ルンバ」のような成功例がすでに存在するというのが興味深いところだ。コンセプトワークを越えて,社会実装の成功例があるこの技術から,ゲーム業界が何を学び,どのように活用していくのか。そういう意味において,大変に意義深く,また実に挑発的な講演だったと言えるだろう。

なお,「弱いロボット」はCEDEC会場内のインタラクティブセッションで展示されていた。Talking-Bonesは筆者も体験してみたが,やはり「実際に声を出して話の先を促す」となると,若干の気恥ずかしさを感じたのも事実だ。
このあたりも含めて,今後が気になる技術である。

in Blog