MIT Lincoln Laboratoryの研究チームが取り組んでいるのは、人間のdiverとAUVをどううまく組ませるかというテーマです。AUVは、ざっくり言えば自動で海の中を動くロボット。人が乗り込む必要がないので、長時間の探索や移動が得意です。
一方で、人間のdiverは、細かい作業やものを見分ける力に強い。たとえば、壊れた設備を直す、何かを外す、危険物を扱う、といった作業ですね。
この「人は器用、ロボットは速い・長く動ける・計算が得意」という組み合わせは、言われてみればかなり理にかなっています。正直、海の中はロボットだけでも人間だけでもしんどいので、チームにするのが一番自然なんじゃないかと思います。
記事の例はわかりやすいです。島への送電が止まり、原因が海底ケーブルの断線だった場合を考えてみます。
普通なら、
といった方法があります。でも、もしAUVが先にケーブルの場所を調べて、故障箇所を特定し、最後の修理だけdiverが行うならどうでしょう。かなり効率が良くなりそうです。
MITの研究は、こうした人とロボットの役割分担を、海中で現実に使える形にしようというものです。想定されている任務も幅広く、
などがあります。海の中って、単なる「水中の移動」ではなく、かなり現代社会の土台に直結しているんですよね。海底ケーブルや電力網は、私たちが思っている以上に重要です。
この研究が面白いのは、単に「ロボットを作る」ではなく、海中の厳しさをちゃんと踏まえて設計しているところです。
海の中では、
という問題があります。
人間のdiverは、視界が悪いと簡単に方向感覚を失います。記事では、diverがcompass(方位磁針)とfin-kick counts(足ひれの蹴り数)を頼りにすることがあると書かれていましたが、これはなかなか心もとないですよね。海中版の「自分はどこだ?」問題です。
ロボット側も、カメラだけでは暗すぎて役に立たないことが多い。そこで使うのがsonarです。sonarは音を使って周囲を映す技術ですが、カメラのように色は見えませんし、形や影が中心になります。しかも、海の中の物体は本来の姿を保っていないことが多い。たとえば、
みたいな状況だと、AIも混乱しやすいわけです。これは実に海らしい難しさだと思います。地上の画像認識の常識が、そのままでは通じないんですね。
このプロジェクトでは、特に2つの能力が重視されています。
これはどこにいて、どこへ行くかを把握する力です。
diverがAUVと一緒に動くには、お互いの位置関係をある程度わかっていないといけません。
ただ、海中ではGPSは使えません。なので、MITのチームは、diverとAUVが協力して位置を推定するためのアルゴリズムを開発しています。
記事によると、以前からMIT Marine Robotics GroupのJohn Leonard氏らが、simulations(シミュレーション)や、カヤックをdiverやAUVの代役にしたfield testing(現地試験)を行っていました。今回、Miller氏のチームはそれを実際のAUVに組み込み、より現実的な海の条件で試しているわけです。
面白いのは、最初はsupport boatをdiverの代わりにして試し、その後に実際のdiverへ進めている点です。こういう段階的な進め方は、かなり堅実だと思います。海中の実験は危険もあるので、いきなり本番勝負はできませんからね。
ただし実海では、想定よりずっと厄介でした。Miller氏は、MITのアルゴリズムは比較的単純にdiverまでの距離(range)を定期的に測ればよかったのに、実際の海流が加わると問題が一気に複雑になると語っています。
要するに、「机上ではうまくいく」が、海はそんなに優しくないということです。これは海洋ロボット全般に共通する、かなり本質的な話だと思います。
これは周囲を認識する力です。
AUVがdiverを助けるには、「あそこに何かある」とわかるだけでは足りません。それが何かまで判断しないといけません。
そこでチームは、optical data(カメラ画像)とsonar dataの両方を扱えるAI classifier(分類器)を開発しています。さらに、AIが自信のない対象を見つけたら、人間に確認を求める仕組みも入れています。
たとえば、
というやり取りです。
これ、かなり賢い設計だと思います。AIに全部を丸投げするのではなく、AIが苦手なところだけ人間に頼る。こういう「人間参加型」の設計は、現場ではとても強いはずです。完全自動化よりも、むしろ現実的ではないかと思います。
このフィードバックループを実現するには、diverとAUVが話せる必要があります。そこで使うのがunderwater acoustic modem、つまり音でデータを送る通信装置です。
ただし、海中通信は超低速です。記事によると、未圧縮の画像をAUVからdiverに送るには、数十分かかることもあるそうです。これはなかなか衝撃的です。スマホの感覚でいると完全に別世界ですね。
だから研究チームは、
を詰めています。
この「小さく、軽く、省電力で、しかも役に立つ」を満たすのが一番難しい。ロボット研究あるあるですが、海中ではその難しさが何倍にもなる印象です。
チームは、できるだけ現実に近い環境で試験をしています。
と、かなり幅広いです。
個人的におもしろいのは、diverの代わりにボートやskiffを使うという発想です。もちろん本物のdiverとは違いますが、まず安全に挙動を確認するには合理的です。しかもskiffは小さいので、diverとAUVの相対運動に近い形を再現しやすい。こういう「現実的な代役」を用意するのが、研究を研究で終わらせないコツなんだろうなと思います。
その後、昨年夏には実際のdiverでも試験を始めました。ここでは、diverがtube-letと呼ばれる筒状の試作タブレットを持って泳いでいます。これには、
が入っており、navigationアルゴリズムに必要な情報を集めます。
Great Lakesでの試験では、水の透明度が高かったため、光学センサーで海中撮影ができました。そこで研究者のCaroline Keenan氏は、optical classifiersを使ってsonar classifiersを育てる研究を進めています。
これはかなり面白い方向性です。
要するに、カメラで学習した知識を、sonarの認識に転用するという発想です。
なぜそんなことをするかというと、sonarのラベル付きデータは集めるのが大変だからです。人間が1枚ずつ「これは何」と付ける作業は重い。もし光学データの知識を流用できれば、sonarデータが少なくても賢い分類器を作れるかもしれない。これは機械学習の現場感覚として、かなり筋がいいと思います。
このプロジェクトは、内部資金による研究プログラムが終了に近づいていて、今後は外部スポンサーを探しているとのことです。目標は、技術をmilitaryやcommercial partnersへ移すこと。
Miller氏は、現代社会がundersea telecommunication and power cables、つまり海底通信ケーブルと送電ケーブルに依存していると指摘しています。しかもそれらは攻撃や妨害に弱い。さらに、海中の領域は各国のautonomous maritime systemsの発展で、ますます競争的になっている、と。
ここはかなり重要なポイントです。海中ロボットは単なる便利ガジェットではなく、インフラ防衛や安全保障の道具でもあるわけです。
そして同時に、民間の点検・修理・救助にもつながる。こういう「軍事と民生の両方に効く技術」は、研究としても社会実装としても強いですね。
MITのこうした研究は、しばしば「すごい技術」だけが注目されがちですが、今回の記事で特に印象的だったのは、海中の現実をちゃんと見ていることです。
この全部に向き合っている。だからこそ、単なるデモでは終わらず、本当に使える形に近づいている感じがします。
個人的には、特に「AIが自信のないときだけ人間に聞く」という設計が好きです。AIに万能性を期待しすぎない、でもAIの強みは最大限使う。これが一番健全なんじゃないかと思います。
海の中でのhuman-machine teamingは、まだまだ発展途上です。けれど、もしこの方向がうまくいけば、人間が危険な作業を全部背負わなくてよくなる未来がかなり現実的に見えてきます。海の中という過酷な世界だからこそ、人間とロボットの協力関係がいちばん輝くのかもしれません。