開発をリードするエンジニアが語る!新リファレンスプラットフォームEdge.AutoとCo-MLOpsプロジェクト
―はじめに、Edge.Autoについて教えてください。
川端:ティアフォーには3つのプロダクトがあります。「Pilot.Auto」はAutowareをベースとした自動運転のソフトウェアプラットフォーム、「Web.Auto」は開発運用(DevOps)のためのプラットフォームです。「Edge.Auto」は車載カメラやLiDARといったセンサ群やECUなどのハードウェア、およびそれらを動作させるソフトウェア群を統合し、リファレンスキットとして提供するプラットフォームです。Edge.Autoを使えば、ユーザーは最短で自動運転システムの開発に取り組むことができます。
Edge.Autoには車載カメラとセンサフュージョンシステムという2つのソリューションがあります。
車載カメラは、C1、C2カメラの開発から始まり、現在ではすでに国内外150社以上の自動運転プロジェクトでリファレンスカメラとして採用されています。また、NHKロボコンなどの大会、4足歩行ロボットのANYmalや落合陽一氏がPMを務める未踏IT人材発掘・育成事業など、様々な研究活動で使われています。新機種として8.3MPの解像度をもつC3カメラの開発も進行中です。
これまで市場では高品質な車載グレードのカメラは入手困難でしたが、現在は代理店からの購入だけでなくSwitch ScienceやRTなどのeコマースサイトから誰でも購入可能です。これはティアフォーが目指す自動運転の民主化にも繋がる、大きな一歩です。
センサフュージョンシステムは、カメラやLiDARなどの複数センサを組み合わせて認識機能を開発する際に必要となるセンサハードウェアの選定や、センサ間の空間的なキャリブレーション、時刻同期をサポートする目的で提案されました。いずれも多くのノウハウが必要となりますが、ティアフォーがこれまでに培ってきた自動運転技術を基に、サポート用のオープンソースツール群や導入ドキュメントとともに提供しています。
David:多様な構成に適応できるという点はEdge.Autoの大きな特徴です。ティアフォーは様々なLiDARやECUメーカーとの協力により、カメラだけでなく、異なるECU上で使用できるカメラドライバーも開発しています。
ティアフォーでは、オープンソースソフトウェア「Autoware」の開発を行っています。オープンソース コミュニティの一員として、様々なセンサやセンサ構成に対応するよう開発を進めています。数年前から、SensingチームではNext-Generation Sensor Suite(次世代センサスイート)というテーマにも取り組んでいます。現在使用されているセンサではなく、未来のセンサ開発にも取り組んでいます。この点もEdge.Autoが他のプロダクトと異なるポイントですね。
ー農業や鉱業など、自動車以外の分野でも活用されると思いますか?
David:そうですね。農業や鉱業の分野がオートメーション化において直面している問題は、低レベルセンシング、キャリブレーション、パーセプションなど、自動運転における課題と非常に似ています。
そう言った観点からも、Edge.Autoは費用対効果の高いソリューションと言えます。特に大規模な自動運転システムの一部としてエッジベースのパーセプションを検討している場合は活用できると思います。
川端:Edge.Autoのソリューションは様々な業界の顧客の要件に合わせてフレキシブルに構成を変更できます。
David:建設業界のように、歩行者安全、道路法、乗客の輸送などに関連する法的要件が緩やかな分野では、市場への参入障壁は比較的低いです。
CESの目的の1つは、Edge.Autoの発表でしたが、多くの企業にEdge.Autoの車載カメラやLiDARを紹介する中で、他業界が抱えている問題を知ることができたのも収穫のひとつですね。
川端:CESのティアフォーのブースは、大きく3つのエリアに分けられていました。1つ目のエリアにはホワイトレーベルEVソリューションである「ファンファーレ」の自動運転車両が展示され、「Pilot.Auto」や「Web.Auto」を紹介。その反対側のエリアでは、「Edge.Auto」のデモ実演や製品展示、真ん中のエリアには4面のメインディスプレイとミーティングスペースが配置されました。
Edge.Autoチームではブースで4つのライブデモを展示しました。特に3つの異なるベンダーのLiDARを用いたデモは、同じソフトウェアで制御し、一つのパーセプション システムとして展示され、ティアフォーならではだったと思います。また、別会場にあったHailo社のブースでもティアフォーの低消費電力エッジAIによる展示を行いましたので合計で5つもライブデモを展示したことになります。
David:今年はデモの数を増やしたので、準備を含めとても大変でした。CESまでに間に合うかどうか不安でしたが、最高の仲間と1つの事に集中して取り組むことができたことは私にとっては最高に幸せな経験でした。
CESの会期中は「もう二度とこんなことはやらない!」と思いながら深夜の2時までセットアップをしていましたが、すべてが機能したときの達成感は言葉では表せません。ブースで来場者に披露する機会を与えられ、ポジティブな反応を得られたことが非常に嬉しかったです。
ーCo-MLOps プロジェクトはどのように始まりましたか?
川端:自動運転の開発において、大規模データ収集は業界共通の課題です。
市場をリードする最大手企業は膨大なデータを自社で収集できますが、同等のデータを自力で収集できる企業は多くありません。一方で、商用品質の自動運転AIの開発には大量のデータが必要になるため、データリソースを持つ一部の企業が技術開発をリードする構造になっていました。この状況はティアフォーがビジョンとして掲げている「自動運転の民主化」からはかけ離れており、業界共通の課題と捉えています。この課題を解決するために、オープンソース戦略に基づき世界中に多くのパートナーがいるティアフォーによって、Co-MLOps Platformの構想が提案されました。
Co-MLOps Platformの基本コンセプトは、データ収集の労力を分散させることです。パートナーが各々収集したデータをプラットフォーム上で共有し、蓄積することで、データの規模やバラエティ、地域のカバレッジを飛躍的に高めることができます。この取り組みにより、参加するパートナー企業は世界各地で収集される大規模なデータセットにアクセスし、従来データ不足が原因で困難だったAI開発が可能になります。さらに、本プラットフォーム上では、リファレンスとなるAIモデルや効率的なモデル改良のための機能が提供されるため、各社は独自のソリューションを開発できるようになります。
川端:市場で多く使われているソリューションは様々な理由から使われている技術の中身やデータにアクセスすることは困難です。そのようなブラックボックス化された製品の代替手段を多くの企業が探しているという背景があったため、ティアフォーはその課題の解決に取り組みたいと考えました。
David:Co-MLOpsのアイディアはEdge.Autoの開発から生まれました。新しいセンサフュージョンの開発を進める中で、データの必要性について議論してきました。そこで自動運転に必要なパーセプション システムを構築するために、パートナー企業と協力してデータ収集とAIモデルの開発を行うことを考えました。繰り返しになりますが、ティアフォーが掲げる「自動運転の民主化」にも繋がります。Co-MLOpsを通じて、パートナー企業と協力し、自動運転AIの開発プロセスを大幅に改善し、業界全体の技術進歩を加速させることを目指します。
全てのパートナーが同じフレームワークとデータプールにアクセスできることで、競争力のある製品を生み出す可能性が広がります。これはオープンソースソフトウェアのコンセプトと似ていますが、ティアフォーはユーザー固有の要件を満たすAI開発が推進できるようなサポートを提供していきます。
川端:各パートナーは自社の車両を使用してデータを収集します。これには、自動車メーカーやTier 1 サプライヤーの実験車両が含まれ、車両にはリファレンスとなるセンサキットが搭載されています。ティアフォーも同様にデータを収集し共有しています。皆で手分けしてデータを集めて1つの大きなデータセットを作る。「ドラゴンボール」の元気玉のようなイメージですね。
David:Co-MLOpsでは、ハードウェアとDevOps Platformを統合し、データ収集のプロセスを効率化します。すべての協力パートナーがティアフォーが提案するセンサシステムと処理パイプラインを使用することで、データの一貫性、品質、有用性が向上し、パーセプションアプリの開発がより簡単かつ確実に行えるようになります。
川端:データ収集にはどの企業も苦労しています。単純計算ですが、もし100社が参加すれば100社分のデータが集まります。Co-MLOps Platformの活動に賛同していただく企業は、この大規模データセットへアクセスできます
Co-MLOpsはまだ始まったばかりなので、これから順次データの規模を拡大していく段階ですが、データが集まってくるとさらに興味をもつパートナーが増えてくると思うので楽しみです。
David:現在、OEM、Tier 1および Tier 2 サプライヤーは、自動運転レベル4の開発段階にあります。Co-MLOpsを活用したデータとサービスへのアクセスにより、レベル4への移行を支援できます。 現在自動運転レベル2やADASに適用されている要素技術をさらに発展させ、レベル4へ適用することが可能です。
川端:2023年には、日本、ドイツ、ポーランド、台湾、トルコ、アメリカを含む世界8つの地域でコンセプト検証のための実証実験を行いました。世界各地で集めたデータを用いてカメラによるレーン検出などのモデルを開発し、そのモデルを使って高精度でレーンを認識できることを確認しました。今年はさらに地域を増やしながら、複数の高性能なLiDARや5MP〜8MP相当の高解像度カメラを用いて、車両の360度全方位を遠距離までカバーするデータ収集を進めています。引き続き参加を検討しているパートナー企業も募集中です。
ーこのようなプロジェクトは他に例がありますか?
David:このような共同データ収集は大学レベルでは行われている可能性がありますが、商用レベルでの事例は私たちの知る限りではありません。
川端: 一見誰でも思いつきそうなシンプルなアイデアですが、最初にやるには多くの乗り越えるべきハードルがあります。いわゆる「コロンブスの卵」のようなテーマかもしれません。
David:これは、ティアフォーがオープンソースコミュニティで非常にユニークな立場にいることを示すもう1つの例です。ティアフォーは政府や大学、自動車OEMやTier 1 サプライヤーに至るまで、様々なパートナーと協業しています。常にオープンで、多くのパートナーと協力したいと考えています。これはセンササプライヤーやソフトウェアサプライヤーについても同様です。
これまでに培ったパートナーとの協業の経験があるからこそ、データを収集し、アクセスしたいと考えている方にソリューションを提供できます。
ーCo-MLOpsプロジェクトの今後の課題は?
川端:現在はプラットフォーム上で提供されるMLOpsの主要機能を開発しながら、新たなデータ収集地域の選定やパートナー企業との協議、公平な参加ルールづくりに取り組んでいます。また、データを扱うプロジェクトなので、法務部門とも密に連携し、個人情報保護や地域ごとの法規制等を考慮したフローの設計に注力しています。
David:たとえば「EU一般データ保護規則」(GDPR:General Data Protection Regulation)をはじめとする各国のデータ保護法に準拠した取扱いのために、データの匿名化処理など、プライバシーを保護するための開発も進めています。
川端:プラットフォームの設計については アマゾン ウェブ サービス(AWS) チームとも密に連携しています。AWSのアカウントチームは顧客要望に対するサポートの経験を多く有しており、セキュリティを含めたクラウドサービスの設計・開発・運用に関して非常に有益なアドバイスを頂いています。
Co-MLOps プロジェクトでは取り組むべきことが沢山あり、人手が足りていません。このブログを読み興味を持ってくださった方の応募をお待ちしています!
・・・
ティアフォーでは、「自動運転の民主化」というビジョンに共感を持ち、自らそれを実現する意欲に満ち溢れた新しい仲間を募集しています。
今回のチームで募集中の職種
Future Solution チーム
Edge.Autoチーム
関連ポジション
その他にも多くの職種で採用をしています。詳細は、ティアフォーの「求人ページ」をご覧ください。
「どの職種で自分の経験を活かせるかが分からない」「希望する職種が見つからない」などの場合は、ぜひ「キャリア登録」をお願いします。
・・・
お問い合わせ先
メディア取材やイベント登壇のご依頼:pr@tier4.jp
ビジネスや協業のご相談:sales@tier4.jp.
ソーシャルメディア
X (Japan/Global) | LinkedIn | Facebook | Instagram | YouTube
関連リンク