
株式会社サイバーエージェント(本社:東京都渋谷区、代表取締役:藤田晋、東証プライム市場:証券コード4751)は、人工知能技術の研究開発組織「AI Lab」に所属する研究員らによる主著論文がロボティクス分野の国際会議「IROS 2025」(IEEE/RSJ International Conference on Intelligent Robots and Systems)」※1に採択されたことをお知らせいたします。
「IROS」は世界中の研究者や専門家が集まる国際会議で、「ICRA」「RSS」「HRI」※2などと並び、ロボティクス分野で権威あるトップカンファレンスの一つです。この度採択された論文は、2025年10月に中国浙江省 杭州市で開催される「IROS 2025」での発表を予定しています。
今回採択された論文のうち1本は、ロボティクス分野のレター論文誌「IEEE Robotics and Automation Letters(RA-L)」に採択され、同時投稿制度によって「IROS 2025」にも採択されています。
■背景
AI LabのInteractive Agentチームでは2017年より大阪大学大学院基礎工学研究科と共に、ロボットなどの対話エージェントによる接客・広告技術の確立や科学的知見の獲得を目的とした共同研究に取り組んでいます。
また近年では、Activity Understandingチームを中心に、実環境における人々の行動を多角的に計測・理解し、リテールメディアでの効果的な販促施策に活用する技術の社会実装も推進しており、機械学習やロボティクスなど複数分野の知見を活かした研究開発を行っています。
「IROS」は世界中の研究者や専門家が集まる国際会議で、「ICRA」「RSS」「HRI」※2などと並び、ロボティクス分野で権威あるトップカンファレンスの一つです。この度採択された論文は、2025年10月に中国浙江省 杭州市で開催される「IROS 2025」での発表を予定しています。
今回採択された論文のうち1本は、ロボティクス分野のレター論文誌「IEEE Robotics and Automation Letters(RA-L)」に採択され、同時投稿制度によって「IROS 2025」にも採択されています。
■背景
AI LabのInteractive Agentチームでは2017年より大阪大学大学院基礎工学研究科と共に、ロボットなどの対話エージェントによる接客・広告技術の確立や科学的知見の獲得を目的とした共同研究に取り組んでいます。
また近年では、Activity Understandingチームを中心に、実環境における人々の行動を多角的に計測・理解し、リテールメディアでの効果的な販促施策に活用する技術の社会実装も推進しており、機械学習やロボティクスなど複数分野の知見を活かした研究開発を行っています。
論文の概要
「A Noise-Robust Turn-taking System for Real-world Dialogue Robots: A Field Experiment」
著者:井上 昂治(京都大学)*、岡藤 勇希(サイバーエージェントAI Lab)*、馬場 惇(サイバーエージェントAI Lab)、大平 義輝(サイバーエージェントAI Lab)、兵頭 亮哉(サイバーエージェントAI Lab)、河原 達也(京都大学)
*共同筆頭著者
「Anomaly Detection in Human-Robot Interaction Using Multimodal Models Constructed from In-the-Wild Interactions」
著者:望月 翔太(名古屋大学)、山下 紗苗(名古屋大学)、星牟禮 健也(サイバーエージェントAI Lab)、馬場 惇(サイバーエージェントAI Lab)、窪田 智徳 (名古屋大学)、小川 浩平 (名古屋大学)、東中 竜一郎(名古屋大学)
「GSplatVNM: Point-of-View Synthesis for Visual Navigation Models Using Gaussian Splatting」
著者:本田 康平(サイバーエージェントAI Lab/名古屋大学)、石田 岳志(サイバーエージェントAI Lab)、吉村 康弘(サイバーエージェントAI Lab)、米谷 竜(サイバーエージェントAI Lab)
「Opt-in Camera: Person Identification in Video via UWB Localization and Its Application to Opt-in Systems」
著者:石毛 真修(サイバーエージェントAI Lab)、吉村 康弘(サイバーエージェントAI Lab)、米谷 竜(サイバーエージェントAI Lab)
「User Experience Estimation in Human-Robot Interaction via Multi-Instance Learning of Multimodal Social Signals」
著者:三好 遼(サイバーエージェントAI Lab)、岡藤 勇希(サイバーエージェントAI Lab)、岩本 拓也(サイバーエージェントAI Lab)、中西惇也(大阪大学)、馬場 惇(サイバーエージェントAI Lab)
「From Attraction to Engagement: A Robot-Clerk Collaboration Strategy for Retail Success」
著者:宋 思超(サイバーエージェントAI Lab)、岩本 拓也(サイバーエージェントAI Lab)、岡藤 勇希(サイバーエージェントAI Lab)、馬場 惇(サイバーエージェントAI Lab)、中西惇也(大阪大学)、吉川雄一郎(大阪大学)、石黒浩(大阪大学)
■今後
今回採択された6本の論文では、実環境における人とロボットの対話や協働に関する多様な視点からのアプローチを通じて、より円滑な対話や接客インタラクション、環境適応、UX推定、プライバシー配慮といった重要な知見を得ることができました。今後はこれらの成果をもとに、さらに実フィールドでの実験を重ねながら、実用化に向けた技術検証および社会実装の可能性を広げてまいります。
「AI Lab」では今後も、大学・学術機関との産学連携を強化しながら、対話エージェント技術や自律移動技術をはじめとするロボティクス分野の研究開発を推進してまいります。
※1:IROS(IEEE/RSJ International Conference on Intelligent Robots and Systems)
※2:「ICRA」 IEEE International Conference on Robotics and Automation
「RSS」Robotics: Science and Systems
「HRI」ACM/IEEE International Conference on Human-Robot Interaction
※3:ムーンショット型研究開発事業
著者:井上 昂治(京都大学)*、岡藤 勇希(サイバーエージェントAI Lab)*、馬場 惇(サイバーエージェントAI Lab)、大平 義輝(サイバーエージェントAI Lab)、兵頭 亮哉(サイバーエージェントAI Lab)、河原 達也(京都大学)
*共同筆頭著者
本論文では、ユーザの発話終了を予測するVoice Activity Projection (VAP)をノイズ環境下でも適切に動作するモデルを開発し、人の発話終了を先読みしてすばやく応答できるようにするロボットシステムを提案しました。従来方式と比べた実店舗フィールド実験では、提案手法ではユーザの発話終了からのロボットの発話応答時間が2.14 秒から1.15 秒に短縮し、利用者の発話応答速度も早くなることで、対話全体の応答速度が早くなることが発見されました。また、会話の滑らかさ・使いやすさ・期待充足度の主観評価を有意に向上させたことで、よりユーザによって質の高い対話体験を実現出来たことを示しています。 なお本研究はムーンショット型研究開発事業※3の研究プロジェクトの一環として、京都大学との共同研究において実施されました。 <論文URL> https://arxiv.org/abs/2503.06241 |
「Anomaly Detection in Human-Robot Interaction Using Multimodal Models Constructed from In-the-Wild Interactions」
著者:望月 翔太(名古屋大学)、山下 紗苗(名古屋大学)、星牟禮 健也(サイバーエージェントAI Lab)、馬場 惇(サイバーエージェントAI Lab)、窪田 智徳 (名古屋大学)、小川 浩平 (名古屋大学)、東中 竜一郎(名古屋大学)
本論文では、1人のオペレータが複数の対話ロボットを通した対話サービスを制御・操作するために、実データで構築したロボットとユーザの対話破綻を検知するモデルを、オペレータへのアラート機能として実際の遠隔操作ツールに実装し、実フィールドでの接客タスクにて高い効果を発揮することを確認しました。人による判断より少し劣る程度のマルチモーダルな検知モデルが構築され、アラート機能の有用性評価で比較的高い評価を得られました。また、1人で6台を操作する設定の方が4台操作の設定よりもアラートによる介入率が高かったことから、作業負荷が高い状況でより効果を発揮する可能性が示唆されました。 ※論文URL準備中 |
「GSplatVNM: Point-of-View Synthesis for Visual Navigation Models Using Gaussian Splatting」
著者:本田 康平(サイバーエージェントAI Lab/名古屋大学)、石田 岳志(サイバーエージェントAI Lab)、吉村 康弘(サイバーエージェントAI Lab)、米谷 竜(サイバーエージェントAI Lab)
本論文では、任意視点の画像生成が可能な空間表現で知られる3D Gaussian Splatting (3DGS) を、Visual Navigation基盤モデルのための環境地図表現として統合したロボットの自律移動システムを提案しました。提案手法では、ロボットが目的地へ移動するために必要な目標視点画像を3DGSにより生成し、ロボットを制御します。その結果、従来のVisual Navigationでは困難であった、動作環境の画像データが不足している場合の効率的な移動や、「見たことはあるが訪れたことはない場所」への移動を可能としました。本研究の成果は、自律移動ロボット導入の障壁となっていた高精度地図作成や環境画像収集の手間とコストを大幅に削減し、日々レイアウトが変化する商業施設や展示会場など、実環境におけるロボット活用の可能性を大きく広げる可能性を示しています。 <論文URL> https://arxiv.org/abs/2503.05152 |
「Opt-in Camera: Person Identification in Video via UWB Localization and Its Application to Opt-in Systems」
著者:石毛 真修(サイバーエージェントAI Lab)、吉村 康弘(サイバーエージェントAI Lab)、米谷 竜(サイバーエージェントAI Lab)
本論文では、映像取得に同意(オプトイン)した人物のみを選択的に映像に残せる、プライバシー配慮型のカメラ計測手法を提案しました。超広帯域(UWB)無線通信デバイスをオプトインタグとして同意者に持たせることで、映像の中の誰が同意しているかを自動判別し、それ以外の人物をマスキングする仕組みです。実験により高い確度で同意者のみを抽出できることが確認できました。本技術はプライバシー懸念の緩和し、小売や公共施設におけるAIカメラの普及促進に貢献する可能性があります。 <論文URL> https://arxiv.org/abs/2409.19891 参考: カメラを用いた店内計測におけるオプトインの仕組みの実現 | CADC 2024 |
「User Experience Estimation in Human-Robot Interaction via Multi-Instance Learning of Multimodal Social Signals」
著者:三好 遼(サイバーエージェントAI Lab)、岡藤 勇希(サイバーエージェントAI Lab)、岩本 拓也(サイバーエージェントAI Lab)、中西惇也(大阪大学)、馬場 惇(サイバーエージェントAI Lab)
本論文では、ロボットとの対話中に得られるユーザの顔画像と音声を用いて、ユーザ体験(UX)を定量的に推定するTransformerベースのマルチインスタンス学習モデルを提案しました。実験では、実験室内において被験者に複数のシナリオでロボットと対話してもらい、UX評価データセットを構築しました。提案モデルは短期・長期的な社会的信号の特徴を統合的に捉えることで、既存の単一モダリティモデルや第三者評価よりも高い精度でUXを推定可能であることが確認されました。また、視覚と音声のマルチモーダル統合がUX推定精度を向上させることも示されました。今後はリアルタイム推定や実環境での適用を目指した展開が期待されます。 <論文URL> http://arxiv.org/abs/2507.23544 |
「From Attraction to Engagement: A Robot-Clerk Collaboration Strategy for Retail Success」
著者:宋 思超(サイバーエージェントAI Lab)、岩本 拓也(サイバーエージェントAI Lab)、岡藤 勇希(サイバーエージェントAI Lab)、馬場 惇(サイバーエージェントAI Lab)、中西惇也(大阪大学)、吉川雄一郎(大阪大学)、石黒浩(大阪大学)
本研究は、大阪の高価格帯寝具専門店で対話サービスロボットを店頭に配置し、①ロボットが通行客を呼び込み商品サンプルに触れさせる ②ロボットが裏で店員を呼び三者トークで自然に引き継ぐ ③店員が詳しい接客を行う、という “R-RC-C” 連携モデルの効果を検証しました。12 日間の実験の結果、ロボット単独でも来店客数は従来の約2.5倍に、商品タッチ時間は9倍に増加し、ロボットと店員の連携を加えることで店内誘導率はさらに約3倍に向上しました。また来店者の70%が「ロボットを見て入店した」と回答し、高価格商品でもロボットが集客と興味喚起を担い、店員が信頼形成と購入支援を行う役割分担が実店舗で有効である可能性が示されました。 なお本研究はムーンショット型研究開発事業※3の研究プロジェクトの一環として、大阪大学大学院基礎工学研究科の先端知能システム共同研究講座との共同研究において実施されました。 <論文URL> https://ieeexplore.ieee.org/abstract/document/10994399 |
■今後
今回採択された6本の論文では、実環境における人とロボットの対話や協働に関する多様な視点からのアプローチを通じて、より円滑な対話や接客インタラクション、環境適応、UX推定、プライバシー配慮といった重要な知見を得ることができました。今後はこれらの成果をもとに、さらに実フィールドでの実験を重ねながら、実用化に向けた技術検証および社会実装の可能性を広げてまいります。
「AI Lab」では今後も、大学・学術機関との産学連携を強化しながら、対話エージェント技術や自律移動技術をはじめとするロボティクス分野の研究開発を推進してまいります。
※1:IROS(IEEE/RSJ International Conference on Intelligent Robots and Systems)
※2:「ICRA」 IEEE International Conference on Robotics and Automation
「RSS」Robotics: Science and Systems
「HRI」ACM/IEEE International Conference on Human-Robot Interaction
※3:ムーンショット型研究開発事業