このページの本文へ移動

Menu

メニュー

  • 企業 
  • ニュース 
  • サービス 
  • 技術・クリエイティブ 
  • 採用 
  • 投資家情報 
  • サステナビリティ 
  • CyberAgent Way 

 

プレスリリース

AI Lab、コンピュータ・ビジョン分野のトップカンファレンス「CVPR 2026」にて2本の論文採択

AI

株式会社サイバーエージェント(本社:東京都渋谷区、代表取締役社長:山内 隆裕、東証プライム市場:証券コード4751)は、人工知能技術の研究開発組織「AI Lab」のインターンシップ参加者である李 映萱※1、ならびに研究員の毛 家豊、邱 倩如、佐藤 文彬、関井 大気らによる論文2本が、コンピュータ・ビジョン分野の国際会議「CVPR 2026」※2に採択されたことをお知らせいたします。

「CVPR」は、コンピュータ・ビジョン分野における世界最高峰の国際会議のひとつです。2026年6月3日から7日にかけてアメリカ・コロラド州で開催される本会議にて発表を行います。

また2本の論文に加えて、併設ワークショップVideo Generative Models: Benchmarks and Evaluationにて、動画中の顔パーツの入れ替えに関する論文※3が採択され発表を行います。
■背景
近年、深層学習の飛躍的な発展により、画像生成や認識技術は実社会の様々な領域で活用が進んでいます。しかし、AIが画像データを読み取る際、色やテクスチャといった表面的な情報に依存しすぎてしまったり、背景などの本質的でない情報を選好して学習してしまうなど、データの真の構造を正しく捉える技術は、AIの信頼性における重要課題です。

採択された論文の概要

Learning from Synthetic Data via Provenance-Based Input Gradient Guidance
 著者:長野 紘士朗(慶應義塾大学)・ 藤井 亮 (慶應義塾大学)・ 八馬 遼(Independent Researcher)・ 佐藤 文彬(サイバーエージェント AI Lab)・ 関井 大気(サイバーエージェント AI Lab)・ 斎藤 英雄(慶應義塾大学)

AIモデルの学習においては、対象物そのものではなく背景や周辺環境の“たまたまの偏り”を手がかりにしてしまうという課題があります。本研究は、合成データ生成時に自動的に分かる「どの領域が対象由来か」という情報を活用し、AIの注目を対象領域へ誘導する手法を提案しました。この手法は、人手によるラベル付けを一切介することなく、従来の画像分類や物体検知の精度を大幅に向上させることが可能です。特に環境の変化が激しい実社会のシナリオにおいて、AIの判断の信頼性と頑健性を大きく高める成果を収めました。これにより、野外の画像認識・映像中の行動理解・物体の位置推定など、条件変化の大きい実環境で求められる頑健な認識性能の向上が期待されます。

 

Region-Wise Correspondence Prediction between Manga Line Art Images
 著者:李 映萱(東京大学)・ 毛 家豊(サイバーエージェント AI Lab)・ 邱 倩如(サイバーエージェント AI Lab)・ 松井 勇佑(東京大学)

コンピュータ・ビジョンにおける画像処理技術では、情報量の極めて少ない白黒の線画画像から、特定のパーツや領域を正しく識別・紐付けすることが、長年の技術的課題となっていました。本研究では、色や質感などの情報に頼らず、線画が持つ構造的な特徴のみから領域間の対応関係を予測する、新たなTransformerベースの手法を開発しています。本手法は、実データへの人手のアノテーションを介さない自律的な学習を可能にしました。複雑な線画の中でも構造的一貫性を維持しながら、高精度なパーツの紐付けを実現しており、実験では領域レベルで最大84.4%という高い精度を記録。本成果は、情報の乏しい画像データに対するAIの理解力を飛躍的に高める基盤技術として期待されます。

■今後
今回発表した研究成果は、デジタル表現における精密な処理を支える基盤技術や、より高度な判断が求められるAIの信頼性向上など、学術および実社会の課題解決に貢献します。AI Labでは、今後もテクノロジーを通じた技術的課題の解決に取り組んでまいります 。


※1 東京大学所属(論文執筆当時) 2025年2月1日から2026年1月31日までリサーチインターンシップに参加し、現在はサイバーエージェントに所属
※2 The IEEE/CVF Conference on Computer Vision and Pattern Recognition 2026
※3 「V-PartSwap: Motion-Consistent Facial Part Transfer
   Weng Ian Chan・Yuantian Huang・Xingchao Yang・Fumio Okura・Takafumi Taketomi