このページの本文へ移動

Menu

メニュー

  • 企業 
  • ニュース 
  • サービス 
  • 技術・クリエイティブ 
  • 採用 
  • 投資家情報 
  • サステナビリティ 
  • CyberAgent Way 

 

協賛

Visual Computing 2025(VC2025)のプラチナスポンサーを務めます

株式会社サイバーエージェントは2025年9月7日(日)~10日(水)にかけて早稲田大学 国際会議場にて開催される「Visual Computing 2025」のプラチナスポンサーを務めます。
 

Visual Computing 2025について

今年で開催33回目を迎える、産学の垣根を超えて技術者・研究者・クリエイターが交流する、コンピュータ・グラフィックスおよび周辺分野における国内最大規模のシンポジウムです。

Visual Computing 2025において株式会社サイバーエージェントは、スポンサー講演・口頭発表・企業展示を行います。
企業展示では、サイバーエージェントのコンピューターグラフィックス・コンピュータビジョン領域に関する研究、プロダクトへの応用事例を紹介予定です。

当社の研究開発についてのご質問がある方や、採用情報などにご興味がある方はお気軽にブースにお越しください。
参加希望の方はこちらからご登録下さい。


【スポンサーセッション】
日時 9月8(月)14:10 - 15:00
タイトル サイバーエージェントにおける3DGS x VirtualProductionの取り組み
講演者 片桐 敬太 (AI事業本部 AIクリエイティブDiv. Computer Vision Engineer)
概要 大型のLEDディスプレイを用いたVirtual Productionにおいて、LEDへ映し出す背景を最先端のAI技術(3DGS)で制作する取り組みについてご紹介します。

【口頭発表・招待講演プログラム】
*共同研究の成果も含みます。
日時 9月9日(火)10:45 - 11:40 論文セッション2(姿勢・モーション)
タイトル [15] Motion Changer:量子化コードの補間学習による高速動作変換
著者 栗山 繁(豊橋技術科学大学/AI Lab Graphicsチーム リサーチサイエンティスト)
概要 近年提案されている動作データの変換技術の多くは、オンライン・リアルタイム処理に対応していません。本研究では、動作の時間分割と類似区間の置換に基づくスタイル転移において、計算効率向上のためベクトル量子化を導入し、トランスフォーマや拡散モデルに頼らない、高速で高精度なスタイル転移とリターゲットを同時に実現します。提案手法では、離散化により動作の滑らかさや個性が損なわれる問題に対し、量子化コードを動径基底関数で補間することで滑らかな動作再構成を可能にし、さらに補間係数の疎な分布の特徴を転移させることで、特徴の異なるデータ間の柔軟かつ頑健な照合を実現します。
 
日時 9月9日(火)10:45 - 11:40 論文セッション2(姿勢・モーション)
タイトル [17] A Diffusion-Based Framework for Human-Object Interaction Synthesis via Pose-Grasp Decoupling
著者 Masaki Yoshioka (Waseda University), ○Qi Feng (Waseda Research Institute for Science and Engineering), Shugo Yamaguchi (Waseda University), Takafumi Taketomi (CyberAgent), Shigeo Morishima (Waseda Research Institute for Science and Engineering)
概要 Generating realistic, full-body interactions between humans and objects is a critical challenge in visual synthesis, particularly in achieving natural hand grasps. Existing methods often fail to jointly model the global body posture and the intricate details of hand-object contact. We propose a diffusion-based framework that addresses this limitation by decoupling the generation into two stages: global pose generation and local grasp refinement. The first stage estimates a plausible full-body pose using object geometry and learned priors. In the second stage, specialized module refines the hand-object interaction to ensure physical plausibility. To overcome data scarcity, we construct a large-scale synthetic dataset with precise 3D annotations, enhanced to photorealism using diffusion. Experiments validate our approach, showing it successfully generates diverse and physically sound human-object interactions while outperforming current state-of-the-art methods across various objects.
 
日時 9月10日(水)10:55 - 11:50 論文セッション6(画像生成・編集)
タイトル [30] 構造不一致な参照画像ペアに対応可能な文脈内学習画像編集
著者 栗山 繁(豊橋技術科学大学/AI Lab Graphicsチーム リサーチサイエンティスト)
概要 近年、視覚的な変化を示す参照画像ペアをモデルに与え、モデルを再学習することなく同様の変化を他の画像に適用する「視覚的文脈内学習」が注目を浴びています。先行研究は、自己注意機構の注意関係を操作することで、事前学習済み生成モデルを直接応用した視覚的文脈内学習画像編集を実現しました。しかし、参照画像ペアに対して厳密な構造一致の制約が求められ、そのようなペアの獲得において実用性を大きく欠きます。提案手法では、参照画像間の語義的対応関係に基づいて編集対象画像の自己注意機構における類似度情報を補完・転写することで、構造が一致しない参照画像ペアによる編集指示を可能としました。さらに、ユーザーが指定した編集領域に対して局所的に特徴変換を適用するためにマスク画像を導入し,自己注意の挙動を制御する手法を併用しました。複数の画像処理タスクにおける比較実験により、本手法の視覚的な有効性と柔軟性を実証しました。

【スポンサー展示】  
日時 9月8日(月)~10(水)早稲田大学 国際会議場 1 階ロビー
概要 会社概要、各事業部の研究開発や採用情報についてご紹介します。
当日はリサーチサイエンティスト・エンジニア・人事がブースにて対応いたします。
  

<関連リンク>

VC2025公式サイト:https://visualcomputing.jp/vc2025/
Dvelopers Blog:https://developers.cyberagent.co.jp/blog/archives/category/engineer/
AI Lab 公式サイト:https://cyberagent.ai/ailab/
AI Lab Graphicsチームサイト:https://research.cyberagent.ai/research/computer-graphics/