日本語タイトル#
ペアサンプリング対比フレームワークによる物理 - デジタル顔攻撃検出の統合
英文タイトル#
Paired-Sampling Contrastive Framework for Joint Physical-Digital Face Attack Detection
日本語摘要#
現代の顔認識システムは、物理的な提示攻撃やデジタル偽造を含む欺瞞試行に対して依然として脆弱です。従来、これら 2 つの攻撃ベクトルはそれぞれ別々のモデルによって処理されており、各モデルはそれぞれのアーティファクトとモダリティを対象としています。しかし、異なる検出器を維持することはシステムの複雑さと推論遅延を増加させ、システムを組み合わせた攻撃ベクトルにさらすことになります。私たちは、ペアサンプリング対比フレームワークを提案します。これは、自動的にマッチングされた本物と攻撃のセルフィーのペアを利用して、モダリティに依存しない生体信号を学習する統一されたトレーニングアプローチです。第 6 回顔認識反欺瞞チャレンジ統一物理 - デジタル攻撃検出ベンチマークで評価した結果、私たちの方法は平均分類誤差率(ACER)2.10%を達成し、従来の解決策を上回りました。このフレームワークは軽量(4.46 GFLOPs)で、1 時間以内にトレーニングを完了し、実際の展開に適しています。コードと事前トレーニング済みモデルは https://github.com/xPONYx/iccv2025_deepfake_challenge で入手できます。
英文摘要#
Modern face recognition systems remain vulnerable to spoofing attempts, including both physical presentation attacks and digital forgeries. Traditionally, these two attack vectors have been handled by separate models, each targeting its own artifacts and modalities. However, maintaining distinct detectors increases system complexity and inference latency and leaves systems exposed to combined attack vectors. We propose the Paired-Sampling Contrastive Framework, a unified training approach that leverages automatically matched pairs of genuine and attack selfies to learn modality-agnostic liveness cues. Evaluated on the 6th Face Anti-Spoofing Challenge Unified Physical-Digital Attack Detection benchmark, our method achieves an average classification error rate (ACER) of 2.10 percent, outperforming prior solutions. The framework is lightweight (4.46 GFLOPs) and trains in under one hour, making it practical for real-world deployment. Code and pretrained models are available at https://github.com/xPONYx/iccv2025_deepfake_challenge.
文章ページ#
ペアサンプリング対比フレームワークによる物理 - デジタル顔攻撃検出の統合
PDF 入手#
抖音でスキャンしてさらに素晴らしいコンテンツを見る