日本語タイトル#
詐欺に対する対抗攻撃:クレジットカード詐欺検出における移転可能な対抗攻撃
英文タイトル#
Foe for Fraud: Transferable Adversarial Attacks in Credit Card Fraud Detection
日本語摘要#
クレジットカード詐欺検出(CCFD)は、金融分野における機械学習(ML)の重要な応用であり、詐欺的な取引を正確に特定することが財務損失を軽減するために不可欠です。 ML モデルは、特に表形式データセットにおいて、詐欺検出タスクでその効果を示しています。 対抗攻撃はコンピュータビジョンや深層学習で広く研究されていますが、特に CCFD の表形式データセットで訓練されたモデルに対する ML モデルへの影響は、ほとんど探求されていません。 これらの潜在的な脆弱性は、特に高価値の取引において、損失が非常に大きくなる可能性があるため、金融業界の安全性と安定性に重大な脅威をもたらします。 このギャップを解決するために、本論文では、異なる状況下での対抗摂動に対する CCFD ML モデルの堅牢性を調査する包括的なフレームワークを提案します。 具体的には、勾配ベースの攻撃方法を表形式のクレジットカード取引データに組み込み、ブラックボックスおよびホワイトボックスの対抗攻撃設定でテストを行います。 私たちの研究結果は、表形式データも微細な摂動に影響を受けやすいことを確認し、金融技術の実務者が ML モデルの安全性と信頼性についての認識を高める必要があることを強調しています。 さらに、勾配ベースの攻撃方法から非勾配ベースのモデルへの対抗サンプルを転送する実験も私たちの発見を検証しています。 私たちの結果は、このような攻撃が依然として効果的であることを示しており、CCFD アルゴリズムに対する堅牢な防御策の開発の必要性を強調しています。
英文摘要#
Credit card fraud detection (CCFD) is a critical application of Machine Learning (ML) in the financial sector, where accurately identifying fraudulent transactions is essential for mitigating financial losses. ML models have demonstrated their effectiveness in fraud detection task, in particular with the tabular dataset. While adversarial attacks have been extensively studied in computer vision and deep learning, their impacts on the ML models, particularly those trained on CCFD tabular datasets, remains largely unexplored. These latent vulnerabilities pose significant threats to the security and stability of the financial industry, especially in high-value transactions where losses could be substantial. To address this gap, in this paper, we present a holistic framework that investigate the robustness of CCFD ML model against adversarial perturbations under different circumstances. Specifically, the gradient-based attack methods are incorporated into the tabular credit card transaction data in both black- and white-box adversarial attacks settings. Our findings confirm that tabular data is also susceptible to subtle perturbations, highlighting the need for heightened awareness among financial technology practitioners regarding ML model security and trustworthiness. Furthermore, the experiments by transferring adversarial samples from gradient-based attack method to non-gradient-based models also verify our findings. Our results demonstrate that such attacks remain effective, emphasizing the necessity of developing robust defenses for CCFD algorithms.
文章ページ#
詐欺に対する対抗攻撃:クレジットカード詐欺検出における移転可能な対抗攻撃
PDF 获取#
抖音扫码查看更多精彩内容