zikele

zikele

人生如此自可乐

ReCA:パラメータ化されたReLU複合活性化関数

2504.08994v2

日本語タイトル#

ReCA:パラメトリック ReLU 複合活性化関数

英文タイトル#

ReCA: A Parametric ReLU Composite Activation Function

日本語要約#

活性化関数は深層神経ネットワークの性能に大きな影響を与えることが示されています。 修正線形単位(ReLU)は実際には主要な選択肢であり続けていますが、深層神経ネットワークに最適な活性化関数は依然として未解決の研究課題です。本論文では、ReLU に基づく新しいパラメトリック活性化関数 ReCA を提案します。この関数は、異なる複雑な神経ネットワークアーキテクチャを使用した最先端のデータセットで、すべてのベースラインを上回る性能を示しています。

英文要約#

Activation functions have been shown to affect the performance of deep neural networks significantly. While the Rectified Linear Unit (ReLU) remains the dominant choice in practice, the optimal activation function for deep neural networks remains an open research question. In this paper, we propose a novel parametric activation function, ReCA, based on ReLU, which has been shown to outperform all baselines on state-of-the-art datasets using different complex neural network architectures.

PDF 取得#

中文 PDF を表示 - 2504.08994v2

スマート达人抖店 QR コード

抖音でスキャンしてさらに素晴らしいコンテンツを見る

読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。