EN-JP: 深層学習(ディープラーニング)のアドバイスやコツ

English日本語
Adaptive learning rates適応学習率
Analytical gradient解析的勾配
Architectureアーキテクチャ
Backpropagation誤差逆伝播法
Batch normalizationバッチ正規化
Binary classification二項分類
Calculation計算
Chain rule連鎖律
Coefficients係数
Color shiftカラーシフト
Contrast changeコントラスト(鮮やかさ)の修正
Convolution layer畳み込み層
Cross-entropy loss交差エントロピー誤差
Dampens oscillations振動を抑制する
Data augmentationデータ拡張
Data processingデータ処理
Deep learning深層学習
Derivative微分
DropoutDropout (ドロップアウト)
Early stoppingEarly stopping (学習の早々な終了)
Epochエポック
Error損失
Evaluation評価
Finding optimal weights最適な重みの探索 
Flip反転
Forward propagation順伝播
Fully connected layer全結合層
Gradient checking勾配チェック
Gradient descent勾配降下法
Gradient of the loss損失の勾配
Hyperparameter ハイパーパラメータ
Improvement to SGDSGDの改良
Information loss情報損失
Learning algorithm学習アルゴリズム
Learning rate学習率
Loss function損失関数
Mini-batchミニバッチ
MomentumMomentum(運動量)
Neural network trainingニューラルネットワークの学習
Noise additionノイズの付加
Non-linear layer非線形層
Numerical gradient数値的勾配
Optimizing convergence収束の最適化
Output出力
Overfitting過学習
Parameter tuningパラメータチューニング
Parametrizeパラメータ化する
Pre-trained weights学習済みの重み
Prevent overfitting過学習を避けるために
Random cropランダムな切り抜き
Regularization正規化
Root Mean Square propagation二乗平均平方根のプロパゲーション
Rotation回転
Transfer learning転移学習
Type種類
Updating weights重み更新
Validation lossバリデーションの損失
Weight regularization重みの正規化
Weights initialization重みの初期化
Xavier initializationXavier初期化

Leave a Reply