Thoth Children!!|
新規Thoth投稿
MaxPooling層
Poolingは入力のデータを削減することや特徴を位置のずれに強くするために使用する。 MaxPooling層は候補のうちから最大を一つ選ぶ。
PV 185
Fav 0
2017.09.13
DeepLearningの特殊適用例
DeepLearningの特殊適用例を紹介します。
PV 93
Fav 0
2017.09.13
DeepLearningの時系列認識適用例
DeepLearningを時系列データに対して適用した例を紹介します。 動画、音声、文章、時系列データ等様々な例を紹介します.
PV 87
Fav 0
2017.09.13
DeepLearningの画像認識適用例
DeepLearningを画像データに適用した例を紹介します. 画像に対して、認識、分類、生成、分割等々様々な目的の学習をさせます。
PV 112
Fav 0
2017.09.13
Momentum最適化関数
SGDではランダムにデータを選んでパラメータ更新を行ったことで値がばたつきなかなか収束しない.慣性項を加えたことで、パラメータ更新に勢いをつけ学習を早くした.
PV 233
Fav 0
2017.09.13
恒等活性化関数
線形活性化関数で傾きa=1とした恒等活性化関数. ニューラルネットでは通常使用されない.
PV 115
Fav 0
2017.09.13
RMSProp最適化関数
ニューラルネットワークの学習係数を自動で調整する最適化関数の一つ. Adagradで問題だった学習が進むにつれて学習係数が小さくなるのを回避. (その点ではAdadeltaと目的は同じ)
PV 229
Fav 0
2017.09.13
SGD最適化関数
学習の更新を行うときに適当に一つ選択した訓練データを用いて誤差を計算していく確率的勾配降下法(Stochastic Gradient Descent).
PV 179
Fav 0
2017.09.13
Adagrad最適化関数
学習係数を自動調整していく最適化関数の一つ. 過去の勾配と最新の勾配を元に各パラメータごとに学習率を調整するのが特徴. Adam, Adadelta, RMSPropはAdagradを改良したもの
PV 380
Fav 0
2017.09.13
Adadelta最適化関数
学習係数を自動で調整する最適化関数. Adagradで学習が進むにつれて学習係数が0になってしまう点を改良した最適化関数. 単位を揃えることで学習係数の初期値を不要にしている.
PV 254
Fav 0
2017.09.13
Adam最適化関数
学習係数を自動で調整させる最適化関数の一つ. Adagrad, RMSPropを改良し移動平均を付け加えた最適化関数.
PV 509
Fav 0
2017.09.13
ソフトマックス活性化関数
ソフトマックスは複数の値があるときに、それらの合計が1になり各出力が0から1の値になるように調整してくれる活性化関数.
PV 159
Fav 0
2017.09.13
DeepLearningとは何か
DeepLearningはニューラルネットワークを強化させた機械学習技術の一つ. 近年AIと呼ばれているものはこの技術を元にしているものを指している。 特に画像処理や音声認識等で主な成果をあげているが、他の分野の波及も広い
PV 98
Fav 0
2017.09.13
DeepLearningの歴史
DeepLearningの歴史に関して簡単について紹介する。現在のニューラルネットワークは3回目のブームとなっている.
PV 106
Fav 0
2017.09.13
線形活性化関数
y=axで定められる入力に対して線形な出力値を出す活性化関数.絶対に使われない. 効果的な学習を行うには活性化関数は常に非線形活性化関数を使う必要がある.
PV 151
Fav 0
2017.09.13
RRelu活性化関数
PReluでは傾きを学習していたが、RReluではある幅の中で傾きをランダムにしている. Randomized Leaky Relu活性化関数と呼ばれる.
PV 326
Fav 0
2017.09.13
PRelu活性化関数
LeakyReluを改良して、学習しながら適切な傾きを変更していく. PRelu活性化関数.
PV 477
Fav 0
2017.09.13
LeakyRelu活性化関数
Reluでxが負の場合を改良したLeakyRelu活性化関数.
PV 621
Fav 0
2017.09.13
Relu活性化関数
最も現在使われることの多い活性化関数。 xが負のとき0それ以外は恒等関数. シグモイドなどより計算が早いことが特徴.
PV 797
Fav 0
2017.09.13
活性化関数とは
Deep Learningで層の出力の際に必ず使われる活性化関数。 活性化関数は、そのニューロンの出力を補正してやる役割があり、発散等を防いでいます。これらはネットワークの表現力を高くするために常に非線形関数が用いられます.
PV 356
Fav 0
2017.09.13
Pop技術
  • K
    点が三角形の内側か判定したい
  • S
    ロボットの力制御の種類
  • K
    同次変換行列
  • S
    GAN
  • K
    インピーダンス制御
  • S
    重力補償機構
  • K
    ベクトルを特定の平面に射影したい
  • S
    点群から検出したい
  • K
    ベクトルを別のベクトルに射影したい
  • S
    気体の可視化手法
  • K
    行列を分解して上下三角行列が欲しい
  • S
    ロボットエンドエフェクタの位置制御
  • K
    アドミッタンス制御
  • S
    オプティカルフロー
  • K
    点が直線上の右か左にあるか判定したい
  • S
    点群を間引きたい
  • K
    ヤコビ行列による逆運動学
  • S
    ニューラルネットワーク
  • K
    時系列間の類似度計算を選ぶ
  • S
    逆運動学
  • K
    パーティクルフィルタ
  • S
    ニューラルネット学習の工夫
  • K
    シャドウグラフによる可視化
  • S
    点群をデータ構造で持つ
  • K
    ピンホールとレンズの違いを知りたい
  • S
    RELU系活性化関数
  • K
    多変数関数の極大極小を判定したい
  • S
    点群から特徴量を出したい
  • K
    シンプルに逆行列を求めたい
  • S
    Convolution
  • K
    力制御
  • S
    ベクトル間の類似度が欲しい
  • K
    平面と平面のなす角度
  • S
    活性化関数基本
  • K
    確率分布間の差異で類似度を求めたい
  • S
    二値化フィルタ
  • K
    グラッドストーン・デールの式
  • S
    Pooling
  • K
    点群データから法線算出をしたい
  • S
    極大極小鞍点か判定したい
  • K
    シュリーレン法
  • S
    シートベルトの仕組みを知りたい
  • K
    勾配に注目したオプティカルフロー
  • S
    Sigmoid系活性化関数
  • K
    CTC損失関数
  • S
    DeepLearningとは
  • K
    Lucas Kanade法
  • S
    時系列間の類似度が欲しい
  • K
    点群から最近傍点を検出したい
  • S
    Adam系最適化関数
  • K
    点群を平面に近似したい
  • S
    いろいろな距離が欲しい
  • K
    オプティカルフローとは
  • S
    点群処理を実装したい
  • K
    点群の形状的局所特徴量を出したい
  • S
    点群から法線を出したい
  • K
    グレンジャー因果検定
  • S
    特殊な層
  • K
    文字列を簡単な置換による暗号化したい
  • S
    ロボットのリンクの数学的基礎
人気分野/目的
SNS
Facebookシェア このエントリーをはてなブックマークに追加