機械学習

パソコンに多種多様な仕事を行ってもらうために人間が全てを用意するのは大変で、教えることが難しいことも多いのが実情です。 機械学習によってある程度指針を人間で示しながら自動でパソコンに賢くなってもらい、ときには人間を凌駕するような性能を発揮してもらいます。
2017.9.3
  • 265
    Views
  • 1
    Watch
  • 92
    Knows

機械学習の新規投稿

K
Edition: 1
単純ベイズ分類器
単純ベイズ分類器(ナイーブベイズ)は、特徴間は全て独立という強引な前提を置き、ベイズの定理を使用することで、特徴量を入力にクラスを分類する分類器.単純で実装も容易ではあるが、一部のアプリケーションで十分に働く.メールのスパム分類で使用されたことで有名.
  • 2019.03.04
  • 119
  • PV
  • 0
  • Fav
K
Edition: 1
PR曲線
PR曲線(Precision-Recall Curve)は、2クラスの分類の評価指標を与える曲線で、精度(Precision)と再現率(Recall)を軸にプロットしたグラフ.理想的な状態は右上に曲線が張り付く状態.大方ROC曲線と同じだが、ROC曲線より注目データに偏りがあって少ないデータしかないクラスがあるときに有用.
  • 2019.02.07
  • 122
  • PV
  • 0
  • Fav
K
Edition: 1
交差検証法
データが少ない時には学習器の推定精度を適切に評価しにくいため、工夫が必要となります.交差検証法(Cross Validation法)は、一部を訓練データとして他をテストデータとした評価を何度か行い、どのデータもテストデータとも訓練データとも使用して評価をすることで予測誤差、推定精度をより正確にする手法です.
  • 2019.02.01
  • 56
  • PV
  • 0
  • Fav
K
Edition: 1
ROC曲線
ROC曲線(受信者操作特性, Receiver Operating Characteristic)は、2クラスの分類の評価指標を与える曲線.もともとは信号処理の分野において用いられていたものだが、他分野でも使用されている.ある閾値を変えていく過程で再現率を縦軸、偽陽性率を横軸にプロットしたグラフ.曲線の下側の面積をAUC(Area Under Curve)と呼び、1に近いほどよく、曲線は左上に張り付いている方がよい.
  • 2019.01.29
  • 80
  • PV
  • 0
  • Fav
K
Edition: 1
Convolutionの誤差逆伝播
畳み込み層(Convolution層)の誤差逆伝播の計算についてのみまとめているページです.Convolutionの誤差逆伝播では、後続層からの入力と180度回転したConvolution層のパラメータ、順伝播の入力値を使って計算します.
  • 2019.01.28
  • 56
  • PV
  • 0
  • Fav
K
Edition: 1
One Hot ベクトル
One Hot ベクトル(One Hot Vector , One-of-K表記法)は、ベクトルの全要素のうち一つだけ1で他は0になっているベクトルをさす.
  • 2019.01.10
  • 75
  • PV
  • 0
  • Fav
K
Edition: 1
ベイジアンネットワークとは
ベイジアンネットワークとは、事象の状態や確率などから未知の事象の確率を推定するような確率推定ができる有向非循環なグラフィカルモデルで表現されるネットワーク.各事象が条件付き確率を伴って因果関係で結ばれる形でグラフ表現されている.各事象は原因となっている親ノード以外とは独立であるとされる.離散的な確率が用いられることが多いが連続的な確率も適用可能.
  • 2018.12.08
  • 46
  • PV
  • 0
  • Fav
K
Edition: 1
Attention機構
Attention機構(注意機構)とは、主に機械翻訳や画像処理等を目的としたEncoder-Decoderモデルに導入される要素ごとの関係性、注意箇所を学習する機構.機械翻訳において翻訳対象の単語間の関係性や全体のコンテキストを考慮させるために考案されたものだが、画像処理などにおいても応用されている.
  • 2018.12.08
  • 182
  • PV
  • 0
  • Fav
K
Edition: 1
CTC損失関数
CTC Loss(損失関数) (Connectionist Temporal Classification)は、音声認識や時系列データにおいてよく用いられる損失関数で、最終層で出力される値から正解のデータ列になりうる確率を元に計算する損失関数.LSTMやRNNなどの出力を受けて正解文字列の確率を計算する.HMMのように前向き後ろ向きアルゴリズム、動的計画法を元に計算、微分可能であり誤差逆伝播が可能.
  • 2018.12.08
  • 180
  • PV
  • 0
  • Fav
K
Edition: 1
CNNで画像内文字列をOCR
CNNを使って画像の文字列を認識してプログラムで扱える文字列に起こすOCRの例について紹介します.文字列が可変の場合に対応したCNN+LSTMで構成される基本的なネットワークです.
  • 2018.12.06
  • 184
  • PV
  • 0
  • Fav
K
Edition: 1
Feature Matching
Feature Matchingとは、GANなどのネットワークで起きるMode Collapseの問題を改善するためにDiscriminatorの中間層を使ってGeneratorのコスト関数を書き換える手法のこと.
  • 2018.12.04
  • 34
  • PV
  • 0
  • Fav
K
Edition: 1
Minibatch Discrimination
Minibatch Discriminationは、GANなどで主に見られるMode Collapseのような問題に対して、複数枚の画像同士が似ているかのスコアをDiscriminatorに与えることで回避する.
  • 2018.12.04
  • 40
  • PV
  • 0
  • Fav
K
Edition: 1
Mode Collapseとは
Mode Collapseとは、GAN等で主に問題となる数種類の結果のみを出力するようになってしまう問題のこと.例えば1から10までの数字の画像生成をさせようと学習しても6ばかり出すようになってしまう.
  • 2018.12.04
  • 108
  • PV
  • 0
  • Fav
K
Edition: 1
Growing Neural Gas
Growing Neural Gas(成長型ニューラルガス)とは、教師なしニューラルネットワークの一つで、Neural Gasが強く初期値に依存してしまうのを避け必要とあればネットワークを拡張するNeural Gasの一種.良い性能を発揮することで知られ、クラスタ分析においてはk-meansよりも優れていると言われる.
  • 2018.12.01
  • 58
  • PV
  • 0
  • Fav
K
Edition: 1
競合学習
競合学習(Competitive Learning)とは教師なし学習で頻繁に行われる学習で、最も入力データに反応したニューロンのみ更新したりするようなニューロン同士で競わせるような学習.winner-take-allな学習で勝者となったニューロンは入力データにより近くなるように更新する.自己組織化マップは競合学習の一つ.競合学習では入力層と競合層を持つ.
  • 2018.12.01
  • 60
  • PV
  • 0
  • Fav
K
Edition: 1
Neural Gas
Neural Gasは元々の多数の入力ベクトルデータを少数の特徴的なベクトルを用いて代用するベクトル量子化に利用されるニューラルネットワーク. Neural Gasはよく自己組織化マップ(SOM)と比較されるが、自己組織化マップは学習時に隣接ベクトルとの制約があるのに対してNeural Gasはそれを持たない.
  • 2018.12.01
  • 36
  • PV
  • 0
  • Fav
K
Edition: 1
自己組織化マップ
自己組織化マップ(Self-organizing maps, SOM)は大脳皮質の視野覚をモデル化したニューラルネットワークの一種で教師なし学習によって次元圧縮を実現する技術.任意の次元の入力ベクトルを任意の次元の出力に写像することができるが、入力ベクトルの方が次元が高く、一般的に出力の次元は1次元から3次元に写像することが多い.繰り返し計算によって学習を行う.
  • 2018.11.29
  • 24
  • PV
  • 0
  • Fav
K
Edition: 1
Super Slomo
Super SlomoはNVidiaによって発表されたスローモーションを実現するために作成されたフレーム間補間を行う技術.Convolutional Neural Network(CNN, Unet)を主に用いている.
  • 2018.10.21
  • 50
  • PV
  • 0
  • Fav
K
Edition: 1
SegNet
SegNetはFCNより解像度よくSemanticSegmentationを行うことができるネットワーク.UnPooling層をDecoderに用いることでより細かい領域分割ができることを可能にした.またUnpoolingを用いて省メモリになったことも特徴.
  • 2018.09.16
  • 48
  • PV
  • 0
  • Fav
K
Edition: 1
FCN (Semantic Segmentation)
FCN(Fully Convolutional Networks for Semantic Segmentation)は、FCNのネットワーク構造を用いてSemantic Segmentation(領域のクラス分類)を行っているネットワークです.ピクセルレベルでなんの物体なのかを推定します.全結合層を含まないためどのような大きさの画像に対しても適用できるのが特徴ですが、解像度が低くなりがちでまた境界あたりは分類の精度が低く曖昧になりがちです.
  • 2018.09.16
  • 55
  • PV
  • 0
  • Fav
Q
未解決
どうやったら時間軸データを学習させることができますか?
  • 2017.09.26
  • 27
  • PV
  • 0
  • Fav
Q
未解決
Deconvolution はUnpoolingやUpsamplingとは違いますか?
  • 2017.09.26
  • 11
  • PV
  • 0
  • Fav
Q
未解決
Deep Learningの最適化関数選定に関して
  • 2017.09.24
  • 9
  • PV
  • 0
  • Fav
Q
未解決
人工知能は現在どこまでできているのでしょうか?
  • 2017.09.24
  • 3
  • PV
  • 0
  • Fav
Q
Ans: 1
ニューラルネットで二つの画像を入力にすることや途中でニューラルネットを混ぜることはできますか?
  • 2017.09.23
  • 12
  • PV
  • 0
  • Fav
Q
未解決
ニューラルネットで二つの画像を入力にすることや途中でニューラルネットを混ぜることはできますか?
  • 2017.09.23
  • 1
  • PV
  • 0
  • Fav
Q
未解決
簡単に画像を与えて分類することをやりたいです。
  • 2017.09.23
  • 4
  • PV
  • 0
  • Fav
Q
未解決
機械学習のpythonライブラリお薦め
  • 2017.09.22
  • 7
  • PV
  • 0
  • Fav
Q
未解決
ニューラルネットワークの翻訳への適用のしかたが分からない
  • 2017.09.22
  • 2
  • PV
  • 0
  • Fav
Q
未解決
おすすめのDeepLearningのネットワークはどれですか?
  • 2017.09.20
  • 5
  • PV
  • 0
  • Fav

機械学習人気知識・質問

K
Edition: 1
Relu活性化関数
最も現在使われることの多い活性化関数。 xが負のとき0それ以外は恒等関数. シグモイドなどより計算が早いことが特徴.
  • 2017.09.13
  • 379
  • PV
  • 0
  • Fav
K
Edition: 1
LeakyRelu活性化関数
Reluでxが負の場合を改良したLeakyRelu活性化関数.
  • 2017.09.13
  • 311
  • PV
  • 0
  • Fav
K
Edition: 1
Global Average Pooling層
Global Average Pooling層によって最後の層において直接平均してクラスを作り出す。
  • 2017.09.18
  • 306
  • PV
  • 0
  • Fav
K
Edition: 1
ResNetとは
ResNetは2015年にMicrosoftより発表された152層からなるニューラルネットワーク. 今まで20層ほどで作られていたCNNを特別なユニットを挟むことで深くすることを可能にした.
  • 2017.09.13
  • 254
  • PV
  • 0
  • Fav
K
Edition: 1
PRelu活性化関数
LeakyReluを改良して、学習しながら適切な傾きを変更していく. PRelu活性化関数.
  • 2017.09.13
  • 250
  • PV
  • 0
  • Fav
K
Edition: 1
Batch Normalization層
Batch Normalization層は近年提案されるどのネットワークにも大体使用される学習を安定させ高速化させる技術. ミニバッチごとの平均と分散を計算して正規化し、スケールとシフト補正をする.
  • 2017.09.13
  • 214
  • PV
  • 0
  • Fav
K
Edition: 1
Adam最適化関数
学習係数を自動で調整させる最適化関数の一つ. Adagrad, RMSPropを改良し移動平均を付け加えた最適化関数.
  • 2017.09.13
  • 203
  • PV
  • 0
  • Fav
K
Edition: 1
シャムネットワーク
シャムネットワークは(Siamese Network)二つの画像の似ている似ていないという指標となる距離を学習するCNNを利用したニューラルネットワーク.二つのCNNは重みが共有されていてそれらの出力を距離を計算するネットワークに入力する.
  • 2018.07.15
  • 188
  • PV
  • 0
  • Fav
K
Edition: 1
CNNで画像内文字列をOCR
CNNを使って画像の文字列を認識してプログラムで扱える文字列に起こすOCRの例について紹介します.文字列が可変の場合に対応したCNN+LSTMで構成される基本的なネットワークです.
  • 2018.12.06
  • 184
  • PV
  • 0
  • Fav
K
Edition: 1
Attention機構
Attention機構(注意機構)とは、主に機械翻訳や画像処理等を目的としたEncoder-Decoderモデルに導入される要素ごとの関係性、注意箇所を学習する機構.機械翻訳において翻訳対象の単語間の関係性や全体のコンテキストを考慮させるために考案されたものだが、画像処理などにおいても応用されている.
  • 2018.12.08
  • 182
  • PV
  • 0
  • Fav
K
Edition: 1
CTC損失関数
CTC Loss(損失関数) (Connectionist Temporal Classification)は、音声認識や時系列データにおいてよく用いられる損失関数で、最終層で出力される値から正解のデータ列になりうる確率を元に計算する損失関数.LSTMやRNNなどの出力を受けて正解文字列の確率を計算する.HMMのように前向き後ろ向きアルゴリズム、動的計画法を元に計算、微分可能であり誤差逆伝播が可能.
  • 2018.12.08
  • 180
  • PV
  • 0
  • Fav
K
Edition: 1
Adagrad最適化関数
学習係数を自動調整していく最適化関数の一つ. 過去の勾配と最新の勾配を元に各パラメータごとに学習率を調整するのが特徴. Adam, Adadelta, RMSPropはAdagradを改良したもの
  • 2017.09.13
  • 173
  • PV
  • 0
  • Fav
K
Edition: 1
ACGAN
ACGAN(Auxiliary Classifier Generative Adversarial Network)は、DCGANではランダムノイズ列から画像を作っていただけにすぎない学習に加えて、画像のクラスラベル情報をGeneratorに入力しDiscriminatorで補助的なクラス識別タスクを行うことで、高精度な画像を生成できたネットワーク.学習は128x128の画像を入力としてImageNetの画像を使用している.
  • 2018.07.15
  • 166
  • PV
  • 0
  • Fav
K
Edition: 1
pix2pix
pix2pixはUNetとDCGANを組み合わせた汎用的な画像変換を学習することができるネットワーク.昼と夜の変換や航空写真と地図の変換等様々なタスクを行わせることができる.画像から画像の変換(Image to Image Translation)を行っているConditional GANの一種.
  • 2018.07.15
  • 146
  • PV
  • 0
  • Fav
K
Edition: 1
DeepLearningにおける最適化関数
最適化関数はニューラルネットワークにおいて学習率を学習しながら調整してくれます。 DeepLearningにおける最適化関数選びは大きな検討要素の一つです。 どれを選ぶかによっても大きく学習時間や結果に関わってきます。
  • 2017.09.13
  • 143
  • PV
  • 0
  • Fav
K
Edition: 1
活性化関数とは
Deep Learningで層の出力の際に必ず使われる活性化関数。 活性化関数は、そのニューロンの出力を補正してやる役割があり、発散等を防いでいます。これらはネットワークの表現力を高くするために常に非線形関数が用いられます.
  • 2017.09.13
  • 138
  • PV
  • 0
  • Fav
K
Edition: 1
SAGAN
SAGAN(Self Attention Generative Adversarial Network)はACGANやSNGANでも扱う画像生成タスクにおいてSelf Attention機構を導入することで高精度な画像生成を実現したネットワーク.
  • 2018.07.15
  • 134
  • PV
  • 0
  • Fav
K
Edition: 1
RRelu活性化関数
PReluでは傾きを学習していたが、RReluではある幅の中で傾きをランダムにしている. Randomized Leaky Relu活性化関数と呼ばれる.
  • 2017.09.13
  • 131
  • PV
  • 0
  • Fav
K
Edition: 1
Sigmoid活性化関数
1990年代まで最も長らく使われていたニューラルネットの活性化関数. 人間のニューロンの入出力にヒントを得て設計され、微分も用意なため重宝されてきたが、勾配消失問題の原因になっているため、現在では使われない.
  • 2017.09.13
  • 131
  • PV
  • 0
  • Fav
K
Edition: 1
UnPooling層
Convolutional AutoEncoder(CAE)などで用いられるMaxPoolingの反対の動き(画素を拡大する)をする層
  • 2017.09.13
  • 131
  • PV
  • 0
  • Fav
Q
未解決
どうやったら時間軸データを学習させることができますか?
  • 2017.09.26
  • 27
  • PV
  • 0
  • Fav
Q
Ans: 1
ニューラルネットで二つの画像を入力にすることや途中でニューラルネットを混ぜることはできますか?
  • 2017.09.23
  • 12
  • PV
  • 0
  • Fav
Q
未解決
Deconvolution はUnpoolingやUpsamplingとは違いますか?
  • 2017.09.26
  • 11
  • PV
  • 0
  • Fav
Q
未解決
Deep Learningの最適化関数選定に関して
  • 2017.09.24
  • 9
  • PV
  • 0
  • Fav
Q
未解決
機械学習のpythonライブラリお薦め
  • 2017.09.22
  • 7
  • PV
  • 0
  • Fav
Q
未解決
おすすめのDeepLearningのネットワークはどれですか?
  • 2017.09.20
  • 5
  • PV
  • 0
  • Fav
Q
未解決
簡単に画像を与えて分類することをやりたいです。
  • 2017.09.23
  • 4
  • PV
  • 0
  • Fav
Q
未解決
人工知能は現在どこまでできているのでしょうか?
  • 2017.09.24
  • 3
  • PV
  • 0
  • Fav
Q
未解決
ニューラルネットワークの翻訳への適用のしかたが分からない
  • 2017.09.22
  • 2
  • PV
  • 0
  • Fav
Q
未解決
ニューラルネットで二つの画像を入力にすることや途中でニューラルネットを混ぜることはできますか?
  • 2017.09.23
  • 1
  • PV
  • 0
  • Fav