#人工知能 関連用語メモ version 7

2016/03/27 17:48 by zk33 zk33
  :追加された部分   :削除された部分
(差分が大きい場合、文字単位では表示しません)
#ディープラーニング 関連用語メモ #人工知能
ディープラーニング方面を中心に、人工知能まわりの勉強用メモ

## 脳/神経周辺

neuron(ニューロン)
: 神経細胞のこと。脳は1000億くらいのニューロンで成り立っているらしい。

synapse(シナプス)
: 神経細胞において、神経細胞間での情報を受け渡しを担う部分。細胞内は電気で情報が伝わり、シナプスではそれが神経伝達物質の受け渡しという形に変換される。

ML/Machine Learning(機械学習)
: ディープラーニングに限らず、機械に何かを学習させて活用すること

NN/Neural Network
: 人間の神経系の働きをモデルにして考案された、データ処理のアルゴリズム的なもの

DNN/Deep Neural Network
: ニューラルネットワークを複数階層重ねて、より脳に近い形で処理させる手法。

RNN/Recurrent Neural Network
: 主に音声やテキストなど、前後関係が重要な意味を持つデータの処理をする時に使う

CNN/Convolutional Neural Network
: 画像などの処理で使う

LSTM/Long short-term memory
: RNNの一種で以下調査中

classification/分類
: DNNができることは要するに「分類する」ということで、例えば手書きのアルファベットの文字が「a-z」のどれかを分類したり、流れてきた


# Tool

[TensorFlow](https://www.tensorflow.org/)
: Googleの機械学習ライブラリ
: Googleのライブラリ

[Chainer](http://chainer.org/)
: 国産の機械学習ライブラリ
: 国産ライブラリ

# 使われる関数など

以下は多分各DNNフレームワーク側で用意されてそうなので、用語とその意味/役割を把握しとけばよさそう

活性化関数
: ニューロンは、複数のニューロンからの電気信号を受取り、その合計によって次のニューロンに信号を送るか/どう送るかが決まる。その仕組みを関数化したものの総称。色んな関数が提案されている。

ReLU/Rectified Linear Unit(ランプ関数)
: 活性化関数の一つで、入力が0以下なら0、0以上なら入力値を返すような関数。$f(x)=max(0,x)$
単純な仕組みながら実際に使うと結構よい結果になる、らしい


softmax関数
: DNNで出力される最終的な結果は、何かしらの数字の羅列になるのだが、その結果を処理しやすいように全ての数字の合計が1になる(=それぞれの数字がパーセンテージになる)ようにする関数。

maxout関数
: DNNの処理結果は、確率として表されることになるので、そのうち一番確率の高いものを1としてそれ以外を全部0にする関数



      

ディープラーニング方面を中心に、人工知能まわりの勉強用メモ

脳/神経周辺

neuron(ニューロン)
神経細胞のこと。脳は1000億くらいのニューロンで成り立っているらしい。
synapse(シナプス)
神経細胞において、神経細胞間での情報を受け渡しを担う部分。細胞内は電気で情報が伝わり、シナプスではそれが神経伝達物質の受け渡しという形に変換される。
ML/Machine Learning(機械学習)
ディープラーニングに限らず、機械に何かを学習させて活用すること
NN/Neural Network
人間の神経系の働きをモデルにして考案された、データ処理のアルゴリズム的なもの
DNN/Deep Neural Network
ニューラルネットワークを複数階層重ねて、より脳に近い形で処理させる手法。
RNN/Recurrent Neural Network
主に音声やテキストなど、前後関係が重要な意味を持つデータの処理をする時に使う
CNN/Convolutional Neural Network
画像などの処理で使う
LSTM/Long short-term memory
RNNの一種で以下調査中
classification/分類
DNNができることは要するに「分類する」ということで、例えば手書きのアルファベットの文字が「a-z」のどれかを分類したり、流れてきた

Tool

TensorFlow
Googleのライブラリ
Chainer
国産ライブラリ

使われる関数など

以下は多分各DNNフレームワーク側で用意されてそうなので、用語とその意味/役割を把握しとけばよさそう

活性化関数
ニューロンは、複数のニューロンからの電気信号を受取り、その合計によって次のニューロンに信号を送るか/どう送るかが決まる。その仕組みを関数化したものの総称。色んな関数が提案されている。
ReLU/Rectified Linear Unit(ランプ関数)
活性化関数の一つで、入力が0以下なら0、0以上なら入力値を返すような関数。\(f(x)=max(0,x)\)
単純な仕組みながら実際に使うと結構よい結果になる、らしい
softmax関数
DNNで出力される最終的な結果は、何かしらの数字の羅列になるのだが、その結果を処理しやすいように全ての数字の合計が1になる(=それぞれの数字がパーセンテージになる)ようにする関数。
maxout関数
DNNの処理結果は、確率として表されることになるので、そのうち一番確率の高いものを1としてそれ以外を全部0にする関数