From b06a4f6cfe84c4bda6a38f03e7053f7df2280afe Mon Sep 17 00:00:00 2001 From: Taichi Kato Date: Thu, 15 Nov 2018 11:29:58 +0800 Subject: [PATCH 1/6] Created Japanese translation file for deepl learning. --- ja/cheatsheet-deep-learning.md | 321 +++++++++++++++++++++++++++++++++ 1 file changed, 321 insertions(+) create mode 100644 ja/cheatsheet-deep-learning.md diff --git a/ja/cheatsheet-deep-learning.md b/ja/cheatsheet-deep-learning.md new file mode 100644 index 000000000..5ba05ba91 --- /dev/null +++ b/ja/cheatsheet-deep-learning.md @@ -0,0 +1,321 @@ +**1. Deep Learning cheatsheet** + +⟶ ディープラーニングチートシート + +
+ +**2. Neural Networks** + +⟶ ニューラルネットワーク + +
+ +**3. Neural networks are a class of models that are built with layers. Commonly used types of neural networks include convolutional and recurrent neural networks.** + +⟶ ニューラルネットワークとは複数の層を用いて組まれる数学モデルです。代表的なネットワークとして畳み込みと再帰型ニューラルネットワークが挙げられます。 + +
+ +**4. Architecture ― The vocabulary around neural networks architectures is described in the figure below:** + +⟶ 構造 - ニューラルネットワークを組む上で重要な単語: + +
+ +**5. [Input layer, hidden layer, output layer]** + +⟶ [入力層, 隠れ層, 出力層] + +
+ +**6. By noting i the ith layer of the network and j the jth hidden unit of the layer, we have:** + +⟶ [] + +
+ +**7. where we note w, b, z the weight, bias and output respectively.** + +⟶ + +
+ +**8. Activation function ― Activation functions are used at the end of a hidden unit to introduce non-linear complexities to the model. Here are the most common ones:** + +⟶ + +
+ +**9. [Sigmoid, Tanh, ReLU, Leaky ReLU]** + +⟶ + +
+ +**10. Cross-entropy loss ― In the context of neural networks, the cross-entropy loss L(z,y) is commonly used and is defined as follows:** + +⟶ + +
+ +**11. Learning rate ― The learning rate, often noted α or sometimes η, indicates at which pace the weights get updated. This can be fixed or adaptively changed. The current most popular method is called Adam, which is a method that adapts the learning rate.** + +⟶ + +
+ +**12. Backpropagation ― Backpropagation is a method to update the weights in the neural network by taking into account the actual output and the desired output. The derivative with respect to weight w is computed using chain rule and is of the following form:** + +⟶ + +
+ +**13. As a result, the weight is updated as follows:** + +⟶ + +
+ +**14. Updating weights ― In a neural network, weights are updated as follows:** + +⟶ + +
+ +**15. Step 1: Take a batch of training data.** + +⟶ + +
+ +**16. Step 2: Perform forward propagation to obtain the corresponding loss.** + +⟶ + +
+ +**17. Step 3: Backpropagate the loss to get the gradients.** + +⟶ + +
+ +**18. Step 4: Use the gradients to update the weights of the network.** + +⟶ + +
+ +**19. Dropout ― Dropout is a technique meant at preventing overfitting the training data by dropping out units in a neural network. In practice, neurons are either dropped with probability p or kept with probability 1−p** + +⟶ + +
+ +**20. Convolutional Neural Networks** + +⟶ + +
+ +**21. Convolutional layer requirement ― By noting W the input volume size, F the size of the convolutional layer neurons, P the amount of zero padding, then the number of neurons N that fit in a given volume is such that:** + +⟶ + +
+ +**22. Batch normalization ― It is a step of hyperparameter γ,β that normalizes the batch {xi}. By noting μB,σ2B the mean and variance of that we want to correct to the batch, it is done as follows:** + +⟶ + +
+ +**23. It is usually done after a fully connected/convolutional layer and before a non-linearity layer and aims at allowing higher learning rates and reducing the strong dependence on initialization.** + +⟶ + +
+ +**24. Recurrent Neural Networks** + +⟶ + +
+ +**25. Types of gates ― Here are the different types of gates that we encounter in a typical recurrent neural network:** + +⟶ + +
+ +**26. [Input gate, forget gate, gate, output gate]** + +⟶ + +
+ +**27. [Write to cell or not?, Erase a cell or not?, How much to write to cell?, How much to reveal cell?]** + +⟶ + +
+ +**28. LSTM ― A long short-term memory (LSTM) network is a type of RNN model that avoids the vanishing gradient problem by adding 'forget' gates.** + +⟶ + +
+ +**29. Reinforcement Learning and Control** + +⟶ + +
+ +**30. The goal of reinforcement learning is for an agent to learn how to evolve in an environment.** + +⟶ + +
+ +**31. Definitions** + +⟶ + +
+ +**32. Markov decision processes ― A Markov decision process (MDP) is a 5-tuple (S,A,{Psa},γ,R) where:** + +⟶ + +
+ +**33. S is the set of states** + +⟶ + +
+ +**34. A is the set of actions** + +⟶ + +
+ +**35. {Psa} are the state transition probabilities for s∈S and a∈A** + +⟶ + +
+ +**36. γ∈[0,1[ is the discount factor** + +⟶ + +
+ +**37. R:S×A⟶R or R:S⟶R is the reward function that the algorithm wants to maximize** + +⟶ + +
+ +**38. Policy ― A policy π is a function π:S⟶A that maps states to actions.** + +⟶ + +
+ +**39. Remark: we say that we execute a given policy π if given a state s we take the action a=π(s).** + +⟶ + +
+ +**40. Value function ― For a given policy π and a given state s, we define the value function Vπ as follows:** + +⟶ + +
+ +**41. Bellman equation ― The optimal Bellman equations characterizes the value function Vπ∗ of the optimal policy π∗:** + +⟶ + +
+ +**42. Remark: we note that the optimal policy π∗ for a given state s is such that:** + +⟶ + +
+ +**43. Value iteration algorithm ― The value iteration algorithm is in two steps:** + +⟶ + +
+ +**44. 1) We initialize the value:** + +⟶ + +
+ +**45. 2) We iterate the value based on the values before:** + +⟶ + +
+ +**46. Maximum likelihood estimate ― The maximum likelihood estimates for the state transition probabilities are as follows:** + +⟶ + +
+ +**47. times took action a in state s and got to s′** + +⟶ + +
+ +**48. times took action a in state s** + +⟶ + +
+ +**49. Q-learning ― Q-learning is a model-free estimation of Q, which is done as follows:** + +⟶ + +
+ +**50. View PDF version on GitHub** + +⟶ + +
+ +**51. [Neural Networks, Architecture, Activation function, Backpropagation, Dropout]** + +⟶ + +
+ +**52. [Convolutional Neural Networks, Convolutional layer, Batch normalization]** + +⟶ + +
+ +**53. [Recurrent Neural Networks, Gates, LSTM]** + +⟶ + +
+ +**54. [Reinforcement learning, Markov decision processes, Value/policy iteration, Approximate dynamic programming, Policy search]** + +⟶ From 9f4fe2ad0540a484851e38ed66b9a92ffa9e6102 Mon Sep 17 00:00:00 2001 From: Taichi Kato Date: Thu, 15 Nov 2018 18:24:32 +0800 Subject: [PATCH 2/6] Finished Neural Networks --- ja/cheatsheet-deep-learning.md | 30 +++++++++++++++--------------- 1 file changed, 15 insertions(+), 15 deletions(-) diff --git a/ja/cheatsheet-deep-learning.md b/ja/cheatsheet-deep-learning.md index 5ba05ba91..631bdd5cd 100644 --- a/ja/cheatsheet-deep-learning.md +++ b/ja/cheatsheet-deep-learning.md @@ -18,7 +18,7 @@ **4. Architecture ― The vocabulary around neural networks architectures is described in the figure below:** -⟶ 構造 - ニューラルネットワークを組む上で重要な単語: +⟶ 構造 - ニューラルネットワークを組む上で重要な用語は以下の図により説明されます:
@@ -30,85 +30,85 @@ **6. By noting i the ith layer of the network and j the jth hidden unit of the layer, we have:** -⟶ [] +⟶ iをネットワーク上のi層目の層とし、隠れ層のj個目のユニットをjとすると:
**7. where we note w, b, z the weight, bias and output respectively.** -⟶ +⟶ この場合重み付けをw、バイアス項をb、出力をzとします。
**8. Activation function ― Activation functions are used at the end of a hidden unit to introduce non-linear complexities to the model. Here are the most common ones:** -⟶ +⟶ 活性化関数 ー ユニットの出力に非線形性を与える関数を活性化関数といいます。一般的には以下の関数がよく使われます:
**9. [Sigmoid, Tanh, ReLU, Leaky ReLU]** -⟶ +⟶ [Sigmoid(シグモイド関数), Tanh(双曲線関数), ReLU(ランプ関数), Leaky ReLU]
**10. Cross-entropy loss ― In the context of neural networks, the cross-entropy loss L(z,y) is commonly used and is defined as follows:** -⟶ +⟶ 交差エントロピーロス ー ニューラルネットにおいて交差エントロピーロスL(z,y)は頻繁に使われ、以下のように定義されています:
**11. Learning rate ― The learning rate, often noted α or sometimes η, indicates at which pace the weights get updated. This can be fixed or adaptively changed. The current most popular method is called Adam, which is a method that adapts the learning rate.** -⟶ +⟶ 学習率 ー αやηで表される学習率は勾配法による重み付けのアップデートをする速度を表します。学習率は固定または適応的に変更することができます。現在一般的に使われている学習法はAdam(アダム)であり、学習率を適用させる方法です。
**12. Backpropagation ― Backpropagation is a method to update the weights in the neural network by taking into account the actual output and the desired output. The derivative with respect to weight w is computed using chain rule and is of the following form:** -⟶ +⟶ 誤差逆伝播法(backpropagation)ー 誤差逆伝播法はニューラルネットの期待される出力値と実際の出力の差異を考慮し重み付けのアップデートをする方法の一つです。重みwに関する導関数は連鎖規則を使用して計算され、次の形式で表される:
**13. As a result, the weight is updated as follows:** -⟶ +⟶ 結果、重みは以下のようにアップデートされます:
**14. Updating weights ― In a neural network, weights are updated as follows:** -⟶ +⟶ 重みアップデート ー ニューラルネットでは以下のように重みがアップデートされます:
**15. Step 1: Take a batch of training data.** -⟶ +⟶ ステップ1: 訓練データを1バッチ用意する。
**16. Step 2: Perform forward propagation to obtain the corresponding loss.** -⟶ +⟶ ステップ2: フォワードプロパゲーションを行い誤差を求める。
**17. Step 3: Backpropagate the loss to get the gradients.** -⟶ +⟶ 求められた誤差を用い、傾斜を計算する。
**18. Step 4: Use the gradients to update the weights of the network.** -⟶ +⟶ 傾斜を使い誤差が小さくなるように重みを調整する。
**19. Dropout ― Dropout is a technique meant at preventing overfitting the training data by dropping out units in a neural network. In practice, neurons are either dropped with probability p or kept with probability 1−p** -⟶ +⟶ドロップアウト ー ドロップアウトはニューラルネット内の一部のユニットを非活性化させることにより過学習を防ぐテクニックである。実際には、ニューロンはある確率pで非活性、1-pの確率で活性化されるようになってる。
From 2c18b0461fa89207310a446d725fa21c1f54841d Mon Sep 17 00:00:00 2001 From: Taichi Kato Date: Thu, 15 Nov 2018 18:56:56 +0800 Subject: [PATCH 3/6] Added CNN and RNN --- ja/cheatsheet-deep-learning.md | 30 +++++++++++++++--------------- 1 file changed, 15 insertions(+), 15 deletions(-) diff --git a/ja/cheatsheet-deep-learning.md b/ja/cheatsheet-deep-learning.md index 631bdd5cd..89eaa3039 100644 --- a/ja/cheatsheet-deep-learning.md +++ b/ja/cheatsheet-deep-learning.md @@ -114,61 +114,61 @@ **20. Convolutional Neural Networks** -⟶ +⟶ 畳み込みニューラルネットワーク
**21. Convolutional layer requirement ― By noting W the input volume size, F the size of the convolutional layer neurons, P the amount of zero padding, then the number of neurons N that fit in a given volume is such that:** -⟶ +⟶ 畳み込みレイヤーの条件 ー Wを入力サイズ、Fを畳み込みレイヤーニューロンのサイズ、Pをゼロパディングの量とすると、与えられた体積に収まるニューロン数Nは次のようになります。
**22. Batch normalization ― It is a step of hyperparameter γ,β that normalizes the batch {xi}. By noting μB,σ2B the mean and variance of that we want to correct to the batch, it is done as follows:** -⟶ +⟶ バッチ正規化 ー バッチ{xi}を正規化するハイパーパラメータγ、βのステップです。バッチに修正したい平均値と分散値をμB,σ2Bとすると、正規化は以下のように行われます:
**23. It is usually done after a fully connected/convolutional layer and before a non-linearity layer and aims at allowing higher learning rates and reducing the strong dependence on initialization.** -⟶ +⟶ これは通常、学習率を高め、初期値への依存性を減らすことを目的でFully Connected層と畳み込み層の後、非線形化を行う前に行われます。
**24. Recurrent Neural Networks** -⟶ +⟶ 再帰型ニューラルネットワーク (RNN)
**25. Types of gates ― Here are the different types of gates that we encounter in a typical recurrent neural network:** -⟶ +⟶ ゲートの種類 ー 典型的なRNNに使われるゲートです:
**26. [Input gate, forget gate, gate, output gate]** -⟶ +⟶ [入力ゲート, 忘却ゲート, ゲート, 出力ゲート]
**27. [Write to cell or not?, Erase a cell or not?, How much to write to cell?, How much to reveal cell?]** -⟶ +⟶ [セルに追加するべき?, セルを削除するべき?, 情報をどれだけセルに追加するべき?, セルをどの程度通すべき?]
**28. LSTM ― A long short-term memory (LSTM) network is a type of RNN model that avoids the vanishing gradient problem by adding 'forget' gates.** -⟶ +⟶ LSTM - A long short-term memory (LSTM) ネットワークは勾配消失問題を解決するために忘却ゲートが追加されているRNNの一種です。
**29. Reinforcement Learning and Control** -⟶ +⟶ 強化学習と
@@ -294,28 +294,28 @@ **50. View PDF version on GitHub** -⟶ +⟶ GitHubでPDF版を見る
**51. [Neural Networks, Architecture, Activation function, Backpropagation, Dropout]** -⟶ +⟶ [ニューラルネットワーク, アーキテクチャ, 活性化関数, 誤差逆伝播法, ドロップアウト]
**52. [Convolutional Neural Networks, Convolutional layer, Batch normalization]** -⟶ +⟶ [畳み込みニューラルネットワーク, 畳み込み層, バッチノーマライゼーション]
**53. [Recurrent Neural Networks, Gates, LSTM]** -⟶ +⟶ [再帰型ニューラルネットワーク, ゲート, LSTM]
**54. [Reinforcement learning, Markov decision processes, Value/policy iteration, Approximate dynamic programming, Policy search]** -⟶ +⟶ [強化学習, マルコフ決定過程, バリュー/ポリシー反復, 近似動的計画法, ポリシーサーチ] From ab0586d1cb145be740004e983102618d0b31ab3e Mon Sep 17 00:00:00 2001 From: Taichi Kato Date: Thu, 15 Nov 2018 19:29:38 +0800 Subject: [PATCH 4/6] Began Reinforcement learning --- ja/cheatsheet-deep-learning.md | 16 ++++++++-------- 1 file changed, 8 insertions(+), 8 deletions(-) diff --git a/ja/cheatsheet-deep-learning.md b/ja/cheatsheet-deep-learning.md index 89eaa3039..0c81e075b 100644 --- a/ja/cheatsheet-deep-learning.md +++ b/ja/cheatsheet-deep-learning.md @@ -168,49 +168,49 @@ **29. Reinforcement Learning and Control** -⟶ 強化学習と +⟶ 強化学習とコントロール
**30. The goal of reinforcement learning is for an agent to learn how to evolve in an environment.** -⟶ +⟶ 強化学習はある環境内においてエージェントが学習し、進化することを目標とします。
**31. Definitions** -⟶ +⟶ 定義
**32. Markov decision processes ― A Markov decision process (MDP) is a 5-tuple (S,A,{Psa},γ,R) where:** -⟶ +⟶ マルコフ決定過程 ー マルコフ決定過程(Markov decision process; MDP)を5タプル(S,A,{Psa},γ,R)としたとき:
**33. S is the set of states** -⟶ +⟶ Sは状態の有限集合
**34. A is the set of actions** -⟶ +⟶ Aは行動の有限集合
**35. {Psa} are the state transition probabilities for s∈S and a∈A** -⟶ +⟶ {Psa}は状態s∈Sと行動a∈Aの条件付き分布
**36. γ∈[0,1[ is the discount factor** -⟶ +⟶ γ∈[0,1[は割引因子と呼ばれる値
From 3248c6c55934dc473f9142c8151ea9a0c983bc5d Mon Sep 17 00:00:00 2001 From: Taichi Kato Date: Thu, 15 Nov 2018 20:58:28 +0800 Subject: [PATCH 5/6] Finished translating Reinforcement Learning --- ja/cheatsheet-deep-learning.md | 28 ++++++++++++++-------------- 1 file changed, 14 insertions(+), 14 deletions(-) diff --git a/ja/cheatsheet-deep-learning.md b/ja/cheatsheet-deep-learning.md index 0c81e075b..322a9f2cc 100644 --- a/ja/cheatsheet-deep-learning.md +++ b/ja/cheatsheet-deep-learning.md @@ -204,7 +204,7 @@ **35. {Psa} are the state transition probabilities for s∈S and a∈A** -⟶ {Psa}は状態s∈Sと行動a∈Aの条件付き分布 +⟶ {Psa}は状態s∈Sと行動a∈Aの状態遷移確率
@@ -216,79 +216,79 @@ **37. R:S×A⟶R or R:S⟶R is the reward function that the algorithm wants to maximize** -⟶ +⟶ R:S×A⟶R or R:S⟶Rはアルゴリズムが最大化したい報酬関数
**38. Policy ― A policy π is a function π:S⟶A that maps states to actions.** -⟶ +⟶ 政策 - 政策πは状態と行動を写像する関数π:S⟶A
**39. Remark: we say that we execute a given policy π if given a state s we take the action a=π(s).** -⟶ +⟶ 備考: 状態sを与えられた際に行動a=π(s)を行うことを政策πを実行すると言う。
**40. Value function ― For a given policy π and a given state s, we define the value function Vπ as follows:** -⟶ +⟶ 価値関数 - ある政策πとある状態sにおいて価値関数Vπを以下のように定義する:
**41. Bellman equation ― The optimal Bellman equations characterizes the value function Vπ∗ of the optimal policy π∗:** -⟶ +⟶ ベルマン方程式 - 政策πをとった価値関数Vπ∗に対する最適なベルマン方程式:
**42. Remark: we note that the optimal policy π∗ for a given state s is such that:** -⟶ +⟶ 備考: 与えられた状態sに対する最適方針π*はこのようになります:
**43. Value iteration algorithm ― The value iteration algorithm is in two steps:** -⟶ +⟶ 価値反復法アルゴリズム - 価値反復法アルゴリズムは2段階で行われます:
**44. 1) We initialize the value:** -⟶ +⟶ 1) 値を初期化する。
**45. 2) We iterate the value based on the values before:** -⟶ +⟶ 2) 前の値を元に値を繰り返す:
**46. Maximum likelihood estimate ― The maximum likelihood estimates for the state transition probabilities are as follows:** -⟶ +⟶ 最尤推定 ー 状態遷移確率の最尤推定(maximum likelihood estimate; MLE):
**47. times took action a in state s and got to s′** -⟶ +⟶ 状態sで行動aを行い状態s′に遷移した回数
**48. times took action a in state s** -⟶ +⟶ 状態sで行動aを行った回数
**49. Q-learning ― Q-learning is a model-free estimation of Q, which is done as follows:** -⟶ +⟶ Q学習 ー Q学習は数学モデルを使わないQ値の評価手法であり、以下のように行われる:
From 9d531ba3fe9a6195e4adb1cd6203d55f2f459364 Mon Sep 17 00:00:00 2001 From: Taichi Kato Date: Thu, 6 Feb 2020 14:51:15 +0800 Subject: [PATCH 6/6] Apply suggestions from code review MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit レビュー確認させていただきました。妥当なSuggestionで勉強になりました、ありがとうございます。 MLTの皆様、一昨年出来心でGithubの方でContributeした幼稚な翻訳ですが丁寧なレビューありがとうございます。こちらの大変遅い対応で日本語版公開の遅れに寄与してしまったことをお詫び申し上げます。 Co-Authored-By: for_tokyo <42432573+for-tokyo@users.noreply.github.com> Co-Authored-By: Yoshiyuki Nakai 中井喜之 <8402782+yoshiyukinakai@users.noreply.github.com> --- ja/cheatsheet-deep-learning.md | 62 +++++++++++++++++----------------- 1 file changed, 31 insertions(+), 31 deletions(-) diff --git a/ja/cheatsheet-deep-learning.md b/ja/cheatsheet-deep-learning.md index 322a9f2cc..50557a63f 100644 --- a/ja/cheatsheet-deep-learning.md +++ b/ja/cheatsheet-deep-learning.md @@ -12,13 +12,13 @@ **3. Neural networks are a class of models that are built with layers. Commonly used types of neural networks include convolutional and recurrent neural networks.** -⟶ ニューラルネットワークとは複数の層を用いて組まれる数学モデルです。代表的なネットワークとして畳み込みと再帰型ニューラルネットワークが挙げられます。 +⟶ ニューラルネットワークとは複数の層を用いて構成されたモデルの種類を指します。一般的に利用されるネットワークとして畳み込みニューラルネットワークとリカレントニューラルネットワークが挙げられます。
**4. Architecture ― The vocabulary around neural networks architectures is described in the figure below:** -⟶ 構造 - ニューラルネットワークを組む上で重要な用語は以下の図により説明されます: +⟶ アーキテクチャ - ニューラルネットワークに関する用語は以下の図により説明されます:
@@ -36,49 +36,49 @@ **7. where we note w, b, z the weight, bias and output respectively.** -⟶ この場合重み付けをw、バイアス項をb、出力をzとします。 +⟶ この場合重みをw、バイアス項をb、出力をzとします。
**8. Activation function ― Activation functions are used at the end of a hidden unit to introduce non-linear complexities to the model. Here are the most common ones:** -⟶ 活性化関数 ー ユニットの出力に非線形性を与える関数を活性化関数といいます。一般的には以下の関数がよく使われます: +⟶ 活性化関数 ー 活性化関数はモデルに非線形性を与えるために隠れユニットの最後で利用されます。一般的には以下の関数がよく使われます:
**9. [Sigmoid, Tanh, ReLU, Leaky ReLU]** -⟶ [Sigmoid(シグモイド関数), Tanh(双曲線関数), ReLU(ランプ関数), Leaky ReLU] +⟶ [Sigmoid(シグモイド関数), Tanh(双曲線関数), ReLU(正規化線形ユニット), Leaky ReLU(漏洩ReLU)]
**10. Cross-entropy loss ― In the context of neural networks, the cross-entropy loss L(z,y) is commonly used and is defined as follows:** -⟶ 交差エントロピーロス ー ニューラルネットにおいて交差エントロピーロスL(z,y)は頻繁に使われ、以下のように定義されています: +⟶ 交差エントロピーロス ー ニューラルネットにおいて交差エントロピーロスL(z,y)は一般的に使われ、以下のように定義されています:
**11. Learning rate ― The learning rate, often noted α or sometimes η, indicates at which pace the weights get updated. This can be fixed or adaptively changed. The current most popular method is called Adam, which is a method that adapts the learning rate.** -⟶ 学習率 ー αやηで表される学習率は勾配法による重み付けのアップデートをする速度を表します。学習率は固定または適応的に変更することができます。現在一般的に使われている学習法はAdam(アダム)であり、学習率を適用させる方法です。 +⟶ 学習率 ー 学習率は多くの場合α、しばしばηで表記され、勾配法による重み付けのアップデートをする速度を表します。学習率は固定または適応的に変更することができます。現在一般的に使われている学習法はAdam(アダム)であり、学習率を適用的に変更する方法です。
**12. Backpropagation ― Backpropagation is a method to update the weights in the neural network by taking into account the actual output and the desired output. The derivative with respect to weight w is computed using chain rule and is of the following form:** -⟶ 誤差逆伝播法(backpropagation)ー 誤差逆伝播法はニューラルネットの期待される出力値と実際の出力の差異を考慮し重み付けのアップデートをする方法の一つです。重みwに関する導関数は連鎖規則を使用して計算され、次の形式で表される: +⟶ 誤差逆伝播法(backpropagation)ー 誤差逆伝播法はニューラルネットにおいて実際の出力と期待される出力との差異を考慮して重みを更新する方法の一つです。重みwに関する導関数は連鎖律を使用して計算され、次の形式で表されます:
**13. As a result, the weight is updated as follows:** -⟶ 結果、重みは以下のようにアップデートされます: +⟶ 結果として、重みは以下のように更新されます:
**14. Updating weights ― In a neural network, weights are updated as follows:** -⟶ 重みアップデート ー ニューラルネットでは以下のように重みがアップデートされます: +⟶ 重みの更新 ー ニューラルネットでは以下のように重みが更新されます:
@@ -90,25 +90,25 @@ **16. Step 2: Perform forward propagation to obtain the corresponding loss.** -⟶ ステップ2: フォワードプロパゲーションを行い誤差を求める。 +⟶ ステップ2: 順伝播を行いそれに対する誤差を求める。
**17. Step 3: Backpropagate the loss to get the gradients.** -⟶ 求められた誤差を用い、傾斜を計算する。 +⟶ 誤差を逆伝播し、勾配を計算する。
**18. Step 4: Use the gradients to update the weights of the network.** -⟶ 傾斜を使い誤差が小さくなるように重みを調整する。 +⟶ 勾配を使いネットワークの重みを更新する。
**19. Dropout ― Dropout is a technique meant at preventing overfitting the training data by dropping out units in a neural network. In practice, neurons are either dropped with probability p or kept with probability 1−p** -⟶ドロップアウト ー ドロップアウトはニューラルネット内の一部のユニットを非活性化させることにより過学習を防ぐテクニックである。実際には、ニューロンはある確率pで非活性、1-pの確率で活性化されるようになってる。 +⟶ドロップアウト ー ドロップアウトはニューラルネット内の一部のユニットを無効にすることで学習データへの過学習を防ぐテクニックです。実際には、ニューロンは確率pで無効、確率1-pで有効のどちらかになります。
@@ -120,13 +120,13 @@ **21. Convolutional layer requirement ― By noting W the input volume size, F the size of the convolutional layer neurons, P the amount of zero padding, then the number of neurons N that fit in a given volume is such that:** -⟶ 畳み込みレイヤーの条件 ー Wを入力サイズ、Fを畳み込みレイヤーニューロンのサイズ、Pをゼロパディングの量とすると、与えられた体積に収まるニューロン数Nは次のようになります。 +⟶ 畳み込みレイヤーの条件 ー Wを入力サイズ、Fを畳み込み層のニューロンのサイズ、Pをゼロ埋めの量とすると、これらに対応するニューロンの数Nは次のようになります。
**22. Batch normalization ― It is a step of hyperparameter γ,β that normalizes the batch {xi}. By noting μB,σ2B the mean and variance of that we want to correct to the batch, it is done as follows:** -⟶ バッチ正規化 ー バッチ{xi}を正規化するハイパーパラメータγ、βのステップです。バッチに修正したい平均値と分散値をμB,σ2Bとすると、正規化は以下のように行われます: +⟶ バッチ正規化 ー バッチ{xi}を正規化するハイパーパラメータγ、βのステップです。補正を行うバッチの平均と分散をμB,σ2Bとすると、正規化は以下のように行われます:
@@ -138,7 +138,7 @@ **24. Recurrent Neural Networks** -⟶ 再帰型ニューラルネットワーク (RNN) +⟶ リカレントニューラルネットワーク (RNN)
@@ -168,7 +168,7 @@ **29. Reinforcement Learning and Control** -⟶ 強化学習とコントロール +⟶ 強化学習と制御
@@ -192,13 +192,13 @@ **33. S is the set of states** -⟶ Sは状態の有限集合 +⟶ Sは状態の集合
**34. A is the set of actions** -⟶ Aは行動の有限集合 +⟶ Aは行動の集合
@@ -210,7 +210,7 @@ **36. γ∈[0,1[ is the discount factor** -⟶ γ∈[0,1[は割引因子と呼ばれる値 +⟶ γ∈[0,1[は割引因子
@@ -222,31 +222,31 @@ **38. Policy ― A policy π is a function π:S⟶A that maps states to actions.** -⟶ 政策 - 政策πは状態と行動を写像する関数π:S⟶A +⟶ 方策 - 方策πは状態を行動に写像する関数π:S⟶A
**39. Remark: we say that we execute a given policy π if given a state s we take the action a=π(s).** -⟶ 備考: 状態sを与えられた際に行動a=π(s)を行うことを政策πを実行すると言う。 +⟶ 備考: 状態sを与えられた際に行動a=π(s)を行うことを方策πを実行すると言います。
**40. Value function ― For a given policy π and a given state s, we define the value function Vπ as follows:** -⟶ 価値関数 - ある政策πとある状態sにおいて価値関数Vπを以下のように定義する: +⟶ 価値関数 - ある方策πとある状態sにおける価値関数Vπを以下のように定義します:
**41. Bellman equation ― The optimal Bellman equations characterizes the value function Vπ∗ of the optimal policy π∗:** -⟶ ベルマン方程式 - 政策πをとった価値関数Vπ∗に対する最適なベルマン方程式: +⟶ ベルマン方程式 - 最適ベルマン方程式は最適方策π∗の価値関数Vπ∗で記述されます:
**42. Remark: we note that the optimal policy π∗ for a given state s is such that:** -⟶ 備考: 与えられた状態sに対する最適方針π*はこのようになります: +⟶ 備考: 与えられた状態sに対する最適方策π*はこのようになります:
@@ -258,7 +258,7 @@ **44. 1) We initialize the value:** -⟶ 1) 値を初期化する。 +⟶ 1) 値を初期化する:
@@ -288,7 +288,7 @@ **49. Q-learning ― Q-learning is a model-free estimation of Q, which is done as follows:** -⟶ Q学習 ー Q学習は数学モデルを使わないQ値の評価手法であり、以下のように行われる: +⟶ Q学習 ― Q学習はモデルフリーのQ値の推定であり、以下のように行われます:
@@ -306,16 +306,16 @@ **52. [Convolutional Neural Networks, Convolutional layer, Batch normalization]** -⟶ [畳み込みニューラルネットワーク, 畳み込み層, バッチノーマライゼーション] +⟶ [畳み込みニューラルネットワーク, 畳み込み層, バッチ正規化]
**53. [Recurrent Neural Networks, Gates, LSTM]** -⟶ [再帰型ニューラルネットワーク, ゲート, LSTM] +⟶ [リカレントニューラルネットワーク, ゲート, LSTM]
**54. [Reinforcement learning, Markov decision processes, Value/policy iteration, Approximate dynamic programming, Policy search]** -⟶ [強化学習, マルコフ決定過程, バリュー/ポリシー反復, 近似動的計画法, ポリシーサーチ] +⟶ [強化学習, マルコフ決定過程, 価値/方策反復, 近似動的計画法, 方策探索]