From f84bdef105616c600d620409f8577ebb0116e9e7 Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 23 Dec 2020 13:25:41 +0300
Subject: [PATCH 01/19] [ru] cs-229-deep-learning
---
ru/cs-229-deep-learning.md | 360 +++++++++++++++++++++++++++++++++++++
1 file changed, 360 insertions(+)
create mode 100644 ru/cs-229-deep-learning.md
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
new file mode 100644
index 000000000..daeee4c7c
--- /dev/null
+++ b/ru/cs-229-deep-learning.md
@@ -0,0 +1,360 @@
+**Deep learning translation** [[webpage]](https://stanford.edu/~shervine/teaching/cs-229/cheatsheet-deep-learning)
+
+
+
+**1. Deep Learning cheatsheet**
+
+⟶ Шпаргалка по глубокому обучению
+
+
+
+**2. Neural Networks**
+
+⟶ Нейронные сети
+
+
+
+**3. Neural networks are a class of models that are built with layers. Commonly used types of neural networks include convolutional and recurrent neural networks.**
+
+⟶ Нейронные сети - это класс моделей, построенных с использованием слоёв. Обычно используемые типы нейронных сетей включают сверточные и рекуррентные нейронные сети.
+
+
+
+**4. Architecture ― The vocabulary around neural networks architectures is described in the figure below:**
+
+⟶ Архитектура ― Словарь архитектур нейронных сетей описан на рисунке ниже:
+
+
+
+**5. [Input layer, hidden layer, output layer]**
+
+⟶ [Входной слой, Скрытый слой, Выходной слой]
+
+
+
+**6. By noting i the ith layer of the network and j the jth hidden unit of the layer, we have:**
+
+⟶ Отметив i-й слой сети и j-ю скрытую единицу слоя, мы имеем:
+
+
+
+**7. where we note w, b, z the weight, bias and output respectively.**
+
+⟶ где мы обозначаем w, b, z вес, смещение и выход соответственно.
+
+
+
+**8. Activation function ― Activation functions are used at the end of a hidden unit to introduce non-linear complexities to the model. Here are the most common ones:**
+
+⟶ Функция активации ― используются в конце скрытого блока, чтобы внести в модель нелинейность. Вот самые распространенные:
+
+
+
+**9. [Sigmoid, Tanh, ReLU, Leaky ReLU]**
+
+⟶ [Сигмоида, Tanh, ReLU, ReLU с утечкой]
+
+
+
+**10. Cross-entropy loss ― In the context of neural networks, the cross-entropy loss L(z,y) is commonly used and is defined as follows:**
+
+⟶ Функция потерь на основе перекрестной энтропии ― в контексте нейронных сетей обычно используются потери кросс-энтропии L(z,y), которые определяются следующим образом:
+
+
+
+**11. Learning rate ― The learning rate, often noted α or sometimes η, indicates at which pace the weights get updated. This can be fixed or adaptively changed. The current most popular method is called Adam, which is a method that adapts the learning rate.**
+
+⟶ Скорость обучения - часто обозначаемая как α или иногда η, указывает, с какой скоростью обновляются веса. Её можно исправить или адаптивно изменить. Самый популярный в настоящее время метод называется Adam (адаптивные моменты), он адаптирует скорость обучения.
+
+
+
+**12. Backpropagation ― Backpropagation is a method to update the weights in the neural network by taking into account the actual output and the desired output. The derivative with respect to weight w is computed using chain rule and is of the following form:**
+
+⟶ Обратное распространение ― это метод обновления весов в нейронной сети с учетом фактического и желаемого результата. Производная по весу w вычисляется с использованием цепного правила и имеет следующий вид:
+
+
+
+**13. As a result, the weight is updated as follows:**
+
+⟶ В результате вес обновляется следующим образом:
+
+
+
+**14. Updating weights ― In a neural network, weights are updated as follows:**
+
+⟶ Обновление весов ― В нейронной сети веса обновляются следующим образом:
+
+
+
+**15. Step 1: Take a batch of training data.**
+
+⟶ Шаг 1. Возьмите пакет обучающих данных.
+
+
+
+**16. Step 2: Perform forward propagation to obtain the corresponding loss.**
+
+⟶ Шаг 2: Выполнить прямое распространение и получить соответствующие значения функции стоимости.
+
+
+
+
+**17. Step 3: Backpropagate the loss to get the gradients.**
+
+⟶ Шаг 3: Выполнить обратное распространение ошибки и получить градиенты.
+
+
+
+**18. Step 4: Use the gradients to update the weights of the network.**
+
+⟶ Шаг 4. Использовать градиенты и обновить веса сети.
+
+
+
+**19. Dropout ― Dropout is a technique meant at preventing overfitting the training data by dropping out units in a neural network. In practice, neurons are either dropped with probability p or kept with probability 1−p**
+
+⟶ Прореживание (Dropout) ― это метод, предназначенный для предотвращения переобучения на обучающих данных путем исключения блоков в нейронной сети. На практике нейроны либо отбрасываются с вероятностью p, либо сохраняются с вероятностью 1−p
+
+
+
+**20. Convolutional Neural Networks**
+
+⟶ Сверточные нейронные сети
+
+
+
+**21. Convolutional layer requirement ― By noting W the input volume size, F the size of the convolutional layer neurons, P the amount of zero padding, then the number of neurons N that fit in a given volume is such that:**
+
+⟶ Требования к сверточному слою ― обозначим W - размер входного объёма, F - размер нейронов сверточного слоя, P - величину дополнения нулями, тогда количество нейронов N, которые помещаются в данный объём, будет таким:
+
+
+
+**22. Batch normalization ― It is a step of hyperparameter γ,β that normalizes the batch {xi}. By noting μB,σ2B the mean and variance of that we want to correct to the batch, it is done as follows:**
+
+⟶ Пакетная нормировка ― метод адаптивной перепараметризации γ,β, который нормирует пакет {xi}. Обозначим μB,σ2B как среднее значение и дисперсию, которые мы хотим скорректировать для пакета, это делается следующим образом:
+
+
+
+**23. It is usually done after a fully connected/convolutional layer and before a non-linearity layer and aims at allowing higher learning rates and reducing the strong dependence on initialization.**
+
+⟶ Обычно это делается после полносвязного / сверточного слоя и до функции нелинейности и направлено на повышение скорости обучения и уменьшение сильной зависимости от инициализации.
+
+
+
+**24. Recurrent Neural Networks**
+
+⟶ Рекуррентные нейронные сети
+
+
+
+**25. Types of gates ― Here are the different types of gates that we encounter in a typical recurrent neural network:**
+
+⟶ Типы вентилей ― Вот различные типы вентилей, с которыми мы сталкиваемся в типичной рекуррентной нейронной сети:
+
+
+
+**26. [Input gate, forget gate, gate, output gate]**
+
+⟶ [Входной вентиль, Вентиль забывания, Вентиль обновления, Вентиль выхода]
+
+
+
+**27. [Write to cell or not?, Erase a cell or not?, How much to write to cell?, How much to reveal cell?]**
+
+⟶ [Писать в ячейку или нет?, Стереть ячейку или нет?, Сколько писать в ячейку?, Насколько раскрыть ячейку?]
+
+
+
+**28. LSTM ― A long short-term memory (LSTM) network is a type of RNN model that avoids the vanishing gradient problem by adding 'forget' gates.**
+
+⟶ LSTM ― Сеть с долгой кратковременной памятью (LSTM) - это тип модели RNN, которая позволяет избежать проблемы исчезающего градиента, добавляя вентиль «забывания».
+
+
+
+**29. Reinforcement Learning and Control**
+
+⟶ Обучение с подкреплением и контроль
+
+
+
+**30. The goal of reinforcement learning is for an agent to learn how to evolve in an environment.**
+
+⟶ Цель обучения с подкреплением - научить агента развиваться в окружающей среде.
+
+
+
+**31. Definitions**
+
+⟶ Определения
+
+
+
+**32. Markov decision processes ― A Markov decision process (MDP) is a 5-tuple (S,A,{Psa},γ,R) where:**
+
+⟶ Марковские процессы принятия решений ― Марковский процесс принятия решений (MDP) представляет собой кортеж из 5 составляющих (S,A,{Psa},γ,R), где :
+
+
+
+**33. S is the set of states**
+
+⟶ S - множество всех состояний
+
+
+
+**34. A is the set of actions**
+
+⟶ A - множество всех действий
+
+
+
+**35. {Psa} are the state transition probabilities for s∈S and a∈A**
+
+⟶ {Psa} - вероятности перехода состояний для s∈S и a∈A
+
+
+
+**36. γ∈[0,1[ is the discount factor**
+
+⟶ γ∈[0,1[ - коэффициент дисконтирования
+
+
+
+**37. R:S×A⟶R or R:S⟶R is the reward function that the algorithm wants to maximize**
+
+⟶ R:S×A⟶R или R:S⟶R - функция вознаграждения, которую алгоритм хочет максимизировать
+
+
+
+**38. Policy ― A policy π is a function π:S⟶A that maps states to actions.**
+
+⟶ Политика ― Политика π - это функция π:S⟶A, которая отображает состояния в действия.
+
+
+
+**39. Remark: we say that we execute a given policy π if given a state s we take the action a=π(s).**
+
+⟶ Примечание: мы говорим, что выполняем данную политику π, если для данного состояния s мы предпринимаем действие a=π(s).
+
+
+
+**40. Value function ― For a given policy π and a given state s, we define the value function Vπ as follows:**
+
+⟶ Функция ценности ― для данной политики π и данного состояния s мы определяем функцию ценности Vπ следующим образом:
+
+
+
+**41. Bellman equation ― The optimal Bellman equations characterizes the value function Vπ∗ of the optimal policy π∗:**
+
+⟶ Уравнение Беллмана - Оптимальные уравнения Беллмана характеризуют функцию цены Vπ∗ оптимальной политики π∗:
+
+
+
+**42. Remark: we note that the optimal policy π∗ for a given state s is such that:**
+
+⟶ Примечание: отметим, что оптимальная политика π∗ для данного состояния s такова, что:
+
+
+
+**43. Value iteration algorithm ― The value iteration algorithm is in two steps:**
+
+⟶ Алгоритм итерации ценностей ― алгоритм итерации ценностей состоит из двух этапов:
+
+
+
+**44. 1) We initialize the value:**
+
+⟶ 1) Инициализируем ценность:
+
+
+
+**45. 2) We iterate the value based on the values before:**
+
+⟶ 2) Итерация ценности на основе ценностей до:
+
+
+
+**46. Maximum likelihood estimate ― The maximum likelihood estimates for the state transition probabilities are as follows:**
+
+⟶ Оценка максимального правдоподобия ― оценки максимального правдоподобия для вероятностей перехода между состояниями следующие:
+
+
+
+**47. times took action a in state s and got to s′**
+
+⟶ раз предприняли действие a в состоянии s и добрались до s′
+
+
+
+**48. times took action a in state s**
+
+⟶ раз предприняли действия a в состоянии s
+
+
+
+**49. Q-learning ― Q-learning is a model-free estimation of Q, which is done as follows:**
+
+⟶ Q-обучение ― это безмодельная оценка Q, которая выполняется следующим образом:
+
+
+
+**50. View PDF version on GitHub**
+
+⟶ Посмотреть PDF-версию на GitHub
+
+
+
+**51. [Neural Networks, Architecture, Activation function, Backpropagation, Dropout]**
+
+⟶ [Нейронные Сети, Архитектура, Функция активации, Обратное распространение, Прореживание]
+
+
+
+**52. [Convolutional Neural Networks, Convolutional layer, Batch normalization]**
+
+⟶ [Сверточные Нейронные Сети, Сверточный слой, Пакетная нормировка]
+
+
+
+**53. [Recurrent Neural Networks, Gates, LSTM]**
+
+⟶ [Рекуррентные Нейронные Сети, Вентили, LSTM]
+
+
+
+**54. [Reinforcement learning, Markov decision processes, Value/policy iteration, Approximate dynamic programming, Policy search]**
+
+⟶ [Обучение с подкреплением, Марковский процесс принятия решений, Итерация ценности/политики, Приближенное динамическое программирование, Политика поиска]
+
+
+
+**55. Original authors**
+
+⟶ Авторы оригинала: Afshine Amidi и Shervine Amidi ― https://github.com/shervinea
+
+
+
+**56. Translated by X, Y and Z**
+
+⟶ Российская адаптация: Пархоменко Александр ― https://github.com/AlexandrParkhomenko
+
+
+
+**57. Reviewed by X, Y and Z**
+
+⟶ Проверено X, Y и Z
+
+
+
+**58. View PDF version on GitHub**
+
+⟶ Посмотреть PDF-версию на GitHub
+
+
+
+**59. By X and Y**
+
+⟶ По X и Y
+
+
+
+
From 790315e114f9aa17cb7a5915b92771d9e2a437f3 Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
Date: Thu, 24 Dec 2020 10:29:50 +0300
Subject: [PATCH 02/19] [russian] ru
---
ru/cs-229-deep-learning.md | 2 --
1 file changed, 2 deletions(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index daeee4c7c..be012440e 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -356,5 +356,3 @@
⟶ По X и Y
-
-
From 04f7f5d2e7160549d524c38d33c97f1c6ad17125 Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:16:32 +0300
Subject: [PATCH 03/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index be012440e..ff3ed4ff1 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -34,7 +34,7 @@
**6. By noting i the ith layer of the network and j the jth hidden unit of the layer, we have:**
-⟶ Отметив i-й слой сети и j-ю скрытую единицу слоя, мы имеем:
+⟶ Отметив i-ый слой сети и j-ый нейрон скрытого слоя, мы имеем:
From 1cea8a3687dd83efce0ac813e8c78847e105b6e1 Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:16:41 +0300
Subject: [PATCH 04/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index ff3ed4ff1..2feebb69b 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -46,7 +46,7 @@
**8. Activation function ― Activation functions are used at the end of a hidden unit to introduce non-linear complexities to the model. Here are the most common ones:**
-⟶ Функция активации ― используются в конце скрытого блока, чтобы внести в модель нелинейность. Вот самые распространенные:
+⟶ Функция активации ― используется на выходе каждого нейрона скрытого слоя, чтобы внести в модель нелинейность. Вот самые распространенные:
From 8d2d23ebe39c92af6e259970310b37a2061d8a07 Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:16:46 +0300
Subject: [PATCH 05/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index 2feebb69b..4c1d688eb 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -52,7 +52,7 @@
**9. [Sigmoid, Tanh, ReLU, Leaky ReLU]**
-⟶ [Сигмоида, Tanh, ReLU, ReLU с утечкой]
+⟶ [Sigmoid, Tanh, ReLU, Leaky ReLU]
From 8bd646c0f98e7c5795965105cf549b39668068a5 Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:16:52 +0300
Subject: [PATCH 06/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index 4c1d688eb..5e855817d 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -58,7 +58,7 @@
**10. Cross-entropy loss ― In the context of neural networks, the cross-entropy loss L(z,y) is commonly used and is defined as follows:**
-⟶ Функция потерь на основе перекрестной энтропии ― в контексте нейронных сетей обычно используются потери кросс-энтропии L(z,y), которые определяются следующим образом:
+⟶ Функция потерь на основе перекрестной энтропии ― в контексте нейронных сетей обычно используется функция потерь кросс-энтропии L(z,y), которая определяется следующим образом:
From ed9baa64cf7b2c043c81d435e62261b9b6872357 Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:16:56 +0300
Subject: [PATCH 07/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index 5e855817d..685fbe3f3 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -70,7 +70,7 @@
**12. Backpropagation ― Backpropagation is a method to update the weights in the neural network by taking into account the actual output and the desired output. The derivative with respect to weight w is computed using chain rule and is of the following form:**
-⟶ Обратное распространение ― это метод обновления весов в нейронной сети с учетом фактического и желаемого результата. Производная по весу w вычисляется с использованием цепного правила и имеет следующий вид:
+⟶ Обратное распространение ошибки ― это метод обновления весов в нейронной сети с учетом фактических выходов сети и желаемых меток классов. Производная по весу w вычисляется с использованием цепного правила и имеет следующий вид:
From 312413de2be8b315b30e01074e100b208e535b38 Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:17:17 +0300
Subject: [PATCH 08/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index 685fbe3f3..e44846b05 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -281,7 +281,7 @@
**47. times took action a in state s and got to s′**
-⟶ раз предприняли действие a в состоянии s и добрались до s′
+⟶ раз предприняли действие a в состоянии s и перешли в s′
From a031da3f6188cf19b9368088f9ad395c9bf3cc48 Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:17:23 +0300
Subject: [PATCH 09/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index e44846b05..01e8792c0 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -305,7 +305,7 @@
**51. [Neural Networks, Architecture, Activation function, Backpropagation, Dropout]**
-⟶ [Нейронные Сети, Архитектура, Функция активации, Обратное распространение, Прореживание]
+⟶ [Нейронные Сети, Архитектура, Функция активации, Обратное распространение ошибки, Прореживание]
From f2c2eda025adfd0cc7f02c55922499c1b4eb9d88 Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:17:27 +0300
Subject: [PATCH 10/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index 01e8792c0..59df71a4d 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -329,7 +329,7 @@
**55. Original authors**
-⟶ Авторы оригинала: Afshine Amidi и Shervine Amidi ― https://github.com/shervinea
+⟶ Авторы оригинала: Afshine Amidi и Shervine Amidi ― https://github.com/afshinea и https://github.com/shervinea
From b2756580870cfbcd35d3e177caa8335bdd302c70 Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:17:31 +0300
Subject: [PATCH 11/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index 59df71a4d..cefd888cf 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -335,7 +335,7 @@
**56. Translated by X, Y and Z**
-⟶ Российская адаптация: Пархоменко Александр ― https://github.com/AlexandrParkhomenko
+⟶ Переведено на русский язык: Пархоменко Александр ― https://github.com/AlexandrParkhomenko
From 8e48b91896c24594d6c90de602c916559bf3e729 Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:17:35 +0300
Subject: [PATCH 12/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index cefd888cf..e6b28e237 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -341,7 +341,7 @@
**57. Reviewed by X, Y and Z**
-⟶ Проверено X, Y и Z
+⟶ Проверено на русском языке: Труш Георгий (Georgy Trush) ― https://github.com/geotrush
From db952dea4b82bfd820a4f9aa9d8bd4638a6ac2c3 Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:17:43 +0300
Subject: [PATCH 13/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index e6b28e237..c0f409138 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -94,7 +94,7 @@
**16. Step 2: Perform forward propagation to obtain the corresponding loss.**
-⟶ Шаг 2: Выполнить прямое распространение и получить соответствующие значения функции стоимости.
+⟶ Шаг 2: Выполнить прямой проход сети для получения соответствующих значений функции стоимости.
From 8668b192f5678c8ee7946b7c1ce4df59237e86f7 Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:17:51 +0300
Subject: [PATCH 14/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index c0f409138..b5247e6ad 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -88,7 +88,7 @@
**15. Step 1: Take a batch of training data.**
-⟶ Шаг 1. Возьмите пакет обучающих данных.
+⟶ Шаг 1. Взять пакет обучающих данных.
From 91d630c1ff148bb4b0dccf7a767fc96677c87dee Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:17:59 +0300
Subject: [PATCH 15/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index b5247e6ad..20f3ac197 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -101,7 +101,7 @@
**17. Step 3: Backpropagate the loss to get the gradients.**
-⟶ Шаг 3: Выполнить обратное распространение ошибки и получить градиенты.
+⟶ Шаг 3: Выполнить обратное распространение ошибки для получения градиентов.
From dbb12ad659a755707268204fcd7d3d78705b76ef Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:18:06 +0300
Subject: [PATCH 16/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index 20f3ac197..7ebf79113 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -107,7 +107,7 @@
**18. Step 4: Use the gradients to update the weights of the network.**
-⟶ Шаг 4. Использовать градиенты и обновить веса сети.
+⟶ Шаг 4. Использовать градиенты, чтобы обновить веса сети.
From 4fe107ba2c37a7e381c26948b6e2429309de423f Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:18:14 +0300
Subject: [PATCH 17/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index 7ebf79113..e4b7092f8 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -113,7 +113,7 @@
**19. Dropout ― Dropout is a technique meant at preventing overfitting the training data by dropping out units in a neural network. In practice, neurons are either dropped with probability p or kept with probability 1−p**
-⟶ Прореживание (Dropout) ― это метод, предназначенный для предотвращения переобучения на обучающих данных путем исключения блоков в нейронной сети. На практике нейроны либо отбрасываются с вероятностью p, либо сохраняются с вероятностью 1−p
+⟶ Прореживание (Dropout) ― это метод, предназначенный для предотвращения переобучения путем удаления нейронов из сети. На практике нейроны либо отбрасываются с вероятностью p, либо сохраняются с вероятностью 1−p
From c6e5390c88a3b664b2b2912c4f5ba885d1c90c5b Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:18:23 +0300
Subject: [PATCH 18/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index e4b7092f8..8e5d0a6fd 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -137,7 +137,7 @@
**23. It is usually done after a fully connected/convolutional layer and before a non-linearity layer and aims at allowing higher learning rates and reducing the strong dependence on initialization.**
-⟶ Обычно это делается после полносвязного / сверточного слоя и до функции нелинейности и направлено на повышение скорости обучения и уменьшение сильной зависимости от инициализации.
+⟶ Обычно это делается после полносвязного/сверточного слоя и до функции нелинейности и направлено на повышение скорости обучения и уменьшение сильной зависимости от инициализации.
From 2b5f64691c01276e57182036f54b50e02825c45f Mon Sep 17 00:00:00 2001
From: AlexandrParkhomenko
<48244777+AlexandrParkhomenko@users.noreply.github.com>
Date: Wed, 17 Feb 2021 21:18:32 +0300
Subject: [PATCH 19/19] Update ru/cs-229-deep-learning.md
Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com>
---
ru/cs-229-deep-learning.md | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md
index 8e5d0a6fd..6487ce96b 100644
--- a/ru/cs-229-deep-learning.md
+++ b/ru/cs-229-deep-learning.md
@@ -245,7 +245,7 @@
**41. Bellman equation ― The optimal Bellman equations characterizes the value function Vπ∗ of the optimal policy π∗:**
-⟶ Уравнение Беллмана - Оптимальные уравнения Беллмана характеризуют функцию цены Vπ∗ оптимальной политики π∗:
+⟶ Уравнение Беллмана - Оптимальные уравнения Беллмана характеризуют функцию ценности Vπ∗ оптимальной политики π∗: