From f84bdef105616c600d620409f8577ebb0116e9e7 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 23 Dec 2020 13:25:41 +0300 Subject: [PATCH 01/19] [ru] cs-229-deep-learning --- ru/cs-229-deep-learning.md | 360 +++++++++++++++++++++++++++++++++++++ 1 file changed, 360 insertions(+) create mode 100644 ru/cs-229-deep-learning.md diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md new file mode 100644 index 000000000..daeee4c7c --- /dev/null +++ b/ru/cs-229-deep-learning.md @@ -0,0 +1,360 @@ +**Deep learning translation** [[webpage]](https://stanford.edu/~shervine/teaching/cs-229/cheatsheet-deep-learning) + +
+ +**1. Deep Learning cheatsheet** + +⟶ Шпаргалка по глубокому обучению + +
+ +**2. Neural Networks** + +⟶ Нейронные сети + +
+ +**3. Neural networks are a class of models that are built with layers. Commonly used types of neural networks include convolutional and recurrent neural networks.** + +⟶ Нейронные сети - это класс моделей, построенных с использованием слоёв. Обычно используемые типы нейронных сетей включают сверточные и рекуррентные нейронные сети. + +
+ +**4. Architecture ― The vocabulary around neural networks architectures is described in the figure below:** + +⟶ Архитектура ― Словарь архитектур нейронных сетей описан на рисунке ниже: + +
+ +**5. [Input layer, hidden layer, output layer]** + +⟶ [Входной слой, Скрытый слой, Выходной слой] + +
+ +**6. By noting i the ith layer of the network and j the jth hidden unit of the layer, we have:** + +⟶ Отметив i-й слой сети и j-ю скрытую единицу слоя, мы имеем: + +
+ +**7. where we note w, b, z the weight, bias and output respectively.** + +⟶ где мы обозначаем w, b, z вес, смещение и выход соответственно. + +
+ +**8. Activation function ― Activation functions are used at the end of a hidden unit to introduce non-linear complexities to the model. Here are the most common ones:** + +⟶ Функция активации ― используются в конце скрытого блока, чтобы внести в модель нелинейность. Вот самые распространенные: + +
+ +**9. [Sigmoid, Tanh, ReLU, Leaky ReLU]** + +⟶ [Сигмоида, Tanh, ReLU, ReLU с утечкой] + +
+ +**10. Cross-entropy loss ― In the context of neural networks, the cross-entropy loss L(z,y) is commonly used and is defined as follows:** + +⟶ Функция потерь на основе перекрестной энтропии ― в контексте нейронных сетей обычно используются потери кросс-энтропии L(z,y), которые определяются следующим образом: + +
+ +**11. Learning rate ― The learning rate, often noted α or sometimes η, indicates at which pace the weights get updated. This can be fixed or adaptively changed. The current most popular method is called Adam, which is a method that adapts the learning rate.** + +⟶ Скорость обучения - часто обозначаемая как α или иногда η, указывает, с какой скоростью обновляются веса. Её можно исправить или адаптивно изменить. Самый популярный в настоящее время метод называется Adam (адаптивные моменты), он адаптирует скорость обучения. + +
+ +**12. Backpropagation ― Backpropagation is a method to update the weights in the neural network by taking into account the actual output and the desired output. The derivative with respect to weight w is computed using chain rule and is of the following form:** + +⟶ Обратное распространение ― это метод обновления весов в нейронной сети с учетом фактического и желаемого результата. Производная по весу w вычисляется с использованием цепного правила и имеет следующий вид: + +
+ +**13. As a result, the weight is updated as follows:** + +⟶ В результате вес обновляется следующим образом: + +
+ +**14. Updating weights ― In a neural network, weights are updated as follows:** + +⟶ Обновление весов ― В нейронной сети веса обновляются следующим образом: + +
+ +**15. Step 1: Take a batch of training data.** + +⟶ Шаг 1. Возьмите пакет обучающих данных. + +
+ +**16. Step 2: Perform forward propagation to obtain the corresponding loss.** + +⟶ Шаг 2: Выполнить прямое распространение и получить соответствующие значения функции стоимости. + + +
+ +**17. Step 3: Backpropagate the loss to get the gradients.** + +⟶ Шаг 3: Выполнить обратное распространение ошибки и получить градиенты. + +
+ +**18. Step 4: Use the gradients to update the weights of the network.** + +⟶ Шаг 4. Использовать градиенты и обновить веса сети. + +
+ +**19. Dropout ― Dropout is a technique meant at preventing overfitting the training data by dropping out units in a neural network. In practice, neurons are either dropped with probability p or kept with probability 1−p** + +⟶ Прореживание (Dropout) ― это метод, предназначенный для предотвращения переобучения на обучающих данных путем исключения блоков в нейронной сети. На практике нейроны либо отбрасываются с вероятностью p, либо сохраняются с вероятностью 1−p + +
+ +**20. Convolutional Neural Networks** + +⟶ Сверточные нейронные сети + +
+ +**21. Convolutional layer requirement ― By noting W the input volume size, F the size of the convolutional layer neurons, P the amount of zero padding, then the number of neurons N that fit in a given volume is such that:** + +⟶ Требования к сверточному слою ― обозначим W - размер входного объёма, F - размер нейронов сверточного слоя, P - величину дополнения нулями, тогда количество нейронов N, которые помещаются в данный объём, будет таким: + +
+ +**22. Batch normalization ― It is a step of hyperparameter γ,β that normalizes the batch {xi}. By noting μB,σ2B the mean and variance of that we want to correct to the batch, it is done as follows:** + +⟶ Пакетная нормировка ― метод адаптивной перепараметризации γ,β, который нормирует пакет {xi}. Обозначим μB,σ2B как среднее значение и дисперсию, которые мы хотим скорректировать для пакета, это делается следующим образом: + +
+ +**23. It is usually done after a fully connected/convolutional layer and before a non-linearity layer and aims at allowing higher learning rates and reducing the strong dependence on initialization.** + +⟶ Обычно это делается после полносвязного / сверточного слоя и до функции нелинейности и направлено на повышение скорости обучения и уменьшение сильной зависимости от инициализации. + +
+ +**24. Recurrent Neural Networks** + +⟶ Рекуррентные нейронные сети + +
+ +**25. Types of gates ― Here are the different types of gates that we encounter in a typical recurrent neural network:** + +⟶ Типы вентилей ― Вот различные типы вентилей, с которыми мы сталкиваемся в типичной рекуррентной нейронной сети: + +
+ +**26. [Input gate, forget gate, gate, output gate]** + +⟶ [Входной вентиль, Вентиль забывания, Вентиль обновления, Вентиль выхода] + +
+ +**27. [Write to cell or not?, Erase a cell or not?, How much to write to cell?, How much to reveal cell?]** + +⟶ [Писать в ячейку или нет?, Стереть ячейку или нет?, Сколько писать в ячейку?, Насколько раскрыть ячейку?] + +
+ +**28. LSTM ― A long short-term memory (LSTM) network is a type of RNN model that avoids the vanishing gradient problem by adding 'forget' gates.** + +⟶ LSTM ― Сеть с долгой кратковременной памятью (LSTM) - это тип модели RNN, которая позволяет избежать проблемы исчезающего градиента, добавляя вентиль «забывания». + +
+ +**29. Reinforcement Learning and Control** + +⟶ Обучение с подкреплением и контроль + +
+ +**30. The goal of reinforcement learning is for an agent to learn how to evolve in an environment.** + +⟶ Цель обучения с подкреплением - научить агента развиваться в окружающей среде. + +
+ +**31. Definitions** + +⟶ Определения + +
+ +**32. Markov decision processes ― A Markov decision process (MDP) is a 5-tuple (S,A,{Psa},γ,R) where:** + +⟶ Марковские процессы принятия решений ― Марковский процесс принятия решений (MDP) представляет собой кортеж из 5 составляющих (S,A,{Psa},γ,R), где : + +
+ +**33. S is the set of states** + +⟶ S - множество всех состояний + +
+ +**34. A is the set of actions** + +⟶ A - множество всех действий + +
+ +**35. {Psa} are the state transition probabilities for s∈S and a∈A** + +⟶ {Psa} - вероятности перехода состояний для s∈S и a∈A + +
+ +**36. γ∈[0,1[ is the discount factor** + +⟶ γ∈[0,1[ - коэффициент дисконтирования + +
+ +**37. R:S×A⟶R or R:S⟶R is the reward function that the algorithm wants to maximize** + +⟶ R:S×A⟶R или R:S⟶R - функция вознаграждения, которую алгоритм хочет максимизировать + +
+ +**38. Policy ― A policy π is a function π:S⟶A that maps states to actions.** + +⟶ Политика ― Политика π - это функция π:S⟶A, которая отображает состояния в действия. + +
+ +**39. Remark: we say that we execute a given policy π if given a state s we take the action a=π(s).** + +⟶ Примечание: мы говорим, что выполняем данную политику π, если для данного состояния s мы предпринимаем действие a=π(s). + +
+ +**40. Value function ― For a given policy π and a given state s, we define the value function Vπ as follows:** + +⟶ Функция ценности ― для данной политики π и данного состояния s мы определяем функцию ценности Vπ следующим образом: + +
+ +**41. Bellman equation ― The optimal Bellman equations characterizes the value function Vπ∗ of the optimal policy π∗:** + +⟶ Уравнение Беллмана - Оптимальные уравнения Беллмана характеризуют функцию цены Vπ∗ оптимальной политики π∗: + +
+ +**42. Remark: we note that the optimal policy π∗ for a given state s is such that:** + +⟶ Примечание: отметим, что оптимальная политика π∗ для данного состояния s такова, что: + +
+ +**43. Value iteration algorithm ― The value iteration algorithm is in two steps:** + +⟶ Алгоритм итерации ценностей ― алгоритм итерации ценностей состоит из двух этапов: + +
+ +**44. 1) We initialize the value:** + +⟶ 1) Инициализируем ценность: + +
+ +**45. 2) We iterate the value based on the values before:** + +⟶ 2) Итерация ценности на основе ценностей до: + +
+ +**46. Maximum likelihood estimate ― The maximum likelihood estimates for the state transition probabilities are as follows:** + +⟶ Оценка максимального правдоподобия ― оценки максимального правдоподобия для вероятностей перехода между состояниями следующие: + +
+ +**47. times took action a in state s and got to s′** + +⟶ раз предприняли действие a в состоянии s и добрались до s′ + +
+ +**48. times took action a in state s** + +⟶ раз предприняли действия a в состоянии s + +
+ +**49. Q-learning ― Q-learning is a model-free estimation of Q, which is done as follows:** + +⟶ Q-обучение ― это безмодельная оценка Q, которая выполняется следующим образом: + +
+ +**50. View PDF version on GitHub** + +⟶ Посмотреть PDF-версию на GitHub + +
+ +**51. [Neural Networks, Architecture, Activation function, Backpropagation, Dropout]** + +⟶ [Нейронные Сети, Архитектура, Функция активации, Обратное распространение, Прореживание] + +
+ +**52. [Convolutional Neural Networks, Convolutional layer, Batch normalization]** + +⟶ [Сверточные Нейронные Сети, Сверточный слой, Пакетная нормировка] + +
+ +**53. [Recurrent Neural Networks, Gates, LSTM]** + +⟶ [Рекуррентные Нейронные Сети, Вентили, LSTM] + +
+ +**54. [Reinforcement learning, Markov decision processes, Value/policy iteration, Approximate dynamic programming, Policy search]** + +⟶ [Обучение с подкреплением, Марковский процесс принятия решений, Итерация ценности/политики, Приближенное динамическое программирование, Политика поиска] + +
+ +**55. Original authors** + +⟶ Авторы оригинала: Afshine Amidi и Shervine Amidi ― https://github.com/shervinea + +
+ +**56. Translated by X, Y and Z** + +⟶ Российская адаптация: Пархоменко Александр ― https://github.com/AlexandrParkhomenko + +
+ +**57. Reviewed by X, Y and Z** + +⟶ Проверено X, Y и Z + +
+ +**58. View PDF version on GitHub** + +⟶ Посмотреть PDF-версию на GitHub + +
+ +**59. By X and Y** + +⟶ По X и Y + +
+ + From 790315e114f9aa17cb7a5915b92771d9e2a437f3 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko Date: Thu, 24 Dec 2020 10:29:50 +0300 Subject: [PATCH 02/19] [russian] ru --- ru/cs-229-deep-learning.md | 2 -- 1 file changed, 2 deletions(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index daeee4c7c..be012440e 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -356,5 +356,3 @@ ⟶ По X и Y
- - From 04f7f5d2e7160549d524c38d33c97f1c6ad17125 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:16:32 +0300 Subject: [PATCH 03/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index be012440e..ff3ed4ff1 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -34,7 +34,7 @@ **6. By noting i the ith layer of the network and j the jth hidden unit of the layer, we have:** -⟶ Отметив i-й слой сети и j-ю скрытую единицу слоя, мы имеем: +⟶ Отметив i-ый слой сети и j-ый нейрон скрытого слоя, мы имеем:
From 1cea8a3687dd83efce0ac813e8c78847e105b6e1 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:16:41 +0300 Subject: [PATCH 04/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index ff3ed4ff1..2feebb69b 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -46,7 +46,7 @@ **8. Activation function ― Activation functions are used at the end of a hidden unit to introduce non-linear complexities to the model. Here are the most common ones:** -⟶ Функция активации ― используются в конце скрытого блока, чтобы внести в модель нелинейность. Вот самые распространенные: +⟶ Функция активации ― используется на выходе каждого нейрона скрытого слоя, чтобы внести в модель нелинейность. Вот самые распространенные:
From 8d2d23ebe39c92af6e259970310b37a2061d8a07 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:16:46 +0300 Subject: [PATCH 05/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index 2feebb69b..4c1d688eb 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -52,7 +52,7 @@ **9. [Sigmoid, Tanh, ReLU, Leaky ReLU]** -⟶ [Сигмоида, Tanh, ReLU, ReLU с утечкой] +⟶ [Sigmoid, Tanh, ReLU, Leaky ReLU]
From 8bd646c0f98e7c5795965105cf549b39668068a5 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:16:52 +0300 Subject: [PATCH 06/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index 4c1d688eb..5e855817d 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -58,7 +58,7 @@ **10. Cross-entropy loss ― In the context of neural networks, the cross-entropy loss L(z,y) is commonly used and is defined as follows:** -⟶ Функция потерь на основе перекрестной энтропии ― в контексте нейронных сетей обычно используются потери кросс-энтропии L(z,y), которые определяются следующим образом: +⟶ Функция потерь на основе перекрестной энтропии ― в контексте нейронных сетей обычно используется функция потерь кросс-энтропии L(z,y), которая определяется следующим образом:
From ed9baa64cf7b2c043c81d435e62261b9b6872357 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:16:56 +0300 Subject: [PATCH 07/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index 5e855817d..685fbe3f3 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -70,7 +70,7 @@ **12. Backpropagation ― Backpropagation is a method to update the weights in the neural network by taking into account the actual output and the desired output. The derivative with respect to weight w is computed using chain rule and is of the following form:** -⟶ Обратное распространение ― это метод обновления весов в нейронной сети с учетом фактического и желаемого результата. Производная по весу w вычисляется с использованием цепного правила и имеет следующий вид: +⟶ Обратное распространение ошибки ― это метод обновления весов в нейронной сети с учетом фактических выходов сети и желаемых меток классов. Производная по весу w вычисляется с использованием цепного правила и имеет следующий вид:
From 312413de2be8b315b30e01074e100b208e535b38 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:17:17 +0300 Subject: [PATCH 08/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index 685fbe3f3..e44846b05 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -281,7 +281,7 @@ **47. times took action a in state s and got to s′** -⟶ раз предприняли действие a в состоянии s и добрались до s′ +⟶ раз предприняли действие a в состоянии s и перешли в s′
From a031da3f6188cf19b9368088f9ad395c9bf3cc48 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:17:23 +0300 Subject: [PATCH 09/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index e44846b05..01e8792c0 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -305,7 +305,7 @@ **51. [Neural Networks, Architecture, Activation function, Backpropagation, Dropout]** -⟶ [Нейронные Сети, Архитектура, Функция активации, Обратное распространение, Прореживание] +⟶ [Нейронные Сети, Архитектура, Функция активации, Обратное распространение ошибки, Прореживание]
From f2c2eda025adfd0cc7f02c55922499c1b4eb9d88 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:17:27 +0300 Subject: [PATCH 10/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index 01e8792c0..59df71a4d 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -329,7 +329,7 @@ **55. Original authors** -⟶ Авторы оригинала: Afshine Amidi и Shervine Amidi ― https://github.com/shervinea +⟶ Авторы оригинала: Afshine Amidi и Shervine Amidi ― https://github.com/afshinea и https://github.com/shervinea
From b2756580870cfbcd35d3e177caa8335bdd302c70 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:17:31 +0300 Subject: [PATCH 11/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index 59df71a4d..cefd888cf 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -335,7 +335,7 @@ **56. Translated by X, Y and Z** -⟶ Российская адаптация: Пархоменко Александр ― https://github.com/AlexandrParkhomenko +⟶ Переведено на русский язык: Пархоменко Александр ― https://github.com/AlexandrParkhomenko
From 8e48b91896c24594d6c90de602c916559bf3e729 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:17:35 +0300 Subject: [PATCH 12/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index cefd888cf..e6b28e237 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -341,7 +341,7 @@ **57. Reviewed by X, Y and Z** -⟶ Проверено X, Y и Z +⟶ Проверено на русском языке: Труш Георгий (Georgy Trush) ― https://github.com/geotrush
From db952dea4b82bfd820a4f9aa9d8bd4638a6ac2c3 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:17:43 +0300 Subject: [PATCH 13/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index e6b28e237..c0f409138 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -94,7 +94,7 @@ **16. Step 2: Perform forward propagation to obtain the corresponding loss.** -⟶ Шаг 2: Выполнить прямое распространение и получить соответствующие значения функции стоимости. +⟶ Шаг 2: Выполнить прямой проход сети для получения соответствующих значений функции стоимости.
From 8668b192f5678c8ee7946b7c1ce4df59237e86f7 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:17:51 +0300 Subject: [PATCH 14/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index c0f409138..b5247e6ad 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -88,7 +88,7 @@ **15. Step 1: Take a batch of training data.** -⟶ Шаг 1. Возьмите пакет обучающих данных. +⟶ Шаг 1. Взять пакет обучающих данных.
From 91d630c1ff148bb4b0dccf7a767fc96677c87dee Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:17:59 +0300 Subject: [PATCH 15/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index b5247e6ad..20f3ac197 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -101,7 +101,7 @@ **17. Step 3: Backpropagate the loss to get the gradients.** -⟶ Шаг 3: Выполнить обратное распространение ошибки и получить градиенты. +⟶ Шаг 3: Выполнить обратное распространение ошибки для получения градиентов.
From dbb12ad659a755707268204fcd7d3d78705b76ef Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:18:06 +0300 Subject: [PATCH 16/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index 20f3ac197..7ebf79113 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -107,7 +107,7 @@ **18. Step 4: Use the gradients to update the weights of the network.** -⟶ Шаг 4. Использовать градиенты и обновить веса сети. +⟶ Шаг 4. Использовать градиенты, чтобы обновить веса сети.
From 4fe107ba2c37a7e381c26948b6e2429309de423f Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:18:14 +0300 Subject: [PATCH 17/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index 7ebf79113..e4b7092f8 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -113,7 +113,7 @@ **19. Dropout ― Dropout is a technique meant at preventing overfitting the training data by dropping out units in a neural network. In practice, neurons are either dropped with probability p or kept with probability 1−p** -⟶ Прореживание (Dropout) ― это метод, предназначенный для предотвращения переобучения на обучающих данных путем исключения блоков в нейронной сети. На практике нейроны либо отбрасываются с вероятностью p, либо сохраняются с вероятностью 1−p +⟶ Прореживание (Dropout) ― это метод, предназначенный для предотвращения переобучения путем удаления нейронов из сети. На практике нейроны либо отбрасываются с вероятностью p, либо сохраняются с вероятностью 1−p
From c6e5390c88a3b664b2b2912c4f5ba885d1c90c5b Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:18:23 +0300 Subject: [PATCH 18/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index e4b7092f8..8e5d0a6fd 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -137,7 +137,7 @@ **23. It is usually done after a fully connected/convolutional layer and before a non-linearity layer and aims at allowing higher learning rates and reducing the strong dependence on initialization.** -⟶ Обычно это делается после полносвязного / сверточного слоя и до функции нелинейности и направлено на повышение скорости обучения и уменьшение сильной зависимости от инициализации. +⟶ Обычно это делается после полносвязного/сверточного слоя и до функции нелинейности и направлено на повышение скорости обучения и уменьшение сильной зависимости от инициализации.
From 2b5f64691c01276e57182036f54b50e02825c45f Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:18:32 +0300 Subject: [PATCH 19/19] Update ru/cs-229-deep-learning.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-229-deep-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-229-deep-learning.md b/ru/cs-229-deep-learning.md index 8e5d0a6fd..6487ce96b 100644 --- a/ru/cs-229-deep-learning.md +++ b/ru/cs-229-deep-learning.md @@ -245,7 +245,7 @@ **41. Bellman equation ― The optimal Bellman equations characterizes the value function Vπ∗ of the optimal policy π∗:** -⟶ Уравнение Беллмана - Оптимальные уравнения Беллмана характеризуют функцию цены Vπ∗ оптимальной политики π∗: +⟶ Уравнение Беллмана - Оптимальные уравнения Беллмана характеризуют функцию ценности Vπ∗ оптимальной политики π∗: