From 3c5916ad4821eaaa1a68a405c46a740d881db76a Mon Sep 17 00:00:00 2001 From: qunaieer Date: Wed, 6 Nov 2019 18:51:13 +0300 Subject: [PATCH] Adding RTL tags to cs-229-deep-learning.md for AR --- ar/cs-229-deep-learning.md | 120 +++++++++++++++++++++++++++++++++++-- 1 file changed, 114 insertions(+), 6 deletions(-) diff --git a/ar/cs-229-deep-learning.md b/ar/cs-229-deep-learning.md index d4cf59da6..197538d2b 100644 --- a/ar/cs-229-deep-learning.md +++ b/ar/cs-229-deep-learning.md @@ -2,322 +2,430 @@ **1. Deep Learning cheatsheet** ⟶ +
ملخص مختصر التعلم العميق +

**2. Neural Networks** ⟶ +
الشبكة العصبونية الاصطناعية(Neural Networks) +

**3. Neural networks are a class of models that are built with layers. Commonly used types of neural networks include convolutional and recurrent neural networks.** ⟶ +
الشبكة العصبونية الاصطناعيةهي عبارة عن نوع من النماذج يبنى من عدة طبقات , اكثر هذة الانواع استخداما هي الشبكات الالتفافية و الشبكات العصبونية المتكرره +

**4. Architecture ― The vocabulary around neural networks architectures is described in the figure below:** ⟶ +
البنية - المصطلحات حول بنية الشبكة العصبونية موضح في الشكل ادناة +

**5. [Input layer, hidden layer, output layer]** ⟶ +
[طبقة ادخال, طبقة مخفية, طبقة اخراج ] +

**6. By noting i the ith layer of the network and j the jth hidden unit of the layer, we have:** ⟶ +
عبر تدوين i كالطبقة رقم i و j للدلالة على رقم الوحده الخفية في تلك الطبقة , نحصل على: +

**7. where we note w, b, z the weight, bias and output respectively.** ⟶ +
حيث نعرف w, b, z كالوزن , و معامل التعديل , و الناتج حسب الترتيب. +

**8. Activation function ― Activation functions are used at the end of a hidden unit to introduce non-linear complexities to the model. Here are the most common ones:** ⟶ +
دالة التفعيل(Activation function) - دالة التفعيل تستخدم في نهاية الوحده الخفية لتضمن المكونات الغير خطية للنموذج. هنا بعض دوال التفعيل الشائعة +

**9. [Sigmoid, Tanh, ReLU, Leaky ReLU]** ⟶ +
[Sigmoid, Tanh, ReLU, Leaky ReLU] +

**10. Cross-entropy loss ― In the context of neural networks, the cross-entropy loss L(z,y) is commonly used and is defined as follows:** ⟶ +
دالة الانتروبيا التقاطعية للخسارة(Cross-entropy loss) - في سياق الشبكات العصبونية, دالة الأنتروبيا L(z,y) تستخدم و تعرف كالاتي: +

**11. Learning rate ― The learning rate, often noted α or sometimes η, indicates at which pace the weights get updated. This can be fixed or adaptively changed. The current most popular method is called Adam, which is a method that adapts the learning rate.** ⟶ +
معدل التعلم(Learning rate) - معدل التعلم, يرمز , و هو مؤشر في اي تجاة يتم تحديث الاوزان. يمكن تثبيت هذا المعامل او تحديثة بشكل تأقلمي . حاليا اكثر النسب شيوعا تدعى Adam , وهي طريقة تجعل هذه النسبة سرعة التعلم بشكل تأقلمي α او η ب , +

**12. Backpropagation ― Backpropagation is a method to update the weights in the neural network by taking into account the actual output and the desired output. The derivative with respect to weight w is computed using chain rule and is of the following form:** ⟶ +
التغذية الخلفية(Backpropagation) - التغذية الخلفية هي طريقة لتحديث الاوزان في الشبكة العصبونية عبر اعتبار القيم الحقيقة للناتج مع القيمة المطلوبة للخرج. المشتقة بالنسبة للوزن w يتم حسابها باستخدام قاعدة التسلسل و تكون عبر الشكل الاتي: +

**13. As a result, the weight is updated as follows:** ⟶ +
كنتيجة , الوزن سيتم تحديثة كالتالي: +

**14. Updating weights ― In a neural network, weights are updated as follows:** ⟶ +
تحديث الاوزان - في الشبكات العصبونية , يتم تحديث الاوزان كما يلي: +

**15. Step 1: Take a batch of training data.** ⟶ +
الخطوة 1: خذ حزمة من بيانات التدريب +

**16. Step 2: Perform forward propagation to obtain the corresponding loss.** ⟶ +
الخطوة 2: قم بعملية التغذيه الامامية لحساب الخسارة الناتجة +

**17. Step 3: Backpropagate the loss to get the gradients.** ⟶ +
الخطوة 3: قم بتغذية خلفية للخساره للحصول على دالة الانحدار +

**18. Step 4: Use the gradients to update the weights of the network.** ⟶ +
الخطوة 4: استخدم قيم الانحدار لتحديث اوزان الشبكة +

**19. Dropout ― Dropout is a technique meant at preventing overfitting the training data by dropping out units in a neural network. In practice, neurons are either dropped with probability p or kept with probability 1−p** ⟶ +
الاسقاط(Dropout) - الاسقاط هي طريقة الغرض منها منع التكيف الزائد للنموذج في بيانات التدريب عبر اسقاط بعض الواحدات في الشبكة العصبونية, العصبونات يتم اما اسقاطها باحتمالية p او الحفاظ عليها باحتمالية 1-p. +

**20. Convolutional Neural Networks** ⟶ +
الشبكات العصبونية الالتفافية(CNN) +

**21. Convolutional layer requirement ― By noting W the input volume size, F the size of the convolutional layer neurons, P the amount of zero padding, then the number of neurons N that fit in a given volume is such that:** ⟶ +
احتياج الطبقة الالتفافية - عبر رمز w لحجم المدخل , F حجم العصبونات للطبقة الالتفافية , P عدد الحشوات الصفرية , فأن N عدد العصبونات لكل حجم معطى يحسب عبر الاتي: +

**22. Batch normalization ― It is a step of hyperparameter γ,β that normalizes the batch {xi}. By noting μB,σ2B the mean and variance of that we want to correct to the batch, it is done as follows:** ⟶ +
تنظيم الحزمة(Batch normalization) - هي خطوه من قيم التحسين الخاصة γ,β والتي تعدل الحزمة {xi}. لنجعل μB,σ2B المتوسط و الانحراف للحزمة المعنية و نريد تصحيح هذه الحزمة, يتم ذلك كالتالي: +

**23. It is usually done after a fully connected/convolutional layer and before a non-linearity layer and aims at allowing higher learning rates and reducing the strong dependence on initialization.** ⟶ +
في الغالب تتم بعد الطبقة الالتفافية أو المتصلة كليا و قبل طبقة التغيرات الغير خطية و تهدف للسماح للسرعات التعليم العالية للتقليل من الاعتمادية القوية للقيم الاولية. - +

**24. Recurrent Neural Networks** ⟶ +
(RNN)الشبكات العصبونية التكرارية +

**25. Types of gates ― Here are the different types of gates that we encounter in a typical recurrent neural network:** ⟶ +
انواع البوابات - هنا الانواع المختلفة التي ممكن مواجهتها في الشبكة العصبونية الاعتيادية: +

**26. [Input gate, forget gate, gate, output gate]** ⟶ +
[بوابة ادخال, بوابة نسيان, بوابة منفذ, بوابة اخراج ] +

**27. [Write to cell or not?, Erase a cell or not?, How much to write to cell?, How much to reveal cell?]** ⟶ +
[كتابة ام عدم كتابة الى الخلية؟, مسح ام عدم مسح الخلية؟, كمية الكتابة الى الخلية ؟ , مدى الافصاح عن الخلية ؟ ] +

**28. LSTM ― A long short-term memory (LSTM) network is a type of RNN model that avoids the vanishing gradient problem by adding 'forget' gates.** ⟶ +
LSTM - ذاكرة طويلة قصير الامد (long short-term memory) هي نوع من نموذج ال RNN تستخدم لتجنب مشكلة اختفاء الانحدار عبر اضافة بوابات النسيان. +

**29. Reinforcement Learning and Control** ⟶ +
التعلم و التحكم المعزز(Reinforcement Learning) +

**30. The goal of reinforcement learning is for an agent to learn how to evolve in an environment.** ⟶ +
الهدف من التعلم المعزز للعميل الذكي هو التعلم لكيفية التأقلم في اي بيئة. +

**31. Definitions** ⟶ +
تعريفات +

**32. Markov decision processes ― A Markov decision process (MDP) is a 5-tuple (S,A,{Psa},γ,R) where:** ⟶ +
عملية ماركوف لاتخاذ القرار - عملية ماركوف لاتخاذ القرار هي سلسلة خماسية (S,A,{Psa},γ,R) حيث - +

**33. S is the set of states** ⟶ +
S هي مجموعة من حالات البيئة +

**34. A is the set of actions** ⟶ +
A هي مجموعة من حالات الاجراءات -
+
+
+ **35. {Psa} are the state transition probabilities for s∈S and a∈A** ⟶ +
{Psa} هو حالة احتمال الانتقال من الحالة s∈S و a∈A +

**36. γ∈[0,1[ is the discount factor** ⟶ +
γ∈[0,1[ هي عامل الخصم +

**37. R:S×A⟶R or R:S⟶R is the reward function that the algorithm wants to maximize** ⟶ +
R:S×A⟶R or R:S⟶R هي دالة المكافأة والتي تعمل الخوارزمية على جعلها اعلى قيمة +

**38. Policy ― A policy π is a function π:S⟶A that maps states to actions.** ⟶ +
دالة القواعد - دالة القواعد π:S⟶A هي التي تقوم بترجمة الحالات الى اجراءات. +

**39. Remark: we say that we execute a given policy π if given a state s we take the action a=π(s).** ⟶ +
ملاحظة: نقول ان النموذج ينفذ القاعدة المعينه π للحالة المعطاة s ان نتخذ الاجراءa=π(s). +

**40. Value function ― For a given policy π and a given state s, we define the value function Vπ as follows:** ⟶ +
دالة القاعدة - لاي قاعدة معطاة π و حالة s, نقوم بتعريف دالة القيمة Vπ كما يلي: +

**41. Bellman equation ― The optimal Bellman equations characterizes the value function Vπ∗ of the optimal policy π∗:** ⟶ +
معادلة بيلمان - معادلات بيلمان المثلى تشخص دالة القيمة دالة القيمة Vπ∗ π∗:للقاعدة المثلى +

**42. Remark: we note that the optimal policy π∗ for a given state s is such that:** ⟶ +
π∗ للحالة المعطاه s تعطى كاالتالي: ملاحظة: نلاحظ ان القاعدة المثلى +

**43. Value iteration algorithm ― The value iteration algorithm is in two steps:** ⟶ +
خوارزمية تكرار القيمة(Value iteration algorithm) - خوارزمية تكرار القيمة تكون في خطوتين: +

**44. 1) We initialize the value:** ⟶ +
1) نقوم بوضع قيمة اولية: +

**45. 2) We iterate the value based on the values before:** ⟶ +
2) نقوم بتكرير القيمة حسب القيم السابقة: - +

+ **46. Maximum likelihood estimate ― The maximum likelihood estimates for the state transition probabilities are as follows:** ⟶ +
تقدير الامكانية القصوى - تقديرات الامكانية القصوى (تقدير الاحتمال الأرجح) لحتماليات انتقال الحالة تكون كما يلي : +

**47. times took action a in state s and got to s′** ⟶ +
اوقات تنفيذ الاجراء a في الحالة s و انتقلت الى s' - +

+ **48. times took action a in state s** ⟶ +
اوقات تنفيذ الاجراء a في الحالة s +

**49. Q-learning ― Q-learning is a model-free estimation of Q, which is done as follows:** ⟶ +
التعلم-Q (Q-learning) -هي طريقة غير منمذجة لتقدير Q , و تتم كالاتي: -
+
+
+ **50. View PDF version on GitHub** ⟶ +
قم باستعراض نسخة ال PDF على GitHub +

**51. [Neural Networks, Architecture, Activation function, Backpropagation, Dropout]** ⟶ +
[شبكات عصبونية, البنية , دالة التفعيل , التغذية الخلفية , الاسقاط ] +

**52. [Convolutional Neural Networks, Convolutional layer, Batch normalization]** ⟶ +
[ الشبكة العصبونية الالتفافية , طبقة التفافية , تنظيم الحزمة ] +

**53. [Recurrent Neural Networks, Gates, LSTM]** ⟶ +
[الشبكة العصبونية التكرارية , البوابات , LSTM] +

**54. [Reinforcement learning, Markov decision processes, Value/policy iteration, Approximate dynamic programming, Policy search]** ⟶ +
[التعلم المعزز , عملية ماركوف لاتخاذ القرار , تكرير القيمة / القاعدة , بحث القاعدة] +