diff --git a/.DS_Store b/.DS_Store
new file mode 100644
index 000000000..5008ddfcf
Binary files /dev/null and b/.DS_Store differ
diff --git a/CONTRIBUTORS b/CONTRIBUTORS
index 871ddd408..96388ca4f 100644
--- a/CONTRIBUTORS
+++ b/CONTRIBUTORS
@@ -1,20 +1,23 @@
--ar
Amjad Khatabi (translation of deep learning)
Zaid Alyafeai (review of deep learning)
-
+
Zaid Alyafeai (translation of linear algebra)
Amjad Khatabi (review of linear algebra)
Mazen Melibari (review of linear algebra)
-
+
Fares Al-Quaneier (translation of machine learning tips and tricks)
Zaid Alyafeai (review of machine learning tips and tricks)
-
+
Fares Al-Quaneier (translation of supervised learning)
Zaid Alyafeai (review of supervised learning)
-
+
+ Redouane Lguensat (translation of unsupervised learning)
+ Fares Al-Quaneier (review of unsupervised learning)
+
--de
---es
+--es
Erick Gabriel Mendoza Flores (translation of deep learning)
Fernando Diaz (review of deep learning)
Fernando González-Herrera (review of deep learning)
@@ -23,12 +26,12 @@
Alonso Melgar López (review of deep learning)
Gustavo Velasco-Hernández (review of deep learning)
Juan Manuel Nava Zamudio (review of deep learning)
-
+
Fernando González-Herrera (translation of linear algebra)
Fernando Diaz (review of linear algebra)
Gustavo Velasco-Hernández (review of linear algebra)
Juan P. Chavat (review of linear algebra)
-
+
David Jiménez Paredes (translation of machine learning tips and tricks)
Fernando Diaz (translation of machine learning tips and tricks)
Gustavo Velasco-Hernández (review of machine learning tips and tricks)
@@ -46,7 +49,7 @@
Jaime Noel Alvarez Luna (translation of unsupervised learning)
Alonso Melgar López (review of unsupervised learning)
Fernando Diaz (review of unsupervised learning)
-
+
--fa
AlisterTA (translation of convolutional neural networks)
Ehsan Kermani (translation of convolutional neural networks)
@@ -59,9 +62,12 @@
AlisterTA (translation of deep learning tips and tricks)
Erfan Noury (review of deep learning tips and tricks)
+ AlisterTA (translation of deep learning tips and tricks)
+ Erfan Noury (review of deep learning tips and tricks)
+
Erfan Noury (translation of linear algebra)
Mohammad Karimi (review of linear algebra)
-
+
AlisterTA (translation of machine learning tips and tricks)
Mohammad Reza (translation of machine learning tips and tricks)
Erfan Noury (review of machine learning tips and tricks)
@@ -76,10 +82,10 @@
Amirhosein Kazemnejad (translation of supervised learning)
Erfan Noury (review of supervised learning)
Mohammad Karimi (review of supervised learning)
-
+
Erfan Noury (translation of unsupervised learning)
Mohammad Karimi (review of unsupervised learning)
-
+
--fr
Original authors
@@ -144,7 +150,7 @@
Leticia Portella (translation of supervised learning)
Gabriel Fonseca (review of supervised learning)
Flavio Clesio (review of supervised learning)
-
+
Gabriel Fonseca (translation of unsupervised learning)
Tiago Danin (review of unsupervised learning)
@@ -217,4 +223,3 @@
kevingo (translation of machine learning tips and tricks)
kentropy (review of machine learning tips and tricks)
-
diff --git a/ar/cs-229-unsupervised-learning.md b/ar/cs-229-unsupervised-learning.md
new file mode 100644
index 000000000..6e309b36d
--- /dev/null
+++ b/ar/cs-229-unsupervised-learning.md
@@ -0,0 +1,399 @@
+**1. Unsupervised Learning cheatsheet**
+
+
+ مرجع سريع للتعلّم غير المُوَجَّه
+
+
+
+
+**2. Introduction to Unsupervised Learning**
+
+
+ مقدمة للتعلّم غير المُوَجَّه
+
+
+
+
+**3. Motivation ― The goal of unsupervised learning is to find hidden patterns in unlabeled data {x(1),...,x(m)}.**
+
+
+ {x(1),...,x(m)} الحافز ― الهدف من التعلّم غير المُوَجَّه هو إيجاد الأنماط الخفية في البيانات غير المٌعلمّة
+
+
+
+
+**4. Jensen's inequality ― Let f be a convex function and X a random variable. We have the following inequality:**
+
+
+متباينة جينسن ― لتكن f دالة محدبة و X متغير عشوائي. لدينا المتباينة التالية:
+
+
+
+
+**5. Clustering**
+
+
+ التجميع
+
+
+
+**6. Expectation-Maximization**
+
+
+ تعظيم القيمة المتوقعة (Expectation-Maximization)
+
+
+
+**7. Latent variables ― Latent variables are hidden/unobserved variables that make estimation problems difficult, and are often denoted z. Here are the most common settings where there are latent variables:**
+
+
+ المتغيرات الكامنة ― المتغيرات الكامنة هي متغيرات مخفية/غير معاينة تزيد من صعوبة مشاكل التقدير، غالباً ما ترمز بالحرف z. في مايلي الإعدادات الشائعة التي تحتوي على متغيرات كامنة:
+
+
+
+**8. [Setting, Latent variable z, Comments]**
+
+
+ [الإعداد، المتغير الكامن z، ملاحظات]
+
+
+
+**9. [Mixture of k Gaussians, Factor analysis]**
+
+
+ [خليط من k توزيع جاوسي، تحليل عاملي]
+
+
+
+**10. Algorithm ― The Expectation-Maximization (EM) algorithm gives an efficient method at estimating the parameter θ through maximum likelihood estimation by repeatedly constructing a lower-bound on the likelihood (E-step) and optimizing that lower bound (M-step) as follows:**
+
+
+خوارزمية ― تعظيم القيمة المتوقعة (Expectation-Maximization) هي عبارة عن طريقة فعالة لتقدير المُدخل θ عبر تقدير تقدير الأرجحية الأعلى (maximum likelihood estimation)، ويتم ذلك بشكل تكراري حيث يتم إيجاد حد أدنى للأرجحية (الخطوة M)، ثم يتم تحسين (optimizing) ذلك الحد الأدنى (الخطوة E)، كما يلي:
+
+
+
+**11. E-step: Evaluate the posterior probability Qi(z(i)) that each data point x(i) came from a particular cluster z(i) as follows:**
+
+
+الخطوة E : حساب الاحتمال البعدي Qi(z(i)) بأن تصدر كل نقطة x(i) من مجموعة (cluster) z(i) كما يلي:
+
+
+
+**12. M-step: Use the posterior probabilities Qi(z(i)) as cluster specific weights on data points x(i) to separately re-estimate each cluster model as follows:**
+
+
+ الخطوة M : يتم استعمال الاحتمالات البعدية Qi(z(i)) كأوزان خاصة لكل مجموعة (cluster) على النقط x(i)، لكي يتم تقدير نموذج لكل مجموعة بشكل منفصل، و ذلك كما يلي:
+
+
+
+**13. [Gaussians initialization, Expectation step, Maximization step, Convergence]**
+
+
+[استهلالات جاوسية، خطوة القيمة المتوقعة، خطوة التعظيم، التقارب]
+
+
+
+**14. k-means clustering**
+
+
+التجميع بالمتوسطات k (k-mean clustering)
+
+
+
+**15. We note c(i) the cluster of data point i and μj the center of cluster j.**
+
+
+نرمز لمجموعة النقط i بـ c(i)، ونرمز بـ μj مركز المجموعات j.
+
+
+
+**16. Algorithm ― After randomly initializing the cluster centroids μ1,μ2,...,μk∈Rn, the k-means algorithm repeats the following step until convergence:**
+
+
+خوارزمية - بعد الاستهلال العشوائي للنقاط المركزية (centroids) للمجوعات μ1,μ2,...,μk∈Rn، التجميع بالمتوسطات k تكرر الخطوة التالية حتى التقارب:
+
+
+
+**17. [Means initialization, Cluster assignment, Means update, Convergence]**
+
+
+[استهلال المتوسطات، تعيين المجموعات، تحديث المتوسطات، التقارب]
+
+
+
+**18. Distortion function ― In order to see if the algorithm converges, we look at the distortion function defined as follows:**
+
+
+دالة التحريف (distortion function) - لكي نتأكد من أن الخوارزمية تقاربت، ننظر إلى دالة التحريف المعرفة كما يلي:
+
+
+
+**19. Hierarchical clustering**
+
+
+ التجميع الهرمي
+
+
+
+**20. Algorithm ― It is a clustering algorithm with an agglomerative hierarchical approach that build nested clusters in a successive manner.**
+
+
+خوارزمية - هي عبارة عن خوارزمية تجميع تعتمد على طريقة تجميع هرمية تبني مجموعات متداخلة بشكل متتال.
+
+
+
+**21. Types ― There are different sorts of hierarchical clustering algorithms that aims at optimizing different objective functions, which is summed up in the table below:**
+
+
+الأنواع - هنالك عدة أنواع من خوارزميات التجميع الهرمي التي ترمي إلى تحسين دوال هدف (objective functions) مختلفة، هذه الأنواع ملخصة في الجدول التالي:
+
+
+
+**22. [Ward linkage, Average linkage, Complete linkage]**
+
+
+[ربط وارْد (ward linkage)، الربط المتوسط، الربط الكامل]
+
+
+
+**23. [Minimize within cluster distance, Minimize average distance between cluster pairs, Minimize maximum distance of between cluster pairs]**
+
+
+[تصغير المسافة داخل المجموعة، تصغير متوسط المسافة بين أزواج المجموعات، تصغير المسافة العظمى بين أزواج المجموعات]
+
+
+**24. Clustering assessment metrics**
+
+
+مقاييس تقدير المجموعات
+
+
+
+**25. In an unsupervised learning setting, it is often hard to assess the performance of a model since we don't have the ground truth labels as was the case in the supervised learning setting.**
+
+
+في التعلّم غير المُوَجَّه من الصعب غالباً تقدير أداء نموذج ما، لأن القيم الحقيقية تكون غير متوفرة كما هو الحال في التعلًم المُوَجَّه.
+
+
+**26. Silhouette coefficient ― By noting a and b the mean distance between a sample and all other points in the same class, and between a sample and all other points in the next nearest cluster, the silhouette coefficient s for a single sample is defined as follows:**
+
+
+معامل الظّل (silhouette coefficient) - إذا رمزنا a و b لمتوسط المسافة بين عينة وكل النقط المنتمية لنفس الصنف، و بين عينة وكل النقط المنتمية لأقرب مجموعة، المعامل الظِلِّي s لعينة واحدة معرف كالتالي:
+
+
+
+**27. Calinski-Harabaz index ― By noting k the number of clusters, Bk and Wk the between and within-clustering dispersion matrices respectively defined as**
+
+
+مؤشر كالينسكي-هارباز (Calinski-Harabaz index) - إذا رمزنا بـ k لعدد المجموعات، فإن Bk و Wk مصفوفتي التشتت بين المجموعات وداخلها تعرف كالتالي:
+
+
+
+**28. the Calinski-Harabaz index s(k) indicates how well a clustering model defines its clusters, such that the higher the score, the more dense and well separated the clusters are. It is defined as follows:**
+
+
+مؤشر كالينسكي-هارباز s(k) يشير إلى جودة نموذج تجميعي في تعريف مجموعاته، بحيث كلما كانت النتيجة أعلى كلما دل ذلك على أن المجموعات أكثر كثافة وأكثر انفصالاً فيما بينها. هذا المؤشر معرّف كالتالي:
+
+
+
+**29. Dimension reduction**
+
+
+تقليص الأبعاد
+
+
+**30. Principal component analysis**
+
+
+تحليل المكون الرئيس
+
+
+
+**31. It is a dimension reduction technique that finds the variance maximizing directions onto which to project the data.**
+
+
+إنها طريقة لتقليص الأبعاد ترمي إلى إيجاد الاتجاهات المعظمة للتباين من أجل إسقاط البيانات عليها.
+
+
+
+**32. Eigenvalue, eigenvector ― Given a matrix A∈Rn×n, λ is said to be an eigenvalue of A if there exists a vector z∈Rn∖{0}, called eigenvector, such that we have:**
+
+
+قيمة ذاتية (eigenvalue)، متجه ذاتي (eigenvector) - لتكن A∈Rn×n مصفوفة، نقول أن λ قيمة ذاتية للمصفوفة A إذا وُجِد متجه z∈Rn∖{0} يسمى متجهاً ذاتياً، بحيث:
+
+
+
+**33. Spectral theorem ― Let A∈Rn×n. If A is symmetric, then A is diagonalizable by a real orthogonal matrix U∈Rn×n. By noting Λ=diag(λ1,...,λn), we have:**
+
+
+مبرهنة الطّيف (Spectral theorem) - لتكن A∈Rn×n. إذا كانت A متناظرة فإنها يمكن أن تكون شبه قطرية عن طريق مصفوفة متعامدة حقيقية U∈Rn×n. إذا رمزنا Λ=diag(λ1,...,λn) ، لدينا:
+
+
+
+**34. diagonal**
+
+
+قطري
+
+
+
+**35. Remark: the eigenvector associated with the largest eigenvalue is called principal eigenvector of matrix A.**
+
+
+ملحوظة: المتجه الذاتي المرتبط بأكبر قيمة ذاتية يسمى بالمتجه الذاتي الرئيسي (principal eigenvector) للمصفوفة A.
+
+
+
+**36. Algorithm ― The Principal Component Analysis (PCA) procedure is a dimension reduction technique that projects the data on k
+dimensions by maximizing the variance of the data as follows:**
+
+
+خوارزمية - تحليل المكون الرئيس (Principal Component Analysis (PCA)) طريقة لخفض الأبعاد تهدف إلى إسقاط البيانات على k بُعد بحيث يتم تعطيم التباين (variance)، خطواتها كالتالي:
+
+
+
+**37. Step 1: Normalize the data to have a mean of 0 and standard deviation of 1.**
+
+
+الخطوة 1: تسوية البيانات بحيث تصبح ذات متوسط يساوي صفر وانحراف معياري يساوي واحد.
+
+
+
+**38. Step 2: Compute Σ=1mm∑i=1x(i)x(i)T∈Rn×n, which is symmetric with real eigenvalues.**
+
+
+الخطوة 2: حساب Σ=1mm∑i=1x(i)x(i)T∈Rn×n، وهي متناظرة وذات قيم ذاتية حقيقية.
+
+
+
+**39. Step 3: Compute u1,...,uk∈Rn the k orthogonal principal eigenvectors of Σ, i.e. the orthogonal eigenvectors of the k largest eigenvalues.**
+
+
+الخطوة 3: حساب u1,...,uk∈Rn المتجهات الذاتية الرئيسية المتعامدة لـ Σ وعددها k ، بعبارة أخرى، k من المتجهات الذاتية المتعامدة ذات القيم الذاتية الأكبر.
+
+
+
+**40. Step 4: Project the data on spanR(u1,...,uk).**
+
+
+الخطوة 4: إسقاط البيانات على spanR(u1,...,uk).
+
+
+
+**41. This procedure maximizes the variance among all k-dimensional spaces.**
+
+
+هذا الإجراء يعظم التباين بين كل الفضاءات البُعدية.
+
+
+
+**42. [Data in feature space, Find principal components, Data in principal components space]**
+
+
+[بيانات في فضاء الخصائص, أوجد المكونات الرئيسية, بيانات في فضاء المكونات الرئيسية]
+
+
+
+**43. Independent component analysis**
+
+
+تحليل المكونات المستقلة
+
+
+
+**44. It is a technique meant to find the underlying generating sources.**
+
+
+هي طريقة تهدف إلى إيجاد المصادر التوليدية الكامنة.
+
+
+
+**45. Assumptions ― We assume that our data x has been generated by the n-dimensional source vector s=(s1,...,sn), where si are independent random variables, via a mixing and non-singular matrix A as follows:**
+
+
+افتراضات - لنفترض أن بياناتنا x تم توليدها عن طريق المتجه المصدر s=(s1,...,sn) ذا n بُعد، حيث si متغيرات عشوائية مستقلة، وذلك عبر مصفوفة خلط غير منفردة (mixing and non-singular) A كالتالي:
+
+
+
+**46. The goal is to find the unmixing matrix W=A−1.**
+
+
+الهدف هو العثور على مصفوفة الفصل W=A−1.
+
+
+
+**47. Bell and Sejnowski ICA algorithm ― This algorithm finds the unmixing matrix W by following the steps below:**
+
+خوارزمية تحليل المكونات المستقلة (ICA) لبيل وسجنوسكي (Bell and Sejnowski) - هذه الخوارزمية تجد مصفوفة الفصل W عن طريق الخطوات التالية:
+
+
+
+**48. Write the probability of x=As=W−1s as:**
+
+
+اكتب الاحتمال لـ x=As=W−1s كالتالي:
+
+
+
+**49. Write the log likelihood given our training data {x(i),i∈[[1,m]]} and by noting g the sigmoid function as:**
+
+
+لتكن {x(i),i∈[[1,m]]} بيانات التمرن و g دالة سيجمويد، اكتب الأرجحية اللوغاريتمية (log likelihood) كالتالي:
+
+
+
+**50. Therefore, the stochastic gradient ascent learning rule is such that for each training example x(i), we update W as follows:**
+
+
+هكذا، باستخدام الصعود الاشتقاقي العشوائي (stochastic gradient ascent)، لكل عينة تدريب x(i) نقوم بتحديث W كما يلي:
+
+
+
+**51. The Machine Learning cheatsheets are now available in Arabic.**
+
+
+المرجع السريع لتعلم الآلة متوفر الآن باللغة العربية.
+
+
+
+**52. Original authors**
+
+
+المحررون الأصليون
+
+
+
+**53. Translated by X, Y and Z**
+
+
+تمت الترجمة بواسطة X,Y و Z
+
+
+
+**54. Reviewed by X, Y and Z**
+
+
+تمت المراجعة بواسطة X,Y و Z
+
+
+
+**55. [Introduction, Motivation, Jensen's inequality]**
+
+
+[مقدمة، الحافز، متباينة جينسن]
+
+
+
+**56. [Clustering, Expectation-Maximization, k-means, Hierarchical clustering, Metrics]**
+
+
+[التجميع، تعظيم القيمة المتوقعة، تجميع k-متوسطات، التجميع الهرمي، مقاييس]
+
+
+
+**57. [Dimension reduction, PCA, ICA]**
+
+
+[تقليص الأبعاد، تحليل المكون الرئيس (PCA)، تحليل المكونات المستقلة (ICA)]
+
+