diff --git a/hi/cheatsheet-supervised-learning.md b/hi/cheatsheet-supervised-learning.md
index a6b19ea1c..842615442 100644
--- a/hi/cheatsheet-supervised-learning.md
+++ b/hi/cheatsheet-supervised-learning.md
@@ -1,108 +1,108 @@
**1. Supervised Learning cheatsheet**
-⟶
+⟶पर्यवेक्षित शिक्षा धोखा शीट
**2. Introduction to Supervised Learning**
-⟶
+⟶पर्यवेक्षित शिक्षा का परिचय
**3. Given a set of data points {x(1),...,x(m)} associated to a set of outcomes {y(1),...,y(m)}, we want to build a classifier that learns how to predict y from x.**
-⟶
+⟶हम एक वर्गीकरण बनाना चाहते हैं जो सीखता है कि एक्स(X) से वाई(Y) का अनुमान कैसे लगायें। आँकड़ो का एक समुच्चय {x (1), ..., x (m)} जो परिणामों के एक समुच्चय {y (1), ..., y (m)} से जुड़ा है।
**4. Type of prediction ― The different types of predictive models are summed up in the table below:**
-⟶
+⟶पूर्वानुमान का प्रकार - विभिन्न प्रकार के पूर्वानुमान मॉडल को नीचे दी गई तालिका में सारांशित किया गया है
**5. [Regression, Classifier, Outcome, Examples]**
-⟶
+⟶[प्रतिगमन, वर्गीकारक, परिणाम, ]उदाहरण
**6. [Continuous, Class, Linear regression, Logistic regression, SVM, Naive Bayes]**
-⟶
+⟶[अखण्ड, कक्षा, रेखीय प्रतिगमन, रसद प्रतिगमन, एसवीएम, नायईव (बेवक़ूफ़) बेएस]
**7. Type of model ― The different models are summed up in the table below:**
-⟶
+⟶मॉडल (निदर्श)) के प्रकार - विभिन्न मॉडलों को नीचे दी गई तालिका में सारांशित किया गया है:
**8. [Discriminative model, Generative model, Goal, What's learned, Illustration, Examples]**
-⟶
+⟶[विशेषक मॉडल, उत्पादक मॉडल, लक्ष्य, क्या सीखा है, चित्रण, उदाहरण]
**9. [Directly estimate P(y|x), Estimate P(x|y) to then deduce P(y|x), Decision boundary, Probability distributions of the data, Regressions, SVMs, GDA, Naive Bayes]**
-⟶
+⟶[Directly estimate P(y|x), Estimate P(x|y) to then deduce P(y|x), Decision boundary, Probability distributions of the data, Regressions, SVMs, GDA, Naive Bayes]
-
+
[सीधे P(y|x) का अनुमान लगाएं, P(y|x) का परिणाम निकालने के लिए P(x|y) का अनुमान लगाए, निर्णय सीमा, आँकड़ो का सम्भावित वितरण, प्रतिगमन, एसवीएम , जीडीए, नायईव बेएस]
**10. Notations and general concepts**
-⟶
+⟶अंकन एवं सामान्य अवधारणाएं
**11. Hypothesis ― The hypothesis is noted hθ and is the model that we choose. For a given input data x(i) the model prediction output is hθ(x(i)).**
-⟶
+⟶परिकल्पना - परिकल्पना मॉडल है जिसे हम चुनते है, तथा इसे hθ से अंकित किया जाता है। दिए गए इनपुट आँकड़ो x(i) के लिए hθ(x(i)) मॉडल पूर्वानुमान आउटपुट है।
**12. Loss function ― A loss function is a function L:(z,y)∈R×Y⟼L(z,y)∈R that takes as inputs the predicted value z corresponding to the real data value y and outputs how different they are. The common loss functions are summed up in the table below:**
-⟶
+⟶क्षति फ़लन - क्षति फ़लन एक फ़लन L:(z,y)∈R×Y⟼L(z,y)∈R है। इसका इनपुट अनुमानित मूल्य z जो वास्तविक आँकड़ा मान y के अनुरूप है। परिणाम देता है कि वे कितने अलग हैं। सामान्य क्षति फलनो को नीचे दी गई तालिका में सारांशित किया गया है:
**13. [Least squared error, Logistic loss, Hinge loss, Cross-entropy]**
-⟶
+⟶[न्यूनतम वर्ग त्रुटि, रसद नुकसान, हिंग नुकसान, क्रॉस-एन्ट्रॉपी]
**14. [Linear regression, Logistic regression, SVM, Neural Network]**
-⟶
+⟶[रेखीय प्रतिगमन, रसद प्रतिगमन, एसवीएम, न्यूरल नेट्वर्क ]
**15. Cost function ― The cost function J is commonly used to assess the performance of a model, and is defined with the loss function L as follows:**
-⟶
+⟶लागत फ़लन - लागत फ़लन J का उपयोग आमतौर पर मॉडल के प्रदर्शन का आकलन करने के लिए किया जाता है, और इसे निम्नानुसार हानि फ़लन L के साथ परिभाषित किया जाता है:
**16. Gradient descent ― By noting α∈R the learning rate, the update rule for gradient descent is expressed with the learning rate and the cost function J as follows:**
-⟶
+⟶ ढलान अवतरण - सीखने की दर α∈R को ध्यान में रखते हुए, ढलान अवतरण के अद्यतन नियम सीखने की दर और लागत फ़लन J के साथ व्यक्त किया गया है:
**17. Remark: Stochastic gradient descent (SGD) is updating the parameter based on each training example, and batch gradient descent is on a batch of training examples.**
-⟶
+⟶टिप्पणी: स्टोकेस्टिक (अनेक संभावनाओं में से चुना हुआ) ढलान अवतरण (SGD) प्रत्येक प्रशिक्षण उदाहरण के आधार पर प्राचल अद्यतन कर रहा है। बैच ढलान अवतरण, प्रशिक्षण उदाहरण के खेप पर प्राचल अद्यतन कर रहा है
**18. Likelihood ― The likelihood of a model L(θ) given parameters θ is used to find the optimal parameters θ through maximizing the likelihood. In practice, we use the log-likelihood ℓ(θ)=log(L(θ)) which is easier to optimize. We have:**
-⟶
+⟶संभावना -