From c2944bc1080d1b145aa2404827b674e183c1676f Mon Sep 17 00:00:00 2001 From: Nikhileshkumar Ikhar Date: Mon, 24 Sep 2018 22:48:52 +0530 Subject: [PATCH 1/3] first changes --- hi/cheatsheet-supervised-learning.md | 30 ++++++++++++++-------------- 1 file changed, 15 insertions(+), 15 deletions(-) diff --git a/hi/cheatsheet-supervised-learning.md b/hi/cheatsheet-supervised-learning.md index a6b19ea1c..6a79de59f 100644 --- a/hi/cheatsheet-supervised-learning.md +++ b/hi/cheatsheet-supervised-learning.md @@ -1,84 +1,84 @@ **1. Supervised Learning cheatsheet** -⟶ +⟶पर्यवेक्षित शिक्षा धोखा शीट
**2. Introduction to Supervised Learning** -⟶ +⟶पर्यवेक्षित शिक्षा का परिचय
**3. Given a set of data points {x(1),...,x(m)} associated to a set of outcomes {y(1),...,y(m)}, we want to build a classifier that learns how to predict y from x.** -⟶ +⟶हम एक वर्गीकरण बनाना चाहते हैं जो सीखता है कि एक्स(X) से वाई(Y) का अनुमान कैसे लगायें। आँकड़ो का एक समुच्चय {x (1), ..., x (m)} जो परिणामों के एक समुच्चय {y (1), ..., y (m)} से जुड़ा है।
**4. Type of prediction ― The different types of predictive models are summed up in the table below:** -⟶ +⟶पूर्वानुमान का प्रकार - विभिन्न प्रकार के पूर्वानुमान मॉडल को नीचे दी गई तालिका में सारांशित किया गया है
**5. [Regression, Classifier, Outcome, Examples]** -⟶ +⟶[प्रतिगमन, वर्गीकारक, परिणाम, ]उदाहरण
**6. [Continuous, Class, Linear regression, Logistic regression, SVM, Naive Bayes]** -⟶ +⟶[अखण्ड, कक्षा, रेखीय प्रतिगमन, रसद प्रतिगमन, एसवीएम, नायईव (बेवक़ूफ़) बेएस]
**7. Type of model ― The different models are summed up in the table below:** -⟶ +⟶मॉडल (निदर्श)) के प्रकार - विभिन्न मॉडलों को नीचे दी गई तालिका में सारांशित किया गया है:
**8. [Discriminative model, Generative model, Goal, What's learned, Illustration, Examples]** -⟶ +⟶[विशेषक मॉडल, उत्पादक मॉडल, लक्ष्य, क्या सीखा है, चित्रण, उदाहरण]
**9. [Directly estimate P(y|x), Estimate P(x|y) to then deduce P(y|x), Decision boundary, Probability distributions of the data, Regressions, SVMs, GDA, Naive Bayes]** -⟶ +⟶[Directly estimate P(y|x), Estimate P(x|y) to then deduce P(y|x), Decision boundary, Probability distributions of the data, Regressions, SVMs, GDA, Naive Bayes] -
+
[सीधे P(y|x) का अनुमान लगाएं, P(y|x) का परिणाम निकालने के लिए P(x|y) का अनुमान लगाए, निर्णय सीमा, आँकड़ो का सम्भावित वितरण, प्रतिगमन, एसवीएम , जीडीए, नायईव बेएस] **10. Notations and general concepts** -⟶ +⟶अंकन एवं सामान्य अवधारणाएं
**11. Hypothesis ― The hypothesis is noted hθ and is the model that we choose. For a given input data x(i) the model prediction output is hθ(x(i)).** -⟶ +⟶परिकल्पना - परिकल्पना मॉडल है जिसे हम चुनते है, तथा इसे hθ से अंकित किया जाता है। दिए गए इनपुट आँकड़ो x(i) के लिए hθ(x(i)) मॉडल पूर्वानुमान आउटपुट है।
**12. Loss function ― A loss function is a function L:(z,y)∈R×Y⟼L(z,y)∈R that takes as inputs the predicted value z corresponding to the real data value y and outputs how different they are. The common loss functions are summed up in the table below:** -⟶ +⟶क्षति फ़लन - क्षति फ़लन एक फ़लन L:(z,y)∈R×Y⟼L(z,y)∈R है। इसका इनपुट अनुमानित मूल्य z जो वास्तविक आँकड़ा मान y के अनुरूप है। परिणाम देता है कि वे कितने अलग हैं। सामान्य क्षति फलनो को नीचे दी गई तालिका में सारांशित किया गया है:
**13. [Least squared error, Logistic loss, Hinge loss, Cross-entropy]** -⟶ +⟶[न्यूनतम वर्ग त्रुटि, रसद नुकसान, हिंग नुकसान, क्रॉस-एन्ट्रॉपी]
**14. [Linear regression, Logistic regression, SVM, Neural Network]** -⟶ +⟶[रेखीय प्रतिगमन, रसद प्रतिगमन, एसवीएम, न्यूरल नेट्वर्क ]
From fa9627338722f8b3a225f2100676dee1cf62ddb5 Mon Sep 17 00:00:00 2001 From: Nikhileshkumar Ikhar Date: Sun, 30 Sep 2018 00:06:09 +0530 Subject: [PATCH 2/3] few more translation --- hi/cheatsheet-supervised-learning.md | 10 +++++----- 1 file changed, 5 insertions(+), 5 deletions(-) diff --git a/hi/cheatsheet-supervised-learning.md b/hi/cheatsheet-supervised-learning.md index 6a79de59f..6e496580f 100644 --- a/hi/cheatsheet-supervised-learning.md +++ b/hi/cheatsheet-supervised-learning.md @@ -84,25 +84,25 @@ **15. Cost function ― The cost function J is commonly used to assess the performance of a model, and is defined with the loss function L as follows:** -⟶ +⟶लागत फ़लन - लागत फ़लन J का उपयोग आमतौर पर मॉडल के प्रदर्शन का आकलन करने के लिए किया जाता है, और इसे निम्नानुसार हानि फ़लन L के साथ परिभाषित किया जाता है:
**16. Gradient descent ― By noting α∈R the learning rate, the update rule for gradient descent is expressed with the learning rate and the cost function J as follows:** -⟶ +⟶ ढलान अवतरण - सीखने की दर α∈R को ध्यान में रखते हुए, ढलान अवतरण के अद्यतन नियम सीखने की दर और लागत फ़लन J के साथ व्यक्त किया गया है:
**17. Remark: Stochastic gradient descent (SGD) is updating the parameter based on each training example, and batch gradient descent is on a batch of training examples.** -⟶ +⟶टिप्पणी: स्टोकेस्टिक (अनेक संभावनाओं में से चुना हुआ) ढलान अवतरण (SGD) प्रत्येक प्रशिक्षण उदाहरण के आधार पर प्राचल अद्यतन कर रहा है। बैच ढलान अवतरण, प्रशिक्षण उदाहरण के खेप पर प्राचल अद्यतन कर रहा है
**18. Likelihood ― The likelihood of a model L(θ) given parameters θ is used to find the optimal parameters θ through maximizing the likelihood. In practice, we use the log-likelihood ℓ(θ)=log(L(θ)) which is easier to optimize. We have:** -⟶ +⟶संभावना -
@@ -148,7 +148,7 @@
-**26. Remark: the update rule is a particular case of the gradient ascent.** +**26. Remark: the update rule is a particular case of the grअद्यतनient ascent.** ⟶ From 05ab788061fd8334ca712a33719d98e656ea702b Mon Sep 17 00:00:00 2001 From: Nikhileshkumar Ikhar Date: Sun, 30 Sep 2018 00:10:35 +0530 Subject: [PATCH 3/3] typo --- hi/cheatsheet-supervised-learning.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/hi/cheatsheet-supervised-learning.md b/hi/cheatsheet-supervised-learning.md index 6e496580f..842615442 100644 --- a/hi/cheatsheet-supervised-learning.md +++ b/hi/cheatsheet-supervised-learning.md @@ -148,7 +148,7 @@
-**26. Remark: the update rule is a particular case of the grअद्यतनient ascent.** +**26. Remark: the update rule is a particular case of the gradient ascent.** ⟶