Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

[vi] cs-229-supervised-learning #162

Conversation

tuananhhedspibk
Copy link
Contributor

No description provided.

@tuananhhedspibk
Copy link
Contributor Author

@shervinea I'm translating Supervised Learning Cheatsheet into Vietnamese, could you add in progress label for me? Thank you a lot.

@shervinea shervinea added the in progress Work in progress label Jun 12, 2019
@shervinea
Copy link
Owner

Awesome to see your new PR! Thank you for your help @tuananhhedspibk!


**3. Given a set of data points {x(1),...,x(m)} associated to a set of outcomes {y(1),...,y(m)}, we want to build a classifier that learns how to predict y from x.**

⟶ Cho một tập hợp các điểm dữ liệu {x(1),...,x(m)} tương ứng với đó là tập các kết quả {y(1),...,y(m)}, chúng ta muốn xây dựng một bộ phân loại học được các dự đoán y từ x.

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
⟶ Cho một tập hợp các điểm dữ liệu {x(1),...,x(m)} tương ứng với đó là tập các kết quả {y(1),...,y(m)}, chúng ta muốn xây dựng một bộ phân loại học được các dự đoán y từ x.
⟶ Cho một tập hợp các điểm dữ liệu {x(1),...,x(m)} tương ứng với đó là tập các đầu ra {y(1),...,y(m)}, chúng ta muốn xây dựng một bộ phân loại học được cách dự đoán y từ x.


**8. [Discriminative model, Generative model, Goal, What's learned, Illustration, Examples]**

⟶ [Mô hình phân biệt, Mô hình sáng tạo, Mục tiêu, Những gì học được, Hình minh hoạ, Các ví dụ]

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
⟶ [Mô hình phân biệt, Mô hình sáng tạo, Mục tiêu, Những gì học được, Hình minh hoạ, Các ví dụ]
⟶ [Mô hình phân biệt, Mô hình sinh, Mục tiêu, Những gì học được, Hình minh hoạ, Các ví dụ]


**9. [Directly estimate P(y|x), Estimate P(x|y) to then deduce P(y|x), Decision boundary, Probability distributions of the data, Regressions, SVMs, GDA, Naive Bayes]**

⟶ []

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
⟶ []
⟶ **[Uớc lượng trực tiếp P(x|y), ước lượng P(x|y) để tiếp tục suy luận P(x|y), Biên quyết định, Phân bố xác suất của dữ liệu, Hồi quy, SVMs, GDA, Naive Bayes]**

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Many thanks, I'll update now


**11. Hypothesis ― The hypothesis is noted hθ and is the model that we choose. For a given input data x(i) the model prediction output is hθ(x(i)).**

⟶ Hypothesis - Hypothesis được kí hiệu là h0, là một mô hình mà chúng ta chọn. Với dữ liệu đầu vào cho trước x(i), mô hình dự đoaans đầu ra là h0(x(i)).

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
⟶ Hypothesis - Hypothesis được kí hiệu là h0, là một mô hình mà chúng ta chọn. Với dữ liệu đầu vào cho trước x(i), mô hình dự đoaans đầu ra là h0(x(i)).
⟶ Hypothesis - Hypothesis được kí hiệu là h0, là một mô hình mà chúng ta chọn. Với dữ liệu đầu vào cho trước x(i), mô hình dự đoán đầu ra là h0(x(i)).


**18. Likelihood ― The likelihood of a model L(θ) given parameters θ is used to find the optimal parameters θ through maximizing the likelihood. In practice, we use the log-likelihood ℓ(θ)=log(L(θ)) which is easier to optimize. We have:**

⟶

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
⟶
⟶ **18. Likelihood ― The likelihood của một mô hình L(θ) với bộ tham số θ được sử dụng để tối ưu bộ tham số θ thông qua việc tối đa hóa likelihood. Trong thực tế, chúng ta sử dụng log-likelihood ℓ(θ)=log(L(θ)) để tối ưu dễ dàng hơn. Chúng ta có:**


**24. Normal equations ― By noting X the matrix design, the value of θ that minimizes the cost function is a closed-form solution such that:**

⟶ Phương trình normal - Bằng việc kí hiệu X là ma trận thiết kế, giá trị của θ mà cực tiểu hoá cost function là một phương pháp dạng đóng như là:

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
⟶ Phương trình normal - Bằng việc kí hiệu X là ma trận thiết kế, giá trị của θ mà cực tiểu hoá cost function là một phương pháp dạng đóng như là:
⟶ Phương trình chuẩn - Bằng việc kí hiệu X là ma trận thiết kế, giá trị của θ mà cực tiểu hoá cost function là một phương pháp dạng đóng như là:


**51. Remark: we say that we use the "kernel trick" to compute the cost function using the kernel because we actually don't need to know the explicit mapping ϕ, which is often very complicated. Instead, only the values K(x,z) are needed.**

⟶

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
⟶
⟶ **51. Chú ý: chúng ta nói rằng chúng ta sử dụng "kernel trick" để tính toán cost function sử dụng kernel bởi vì chúng ta thực tế không cần hiểu cụ thể sự ánh xạ ϕ, những thứ thường rất phức tạp. Thay vào đó, chỉ các giá trị K(x,z) là cần thiết.**


**53. Remark: the coefficients βi are called the Lagrange multipliers.**

⟶

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
⟶
⟶ **53. Chú ý: Hệ số βi được gọi là bội số Lagrange.**

@tuananhhedspibk tuananhhedspibk force-pushed the vi_translating_cheatsheet_supervised_learning branch from 65d85b7 to 7e9b06b Compare October 16, 2019 14:48

**39. Remark: ordinary least squares and logistic regression are special cases of generalized linear models.**

⟶ Chú ý: Bình phương nhỏ nhất thông thường và logistirc regression đều là các trường hợp đặc biệt của các mô hình tuyến tính tổng quát.

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
⟶ Chú ý: Bình phương nhỏ nhất thông thường và logistirc regression đều là các trường hợp đặc biệt của các mô hình tuyến tính tổng quát.
⟶ Chú ý: Bình phương nhỏ nhất thông thường và logistic regression đều là các trường hợp đặc biệt của các mô hình tuyến tính tổng quát.

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Review accepted.


**51. Remark: we say that we use the "kernel trick" to compute the cost function using the kernel because we actually don't need to know the explicit mapping ϕ, which is often very complicated. Instead, only the values K(x,z) are needed.**

⟶ Chú ý: chúng ta nói rằng chúng ta sử dụng "kernel trick" để tính toán cost function sử dụng kernel bởi vì chúng ta thực sự không cần biết đến mapping tường minh ϕ, nó thường khá phức tạp. Thay vào đó, chỉ cần biết giá trị K(x,z).

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
⟶ Chú ý: chúng ta nói rằng chúng ta sử dụng "kernel trick" để tính toán cost function sử dụng kernel bởi vì chúng ta thực sự không cần biết đến mapping tường minh ϕ, nó thường khá phức tạp. Thay vào đó, chỉ cần biết giá trị K(x,z).
⟶ Chú ý: chúng ta nói rằng chúng ta sử dụng "kernel trick" để tính toán cost function sử dụng kernel bởi vì chúng ta thực sự không cần biết đến ánh xạ tường minh ϕ, nó thường khá phức tạp. Thay vào đó, chỉ cần biết giá trị K(x,z).

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Review accepted


**55. A generative model first tries to learn how the data is generated by estimating P(x|y), which we can then use to estimate P(y|x) by using Bayes' rule.**

⟶ Một generative model đầu tiên cố gắng học cách dữ liệu được sinh ra thông qua việc ước lượng P(x|y), chúng ta có thể sau đó sử dụng P(x|y) để ước lượng P(y|x) bằng cách sử dụng luật Bayes.

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
⟶ Một generative model đầu tiên cố gắng học cách dữ liệu được sinh ra thông qua việc ước lượng P(x|y), chúng ta có thể sau đó sử dụng P(x|y) để ước lượng P(y|x) bằng cách sử dụng luật Bayes.
⟶ Một mô hình sinh đầu tiên cố gắng học cách dữ liệu được sinh ra thông qua việc ước lượng P(x|y), chúng ta có thể sau đó sử dụng P(x|y) để ước lượng P(y|x) bằng cách sử dụng luật Bayes.

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Review accepted


**58. Estimation ― The following table sums up the estimates that we find when maximizing the likelihood:**

⟶

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
⟶
⟶ Sự ước lượng - Bảng sau đây tổng kết các ước lượng mà chúng ta tìm được trong khi tối đa hóa likelihood:

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Review accepted


**60. Assumption ― The Naive Bayes model supposes that the features of each data point are all independent:**

⟶

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
⟶
⟶ Giả thiết - Mô hình Naive Bayes giả sử rằng các đặc trưng của các điểm dữ liệu là hoàn toàn độc lập:

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Review accepted


**66. Random forest ― It is a tree-based technique that uses a high number of decision trees built out of randomly selected sets of features. Contrary to the simple decision tree, it is highly uninterpretable but its generally good performance makes it a popular algorithm.**

⟶

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
⟶
⟶ Rừng ngẫu nhiên - Đây là một kĩ thuật dựa trên cây với việc sử dụng số lượng nhiều các cây cây quyết định để lựa chọn ngẫu nhiên các tập đặc trưng. Trái ngược với cây quyết định đơn giản, chúng khó có thể diễn giải nhưng vì hiệu năng cao nên trở thành thuật toán phổ biến.

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Review accepted


<br>

**67. Remark: random forests are a type of ensemble methods.**

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
**67. Remark: random forests are a type of ensemble methods.**
**67. Chú ý: rừng ngẫu nhiên là một loại giải thuật ensemble.**

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Review accepted


**68. Boosting ― The idea of boosting methods is to combine several weak learners to form a stronger one. The main ones are summed up in the table below:**

&#10230;

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
&#10230;
&#10230; Boosting ― Ý tưởng của phương pháp boosting là kết hợp các phương pháp học yếu hơn để tạo nên một phương pháp học mạnh hơn. Các ý tưởng chính được tổng hợp ở bảng dưới:

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Review accepted


**69. [Adaptive boosting, Gradient boosting]**

&#10230;

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
&#10230;
&#10230; Adaptive boosting, Gradient boosting

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Review accepted


**70. High weights are put on errors to improve at the next boosting step**

&#10230;

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
&#10230;
&#10230; Các trọng số cao được đặt vào các phần lỗi để cải thiện bước boosting tiếp theo

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Review accepted

@tuananhhedspibk
Copy link
Contributor Author

Hi @shervinea . I have force pushed to my brach vi_translating_cheatsheet_supervised_learning. Is there any problem if you merge this pull request to your project? Just tell me if you feel uncomfortable with my force pushed commit, I'll re-create a new pull request for this translation. Many thanks.


**63. Tree-based and ensemble methods**

&#10230; Phương thức Tree-based và toàn thể
Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Review accepted

@tuananhhedspibk
Copy link
Contributor Author

Hi @damminhtien . Many thanks to your review, I have finished my translation on cheatsheet_supervised_learning. Could you continue reviewing its content for me?

@tuananhhedspibk
Copy link
Contributor Author

@shervinea I have finished my translation on cheatsheet_supervised_learning. Could you change the label of this pull request for me? Thanks.

@damminhtien
Copy link

Hi @damminhtien . Many thanks to your review, I have finished my translation on cheatsheet_supervised_learning. Could you continue reviewing its content for me?

In my view, your work is totally awesome. No longer comment. Let's others review.

@shervinea shervinea added reviewer wanted Looking for a reviewer and removed in progress Work in progress labels Oct 27, 2019
@shervinea
Copy link
Owner

@tuananhhedspibk Thank you for all your work! Just did it.


**9. [Directly estimate P(y|x), Estimate P(x|y) to then deduce P(y|x), Decision boundary, Probability distributions of the data, Regressions, SVMs, GDA, Naive Bayes]**

&#10230; [Ước lượng trực tiếp P(y|x), Ước lượng P(x|y) để tiếp tục suy luận P(y|x), Biên quyết địnhđịnh, Phân bố xác suất của dữ liệu, Hồi quy, SVMs, GDA, Naive Bayes]
Copy link

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Biên quyết địnhđịnh

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Review accepted.


**6. [Continuous, Class, Linear regression, Logistic regression, SVM, Naive Bayes]**

&#10230; [Tiếp diễn, Lớp, Hồi quy tuyến tính, Hồi quy Logistic, SVM, Naive Bayes]

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Tiếp diễn -> Liên tục

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Review accepted.


**63. Tree-based and ensemble methods**

&#10230; Phương thức Tree-based và toàn thể

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

ensemble nên để nguyên, không nên dịch ra tiếng việt

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Review accepted.

Copy link

@minhntm minhntm left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

LGTM

@tuananhhedspibk
Copy link
Contributor Author

Hey @minhbk , @damminhtien , could you guys check this translation 's content for me once more times? Many thanks!


**39. Remark: ordinary least squares and logistic regression are special cases of generalized linear models.**

&#10230; Chú ý: Bình phương nhỏ nhất thông thường và logistic regression đều là các trường hợp đặc biệt của các mô hình tuyến tính tổng quát.

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

I suggest to replace 'regression' to 'hồi quy' to synchronization with your above translation.

Suggested change
&#10230; Chú ý: Bình phương nhỏ nhất thông thường và logistic regression đều là các trường hợp đặc biệt của các mô hình tuyến tính tổng quát.
&#10230; Chú ý: Bình phương nhỏ nhất thông thường và hồi quy logistic đều là các trường hợp đặc biệt của các mô hình tuyến tính tổng quát.

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

review accepted


**74. Remark: The higher the parameter k, the higher the bias, and the lower the parameter k, the higher the variance.**

&#10230; Chú ý: Tham số k cao hơn, bias cao hơn, tham số k thấp hơn, phương sai cao hơn

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

You can translate 'bias' to 'độ chệch'. I found AIVIVN was using it.

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

review accepted

@tuananhhedspibk
Copy link
Contributor Author

@damminhtien , I have fixed it. Please check once more time for me. Thanks

@shervinea
Copy link
Owner

Thank you @tuananhhedspibk, @damminhtien, @hungnguyen95 and @minhbk for all your hard work! Merging this PR right now.

@shervinea shervinea merged commit 6590a19 into shervinea:master Nov 5, 2019
@shervinea shervinea changed the title [vi] Supervised Learning [vi] cs-229-supervised-learning Oct 6, 2020
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
reviewer wanted Looking for a reviewer
Projects
None yet
Development

Successfully merging this pull request may close these issues.

6 participants