-
Notifications
You must be signed in to change notification settings - Fork 334
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[vi] cs-229-supervised-learning #162
[vi] cs-229-supervised-learning #162
Conversation
@shervinea I'm translating Supervised Learning Cheatsheet into Vietnamese, could you add |
Awesome to see your new PR! Thank you for your help @tuananhhedspibk! |
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**3. Given a set of data points {x(1),...,x(m)} associated to a set of outcomes {y(1),...,y(m)}, we want to build a classifier that learns how to predict y from x.** | ||
|
||
⟶ Cho một tập hợp các điểm dữ liệu {x(1),...,x(m)} tương ứng với đó là tập các kết quả {y(1),...,y(m)}, chúng ta muốn xây dựng một bộ phân loại học được các dự đoán y từ x. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ Cho một tập hợp các điểm dữ liệu {x(1),...,x(m)} tương ứng với đó là tập các kết quả {y(1),...,y(m)}, chúng ta muốn xây dựng một bộ phân loại học được các dự đoán y từ x. | |
⟶ Cho một tập hợp các điểm dữ liệu {x(1),...,x(m)} tương ứng với đó là tập các đầu ra {y(1),...,y(m)}, chúng ta muốn xây dựng một bộ phân loại học được cách dự đoán y từ x. |
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**8. [Discriminative model, Generative model, Goal, What's learned, Illustration, Examples]** | ||
|
||
⟶ [Mô hình phân biệt, Mô hình sáng tạo, Mục tiêu, Những gì học được, Hình minh hoạ, Các ví dụ] |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ [Mô hình phân biệt, Mô hình sáng tạo, Mục tiêu, Những gì học được, Hình minh hoạ, Các ví dụ] | |
⟶ [Mô hình phân biệt, Mô hình sinh, Mục tiêu, Những gì học được, Hình minh hoạ, Các ví dụ] |
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**9. [Directly estimate P(y|x), Estimate P(x|y) to then deduce P(y|x), Decision boundary, Probability distributions of the data, Regressions, SVMs, GDA, Naive Bayes]** | ||
|
||
⟶ [] |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ [] | |
⟶ **[Uớc lượng trực tiếp P(x|y), ước lượng P(x|y) để tiếp tục suy luận P(x|y), Biên quyết định, Phân bố xác suất của dữ liệu, Hồi quy, SVMs, GDA, Naive Bayes]** |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Many thanks, I'll update now
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**11. Hypothesis ― The hypothesis is noted hθ and is the model that we choose. For a given input data x(i) the model prediction output is hθ(x(i)).** | ||
|
||
⟶ Hypothesis - Hypothesis được kí hiệu là h0, là một mô hình mà chúng ta chọn. Với dữ liệu đầu vào cho trước x(i), mô hình dự đoaans đầu ra là h0(x(i)). |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ Hypothesis - Hypothesis được kí hiệu là h0, là một mô hình mà chúng ta chọn. Với dữ liệu đầu vào cho trước x(i), mô hình dự đoaans đầu ra là h0(x(i)). | |
⟶ Hypothesis - Hypothesis được kí hiệu là h0, là một mô hình mà chúng ta chọn. Với dữ liệu đầu vào cho trước x(i), mô hình dự đoán đầu ra là h0(x(i)). |
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**18. Likelihood ― The likelihood of a model L(θ) given parameters θ is used to find the optimal parameters θ through maximizing the likelihood. In practice, we use the log-likelihood ℓ(θ)=log(L(θ)) which is easier to optimize. We have:** | ||
|
||
⟶ |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ | |
⟶ **18. Likelihood ― The likelihood của một mô hình L(θ) với bộ tham số θ được sử dụng để tối ưu bộ tham số θ thông qua việc tối đa hóa likelihood. Trong thực tế, chúng ta sử dụng log-likelihood ℓ(θ)=log(L(θ)) để tối ưu dễ dàng hơn. Chúng ta có:** |
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**24. Normal equations ― By noting X the matrix design, the value of θ that minimizes the cost function is a closed-form solution such that:** | ||
|
||
⟶ Phương trình normal - Bằng việc kí hiệu X là ma trận thiết kế, giá trị của θ mà cực tiểu hoá cost function là một phương pháp dạng đóng như là: |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ Phương trình normal - Bằng việc kí hiệu X là ma trận thiết kế, giá trị của θ mà cực tiểu hoá cost function là một phương pháp dạng đóng như là: | |
⟶ Phương trình chuẩn - Bằng việc kí hiệu X là ma trận thiết kế, giá trị của θ mà cực tiểu hoá cost function là một phương pháp dạng đóng như là: |
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**51. Remark: we say that we use the "kernel trick" to compute the cost function using the kernel because we actually don't need to know the explicit mapping ϕ, which is often very complicated. Instead, only the values K(x,z) are needed.** | ||
|
||
⟶ |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ | |
⟶ **51. Chú ý: chúng ta nói rằng chúng ta sử dụng "kernel trick" để tính toán cost function sử dụng kernel bởi vì chúng ta thực tế không cần hiểu cụ thể sự ánh xạ ϕ, những thứ thường rất phức tạp. Thay vào đó, chỉ các giá trị K(x,z) là cần thiết.** |
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**53. Remark: the coefficients βi are called the Lagrange multipliers.** | ||
|
||
⟶ |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ | |
⟶ **53. Chú ý: Hệ số βi được gọi là bội số Lagrange.** |
65d85b7
to
7e9b06b
Compare
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**39. Remark: ordinary least squares and logistic regression are special cases of generalized linear models.** | ||
|
||
⟶ Chú ý: Bình phương nhỏ nhất thông thường và logistirc regression đều là các trường hợp đặc biệt của các mô hình tuyến tính tổng quát. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ Chú ý: Bình phương nhỏ nhất thông thường và logistirc regression đều là các trường hợp đặc biệt của các mô hình tuyến tính tổng quát. | |
⟶ Chú ý: Bình phương nhỏ nhất thông thường và logistic regression đều là các trường hợp đặc biệt của các mô hình tuyến tính tổng quát. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Review accepted.
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**51. Remark: we say that we use the "kernel trick" to compute the cost function using the kernel because we actually don't need to know the explicit mapping ϕ, which is often very complicated. Instead, only the values K(x,z) are needed.** | ||
|
||
⟶ Chú ý: chúng ta nói rằng chúng ta sử dụng "kernel trick" để tính toán cost function sử dụng kernel bởi vì chúng ta thực sự không cần biết đến mapping tường minh ϕ, nó thường khá phức tạp. Thay vào đó, chỉ cần biết giá trị K(x,z). |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ Chú ý: chúng ta nói rằng chúng ta sử dụng "kernel trick" để tính toán cost function sử dụng kernel bởi vì chúng ta thực sự không cần biết đến mapping tường minh ϕ, nó thường khá phức tạp. Thay vào đó, chỉ cần biết giá trị K(x,z). | |
⟶ Chú ý: chúng ta nói rằng chúng ta sử dụng "kernel trick" để tính toán cost function sử dụng kernel bởi vì chúng ta thực sự không cần biết đến ánh xạ tường minh ϕ, nó thường khá phức tạp. Thay vào đó, chỉ cần biết giá trị K(x,z). |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Review accepted
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**55. A generative model first tries to learn how the data is generated by estimating P(x|y), which we can then use to estimate P(y|x) by using Bayes' rule.** | ||
|
||
⟶ Một generative model đầu tiên cố gắng học cách dữ liệu được sinh ra thông qua việc ước lượng P(x|y), chúng ta có thể sau đó sử dụng P(x|y) để ước lượng P(y|x) bằng cách sử dụng luật Bayes. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ Một generative model đầu tiên cố gắng học cách dữ liệu được sinh ra thông qua việc ước lượng P(x|y), chúng ta có thể sau đó sử dụng P(x|y) để ước lượng P(y|x) bằng cách sử dụng luật Bayes. | |
⟶ Một mô hình sinh đầu tiên cố gắng học cách dữ liệu được sinh ra thông qua việc ước lượng P(x|y), chúng ta có thể sau đó sử dụng P(x|y) để ước lượng P(y|x) bằng cách sử dụng luật Bayes. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Review accepted
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**58. Estimation ― The following table sums up the estimates that we find when maximizing the likelihood:** | ||
|
||
⟶ |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ | |
⟶ Sự ước lượng - Bảng sau đây tổng kết các ước lượng mà chúng ta tìm được trong khi tối đa hóa likelihood: |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Review accepted
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**60. Assumption ― The Naive Bayes model supposes that the features of each data point are all independent:** | ||
|
||
⟶ |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ | |
⟶ Giả thiết - Mô hình Naive Bayes giả sử rằng các đặc trưng của các điểm dữ liệu là hoàn toàn độc lập: |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Review accepted
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**66. Random forest ― It is a tree-based technique that uses a high number of decision trees built out of randomly selected sets of features. Contrary to the simple decision tree, it is highly uninterpretable but its generally good performance makes it a popular algorithm.** | ||
|
||
⟶ |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ | |
⟶ Rừng ngẫu nhiên - Đây là một kĩ thuật dựa trên cây với việc sử dụng số lượng nhiều các cây cây quyết định để lựa chọn ngẫu nhiên các tập đặc trưng. Trái ngược với cây quyết định đơn giản, chúng khó có thể diễn giải nhưng vì hiệu năng cao nên trở thành thuật toán phổ biến. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Review accepted
|
||
<br> | ||
|
||
**67. Remark: random forests are a type of ensemble methods.** |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
**67. Remark: random forests are a type of ensemble methods.** | |
**67. Chú ý: rừng ngẫu nhiên là một loại giải thuật ensemble.** |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Review accepted
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**68. Boosting ― The idea of boosting methods is to combine several weak learners to form a stronger one. The main ones are summed up in the table below:** | ||
|
||
⟶ |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ | |
⟶ Boosting ― Ý tưởng của phương pháp boosting là kết hợp các phương pháp học yếu hơn để tạo nên một phương pháp học mạnh hơn. Các ý tưởng chính được tổng hợp ở bảng dưới: |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Review accepted
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**69. [Adaptive boosting, Gradient boosting]** | ||
|
||
⟶ |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ | |
⟶ Adaptive boosting, Gradient boosting |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Review accepted
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**70. High weights are put on errors to improve at the next boosting step** | ||
|
||
⟶ |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
⟶ | |
⟶ Các trọng số cao được đặt vào các phần lỗi để cải thiện bước boosting tiếp theo |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Review accepted
Hi @shervinea . I have force pushed to my brach |
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**63. Tree-based and ensemble methods** | ||
|
||
⟶ Phương thức Tree-based và toàn thể |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Review accepted
Hi @damminhtien . Many thanks to your review, I have finished my translation on cheatsheet_supervised_learning. Could you continue reviewing its content for me? |
@shervinea I have finished my translation on cheatsheet_supervised_learning. Could you change the label of this pull request for me? Thanks. |
In my view, your work is totally awesome. No longer comment. Let's others review. |
@tuananhhedspibk Thank you for all your work! Just did it. |
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**9. [Directly estimate P(y|x), Estimate P(x|y) to then deduce P(y|x), Decision boundary, Probability distributions of the data, Regressions, SVMs, GDA, Naive Bayes]** | ||
|
||
⟶ [Ước lượng trực tiếp P(y|x), Ước lượng P(x|y) để tiếp tục suy luận P(y|x), Biên quyết địnhđịnh, Phân bố xác suất của dữ liệu, Hồi quy, SVMs, GDA, Naive Bayes] |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Biên quyết địnhđịnh
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Review accepted.
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**6. [Continuous, Class, Linear regression, Logistic regression, SVM, Naive Bayes]** | ||
|
||
⟶ [Tiếp diễn, Lớp, Hồi quy tuyến tính, Hồi quy Logistic, SVM, Naive Bayes] |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Tiếp diễn -> Liên tục
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Review accepted.
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**63. Tree-based and ensemble methods** | ||
|
||
⟶ Phương thức Tree-based và toàn thể |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
ensemble nên để nguyên, không nên dịch ra tiếng việt
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Review accepted.
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
LGTM
Hey @minhbk , @damminhtien , could you guys check this translation 's content for me once more times? Many thanks! |
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**39. Remark: ordinary least squares and logistic regression are special cases of generalized linear models.** | ||
|
||
⟶ Chú ý: Bình phương nhỏ nhất thông thường và logistic regression đều là các trường hợp đặc biệt của các mô hình tuyến tính tổng quát. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
I suggest to replace 'regression' to 'hồi quy' to synchronization with your above translation.
⟶ Chú ý: Bình phương nhỏ nhất thông thường và logistic regression đều là các trường hợp đặc biệt của các mô hình tuyến tính tổng quát. | |
⟶ Chú ý: Bình phương nhỏ nhất thông thường và hồi quy logistic đều là các trường hợp đặc biệt của các mô hình tuyến tính tổng quát. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
review accepted
vi/cheatsheet-supervised-learning.md
Outdated
|
||
**74. Remark: The higher the parameter k, the higher the bias, and the lower the parameter k, the higher the variance.** | ||
|
||
⟶ Chú ý: Tham số k cao hơn, bias cao hơn, tham số k thấp hơn, phương sai cao hơn |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
You can translate 'bias' to 'độ chệch'. I found AIVIVN was using it.
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
review accepted
@damminhtien , I have fixed it. Please check once more time for me. Thanks |
Thank you @tuananhhedspibk, @damminhtien, @hungnguyen95 and @minhbk for all your hard work! Merging this PR right now. |
No description provided.