machine-learning — Sự khác biệt giữa hồi quy tuyến tính và hồi quy logistic là gì?

Chỉ cần thêm vào các câu trả lời trước.

Hồi quy tuyến tính

Có nghĩa là để giải quyết vấn đề dự đoán/ước tính giá trị đầu ra cho một phần tử X đã cho (giả sử f (x)). Kết quả của dự đoán là một hàm cotinuity trong đó các giá trị có thể dương hoặc âm. Trong trường hợp này, bạn thường có một tập dữ liệu đầu vào với rất nhiều ví dụ và giá trị đầu ra cho mỗi một trong số chúng. Mục tiêu là có thể phù hợp với một mô hình cho tập dữ liệu này để bạn có thể dự đoán đầu ra đó cho các phần tử khác nhau/chưa từng thấy. Sau đây là ví dụ cổ điển về việc khớp một đường thẳng với tập hợp các điểm, nhưng trong hồi quy tuyến tính nói chung có thể được sử dụng để phù hợp với các mô hình phức tạp hơn (sử dụng độ đa thức cao hơn):

enter image description here Giải quyết vấn đề

Hồi quy Linea có thể được giải quyết theo hai cách khác nhau:

  1. Phương trình bình thường (cách trực tiếp để giải bài toán)
  2. Gradient giảm dần (phương pháp lặp)

Hồi quy logistic

Có nghĩa là để giải quyết các vấn đề phân loại trong đó đưa ra một yếu tố bạn phải phân loại giống nhau trong N loại. Ví dụ điển hình là ví dụ được đưa ra một thư để phân loại thư đó có phải là thư rác hay không, hoặc được cung cấp một phương tiện tìm thấy để phân loại nó thuộc về (xe hơi, xe tải, xe tải, v.v.). Về cơ bản, đầu ra là một tập hợp hữu hạn các giá trị giải mã.

Giải quyết vấn đề

Các vấn đề hồi quy logistic chỉ có thể được giải quyết bằng cách sử dụng Gradient gốc. Công thức nói chung rất giống với hồi quy tuyến tính, sự khác biệt duy nhất là việc sử dụng hàm giả thuyết khác nhau. Trong hồi quy tuyến tính, giả thuyết có dạng:

h(x) = theta_0 + theta_1*x_1 + theta_2*x_2 .. 

trong đó theta là mô hình mà chúng tôi đang cố gắng khớp và [1, x_1, x_2, ..] là vectơ đầu vào. Trong hồi quy logistic, hàm giả thuyết là khác nhau:

g(x) = 1 / (1 + e^-x)

enter image description here

Hàm này có thuộc tính Nice, về cơ bản, nó ánh xạ bất kỳ giá trị nào đến phạm vi [0,1] phù hợp để xử lý các khả năng chống đỡ trong quá trình phân loại. Ví dụ: trong trường hợp phân loại nhị phân g(X) có thể được hiểu là xác suất thuộc về lớp dương. Trong trường hợp này thông thường, bạn có các lớp khác nhau được phân tách bằng ranh giới quyết định về cơ bản là một đường cong quyết định sự tách biệt giữa khác nhau các lớp học. Sau đây là một ví dụ về tập dữ liệu được phân tách trong hai lớp.

enter image description here

Rate this post

Viết một bình luận