Phân tích hồi qui
Bách khoa toàn thư mở Wikipedia
Phân tích hồi qui là phương pháp thống kê mà giá trị trung bình (mean) của một hay nhiều biến ngẫu nhiên là được dự đoán dựa vào điều kiện của các biến ngẫu nhiên (đã tính toán) khác. Cụ thể, có hồi qui tuyến tình, hồi qui lôgic, hồi qui Poisson và học có giám sát. Phân tích hồi qui không chỉ là trùng khớp đường cong (lựa chọn một đường cong mà vừa khớp nhất với một tập điểm dữ liệu); nó còn phải trùng khớp với một mô hình với các thành phần ngẫu nhiên và xác định (deterministic and stochastic components). Thành phần xác định được gọi là bộ dự đoán (predictor) và thành phần ngẫu nhiên được gọi là phần sai số (error term).
Dạng đơn giản nhất của một mô hình hồi qui chứa một biến phụ thuộc (còn gọi là "biến đầu ra," "biến nội sinh," hay "biến-Y") và một biến độc lập đơn (còn gọi là "hệ số," "biến ngoại sinh," hay "biến-X").
Ví dụ thường dùng là sự phụ thuộc của huyết áp Y theo tuổi tác X của một người, hay sự phụ thuộc của trọng lượng Y của một con thú nào đó theo khẩu phần thức ăn hằng ngày X. Sự phụ thuộc này được gọi là hồi qui của Y lên X.
Xem thêm: phân phối chuẩn đa biến (multivariate normal distribution), các ẩn bản quan trọng trong phân tích hồi qui.
Hồi qui thường được xếp vào loại bài toán tối ưu vì chúng ta nỗ lực để tìm kiếm một giải pháp để cho sai số và phần dư là tốt nhất. Phương pháp sai số chung nhất được sử dụng là phương pháp bình phương cực tiểu: phương pháp này tương ứng với một hàm hợp lý dạng Gauss của các dữ liệu quan sát khi biết biến ngẫu nhiên (ẩn). Về một mặt nào đó, bình phương cực tiểu là một phương pháp ước lượng tối ưu: xem định lý Gauss-Markov.
Để giải quyết bài toán tối ưu trong hồi qui thường dùng các giải thuật như giải thuật hạ bậc gradient gradient descent, giải thuật Gauss-Newton, và giải thuật Levenberg-Marquardt. Các giải thuật xác suất như RANSAC có thể được dùng để tìm một phù hợp tốt cho tập mẫu, khi cho trước một mô hình tham số hóa của hàm đường cong.
Hồi qui có thể được biểu diễn bằng phương pháp hàm hợp lý ước lượng các tham số của một mô hình nào đó. Tuy nhiên, với một lượng nhỏ dữ liệu, ước lượng này có thể có phương sai lớn (high variance). Các phương pháp Bayesian có thể được sử dụng để ước lượng các mô hình hồi qui. Các tham số có một phân phối điều kiện được giả định trước, nó bao gồm mọi thông tin thống kê đã biết trước về các biến. (Ví dụ, nếu một tham số được biết là không âm thì một phân phối không âm sẽ được gán cho nó.) Phân phối được giả định trước này sau đó được áp dụng cho vector tham số. Phương pháp Bayes có ưu điểm là khai thác được toàn bộ các thông tin đã có và nó là ước lượng chính xác, không phải ước lượng chệch và do đó rất tốt cho các tập số liệu nhỏ. Trong thực hành, người ta sử dụng phương pháp MAP maximum a posteriori , phương pháp này đơn giản hơn phân tích Bayes đầy đủ, trong đó các tham oố dược chọn sao cho cực đại hóa phân phối giả định trước posterior. Các phương pháp MAP có liên hệ với Occam's Razor: ở chỗ có sự ưu tiên cho sự đơn giản, khi có nhiều mô hình hồi qui (đường cong) cũng như khi có nhiều lí thuyết thì chọn cái đơn giản.
Mục lục |
[sửa] Công thức tổng quát
Chúng ta muốn dự báo giá trị của một biến ngẫu nhiên Y có điều kiện dựa trên một biến ngẫu nhiên khác gọi là nhân tố. Đặt là số nhân tố được sử dụng cho dự đoán này.
xác định một không gian xác suất và (Γ,S) là một không gian đo được trong đó (Γ, + ,.) là
và
với
). Bây giờ chúng ta có thể xác định biến phụ thuộc
và
. Bây giờ, đặt F là tập các hàm được xác định bởi Ω nhận các giá trị trong Γ mà
và d là một metric (độ đo) sao cho (F,d) là một không gian metric đầy đủ complete metric space.
Chúng ta đang tìm một hàm đo được sao cho
là nhỏ nhất.
[sửa] Hồi qui tuyến tính
Hồi quy tuyến tính là một trường hợp rất phổ biến trong thực tế. Ta giả thiết rằng hàm f phụ thuộc tuyế tính vào bộ như vậy ta chỉ cần tìm kiếm các hệ số phù hợp.
Đặt Θ là tập các hệ số. Đối thuyết của hồi quy tuyến tính là:
và matric được sử dụng ở đây là:
Chúng ta muốn cực tiểu hóa , có nghĩa là
.
Như vậy chỉ cần tìm . Để giải quyết bài toán này một cách hiệu quả, một số phương pháp đã được đưa ra. Phương pháp phổ biến nhất là phương pháp Gauss-Markov, nhưng nó đòi hỏi thêm một số đối thuyết nữa.
[sửa] Mô hình tuyến tính Gauss-Markov
Under assumptions which are met relatively often, there exists an optimal solution to the linear regression problem. These assumptions (called Gauss-Markov hypothesis) are:
We use the linear regression model,
and
We then define the error
independent where
and I is the
identity matrix.
[sửa] Ước lượng bình phương cực tiểu của các hệ số
- Xem thêm bình phương cực tiểu
We want an estimate of . Under the Gauss-Markov assumptions, there exists an optimal solution. We can see the unknown function
as the projection of Y on the subspace of F generated by
. Let
, where X is the matrix whose columns are
.
If we define the scalar product by
and write
for the induced norm, the metric d can be written
. Minimizing this norm is equivalent to projecting orthogonally Y on the subspace induced by
.
because the projection is orthogonal, therefore, an estimate of the unknown coefficients
is
. This is called the least-squares estimate of the linear regression coefficients.
How good is this estimate? Under the Gauss-Markov assumptions, the Gauss-Markov theorem states that the least-square estimation of the linear regression coefficients are the best we can do. More precisely, under the Gauss-Markov assumptions, of all unbiased estimators of the linear regression coefficients, the least-square ones are the most efficient ones.
Things look great, but no matter how attractive, this method lacks robustness: departure from the normality assumptions will corrupt the results. However, this method is the most widely used in practice, and because of the central limit theorem, for large values of n, the Gauss-Markov assumptions are often met.
If the Gauss-Markov hypotheses are not met, a variety of techniques are available.
- If the error term is not normal but forms an exponential family one can use generalized linear models. Other techniques include the use of weighted least squares or transforming the dependent variable using the Box-Cox transformation.
- If outliers are present the normal distribution can be replaced by a t-distribution or, alternatively, robust regression methods may be used.
- If the predictor is not linear a nonparametric regression or semiparametric regression or nonlinear regression may be used.
[sửa] Ví dụ
Ví dụ đơn giản nhất của hồi qui là trong trường hợp 1 chiều. Chúng ta được cấp một vec-tơ của các giá trị x và một vec-tơ khác của các giá trị y và chúng ta đang cố gắng tìm kiếm một hàm mà f(xi) = yi.
- giả sử
Giả thiết rằng giải pháp (hàm) của chúng ta là thuộc họ các hàm được định bởi chuỗi Fourier mở rộng cấp 3 (3rd degree Fourier expansion) được viết dưới dạng:
- f(x) = a0 / 2 + a1cos(x) + b1sin(x) + a2cos(2x) + b2sin(2x) + a3cos(3x) + b3sin(3x)
với ai,bi là các số thực. Bài toán này có thể được biểu diễn theo dạng ma trận như sau:
điền vào dạng này các giá trị của chúng ta sẽ cho ta bài toán với dạng Xw = y
Bài toán này bây giờ có thể chuyển thành bài toán tối ưu để tìm ra tổng cực tiểu của bình phương sai số.
giải bằng phương pháp bình phương cực tiểu cho ra:
vì thế hàm Fourier bậc 3 mà trùng khớp nhất với dữ liệu có công thức cụ thể:
- f(x) = 4.25cos(x) − 6.13cos(2x) + 2.88cos(3x).
[sửa] Xem thêm
[sửa] Tham khảo
- Audi, R., Ed. (1996) The Cambridge Dictionary of Philosophy. Cambridge, Cambridge University Press. curve fitting problem p.172-173.
- David Birkes and Yadolah Dodge, Alternative Methods of Regression (1993), ISBN 0-471-56881-3
- W. Hardle, Applied Nonparametric Regression (1990), ISBN 0-521-42950-1
- J. Fox, Applied Regression Analysis, Linear Models and Related Methods. (1997), Sage
[sửa] Liên kết ngoài
- Regression Analysis SixSigmaFirst
- Curve Expert (shareware) fits functions to data (limited to one dependant and one independent variable.)
- Online curve and surface fitting Online curve and surface fitting
- TableCurve2D and TableCurve3D by Systat automates curve fitting
- LMS applet
- another choice
- online curve-fitting textbook