Bài giảng Khai phá dữ liệu - Chương 3: Hồi qui dữ liệu - Võ Thị Ngọc Châu

‡ Chương 1: Tổng quan về khai phá dữ liệu

‡ Chương 2: Các vấn đề tiền xử lý dữ liệu

‡ Chương 3: Hồi qui dữ liệu

‡ Chương 4: Phân loại dữ liệu

‡ Chương 5: Gom cụm dữ liệu

‡ Chương 6: Luật kết hợp

‡ Chương 7: Khai phá dữ liệu và công nghệ cơ sở dữ

liệu

‡ Chương 8: Ứng dụng khai phá dữ liệu

‡ Chương 9: Các đề tài nghiên cứu trong khai phá dữ

liệu

‡ Chương 10: Ôn tập

pdf 52 trang yennguyen 7440
Bạn đang xem 20 trang mẫu của tài liệu "Bài giảng Khai phá dữ liệu - Chương 3: Hồi qui dữ liệu - Võ Thị Ngọc Châu", để tải tài liệu gốc về máy hãy click vào nút Download ở trên

Tóm tắt nội dung tài liệu: Bài giảng Khai phá dữ liệu - Chương 3: Hồi qui dữ liệu - Võ Thị Ngọc Châu

Bài giảng Khai phá dữ liệu - Chương 3: Hồi qui dữ liệu - Võ Thị Ngọc Châu
11
Chương 3: Hồi qui dữ liệu
Học kỳ 1 – 2011-2012
Khoa Khoa Học & Kỹ Thuật Máy Tính
Trường Đại Học Bách Khoa Tp. Hồ Chí Minh
Cao Học Ngành Khoa Học Máy Tính
Giáo trình điện tử
Biên soạn bởi: TS. Võ Thị Ngọc Châu
(chauvtn@cse.hcmut.edu.vn)
22
Tài liệu tham khảo
‡ [1] Jiawei Han, Micheline Kamber, “Data Mining: Concepts and 
Techniques”, Second Edition, Morgan Kaufmann Publishers, 2006.
‡ [2] David Hand, Heikki Mannila, Padhraic Smyth, “Principles of Data 
Mining”, MIT Press, 2001.
‡ [3] David L. Olson, Dursun Delen, “Advanced Data Mining 
Techniques”, Springer-Verlag, 2008.
‡ [4] Graham J. Williams, Simeon J. Simoff, “Data Mining: Theory, 
Methodology, Techniques, and Applications”, Springer-Verlag, 2006.
‡ [5] Hillol Kargupta, Jiawei Han, Philip S. Yu, Rajeev Motwani, and 
Vipin Kumar, “Next Generation of Data Mining”, Taylor & Francis 
Group, LLC, 2009.
‡ [6] Daniel T. Larose, “Data mining methods and models”, John Wiley 
& Sons, Inc, 2006.
‡ [7] Ian H.Witten, Eibe Frank, “Data mining : practical machine 
learning tools and techniques”, Second Edition, Elsevier Inc, 2005. 
‡ [8] Florent Messeglia, Pascal Poncelet & Maguelonne Teisseire, 
“Successes and new directions in data mining”, IGI Global, 2008.
‡ [9] Oded Maimon, Lior Rokach, “Data Mining and Knowledge 
Discovery Handbook”, Second Edition, Springer Science + Business
Media, LLC 2005, 2010.
33
Nội dung
‡ Chương 1: Tổng quan về khai phá dữ liệu
‡ Chương 2: Các vấn đề tiền xử lý dữ liệu
‡ Chương 3: Hồi qui dữ liệu
‡ Chương 4: Phân loại dữ liệu
‡ Chương 5: Gom cụm dữ liệu
‡ Chương 6: Luật kết hợp
‡ Chương 7: Khai phá dữ liệu và công nghệ cơ sở dữ
liệu
‡ Chương 8: Ứng dụng khai phá dữ liệu
‡ Chương 9: Các đề tài nghiên cứu trong khai phá dữ
liệu
‡ Chương 10: Ôn tập
44
Chương 3: Hồi qui dữ liệu
‡ 3.1. Tổng quan về hồi qui
‡ 3.2. Hồi qui tuyến tính
‡ 3.3. Hồi qui phi tuyến
‡ 3.4. Ứng dụng
‡ 3.5. Các vấn đề với hồi qui
‡ 3.6. Tóm tắt
55
3.0. Tình huống 1
Ngày mai 
giá cổ phiếu 
STB sẽ là
bao nhiêu???
66
3.0. Tình huống 2
x
y
y = x + 1
X1
Y1
Y1’
Mô hình phân bố dữ liệu của y theo x???
77
3.0. Tình huống 3
Bài toán phân tích giỏ hàng thị
trường (market basket analysis)
Æ sự kết hợp giữa các mặt hàng?
88
3.0. Tình huống 4
‡ Khảo sát các yếu tố tác động đến xu hướng
sử dụng quảng cáo trực tuyến tại Việt Nam
„ Sự giải trí cảm nhận (+0.209)
„ Chất lượng thông tin (+0.261)
„ Chất lượng thông tin cảm nhận (+0.199)
„ Sự khó chịu cảm nhận (-0.175)
„ Sự tin cậy cảm nhận
„ Thái độ về tính riêng tư
„ Sự tương tác (+0.373)
„ Chuẩn chủ quan (+0.254)
„ Nhận thức kiểm soát hành vi (+0.377)
99
3.0. Tình huống 
‡ Hồi qui (regression)
„ Khai phá dữ liệu có tính dự báo (Predictive data 
mining)
‡ Tình huống ???
„ Khai phá dữ liệu có tính mô tả (Descriptive data 
mining)
‡ Tình huống ???
10
10
3.1. Tổng quan về hồi qui
‡ Định nghĩa - Hồi qui (regression)
„ J. Han et al (2001, 2006): Hồi qui là kỹ thuật thống
kê cho phép dự đoán các trị (số) liên tục.
„ Wiki (2009): Hồi qui (Phân tích hồi qui – regression 
analysis) là kỹ thuật thống kê cho phép ước lượng
các mối liên kết giữa các biến
„ R. D. Snee (1977): Hồi qui (Phân tích hồi qui) là kỹ
thuật thống kê trong lĩnh vực phân tích dữ liệu và
xây dựng các mô hình từ thực nghiệm, cho phép
mô hình hồi qui vừa được khám phá được dùng cho
mục đích dự báo (prediction), điều khiển (control), 
hay học (learn) cơ chế đã tạo ra dữ liệu.
R. D. Snee, Validation of Regression Models: Methods and Examples, Technometrics, 
Vol. 19, No. 4. (Nov., 1977), pp. 415-428.
11
11
3.1. Tổng quan về hồi qui
‡ Mô hình hồi qui (regression model): mô hình mô
tả mối liên kết (relationship) giữa một tập các
biến dự báo (predictor variables/independent 
variables) và một hay nhiều đáp ứng
(responses/dependent variables).
Y = f(X, β)
X: các biến dự báo (predictor/independent variables)
Y: các đáp ứng (responses/dependent variables)
β: các hệ số hồi qui (regression coefficients)
12
12
3.1. Tổng quan về hồi qui
‡ Phương trình hồi qui: Y = f(X, β)
„ X: các biến dự báo (predictor/independent 
variables)
„ Y: các đáp ứng (responses/dependent variables)
„ β: các hệ số hồi qui (regression coefficients)
Æ X dùng để giải thích sự biến đổi của các đáp ứng Y.
Æ Y dùng đề mô tả các hiện tượng (phenomenon) 
được quan tâm/giải thích.
ÆQuan hệ giữa Y và X được diễn tả bởi sự phụ thuộc
hàm của Y đối với X.
Æ β mô tả sự ảnh hưởng của X đối với Y.
13
13
3.1. Tổng quan về hồi qui
‡ Phân loại
„Hồi qui tuyến tính (linear) và phi tuyến
(nonlinear)
„Hồi qui đơn biến (single) và đa biến (multiple)
„Hồi qui có thông số (parametric), phi thông số
(nonparametric), và thông số kết hợp
(semiparametric)
„Hồi qui đối xứng (symmetric) và bất đối xứng
(asymmetric)
14
14
3.1. Tổng quan về hồi qui
‡ Phân loại
„ Hồi qui tuyến tính
(linear) và phi tuyến
(nonlinear)
‡Linear in parameters: 
kết hợp tuyến tính các
thông số tạo nên Y
‡Nonlinear in 
parameters: kết hợp
phi tuyến các thông số
tạo nên Y
[Regression and Calibration.ppt]
15
15
3.1. Tổng quan về hồi qui
‡ Phân loại
„ Hồi qui đơn biến (single) và đa biến (multiple)
‡Single: X = (X1)
‡Multiple: X = (X1, X2, , Xk)
1 2ˆ 6 .3 9 7 2 2 0 .4 9 2 1 0 .2 8 0 5y x x= + + ˆ 26.89 4.06y x= + [Chapter 6 Regression and Correlation.ppt]
16
16
3.1. Tổng quan về hồi qui
‡ Phân loại
„ Hồi qui có thông số (parametric), phi thông số (nonparametric), 
và thông số kết hợp (semiparametric)
‡ Parametric: mô hình hồi qui với hữu hạn thông số
‡ Nonparametric: mô hình hồi qui với vô hạn thông số
‡ Semiparametric: mô hình hồi qui với hữu hạn thông số được quan tâm
[Wikipedia]
[GAM - nonparameteric regression technique.ppt]
P. Giudici, Applied Data Mining – Statistical Methods for Business and Industry, John Wiley & Sons Ltd, 2003.
Y = β0 + β1*X1 + f(X2)Semiparametric
Y = β0 + f(X)Nonparametric
Y = β0 + β1*XParametric
Mathematical FormTypes of (Additive) Model
17
17
3.1. Tổng quan về hồi qui
‡ Phân loại
„ Hồi qui đối xứng (symmetric) và bất đối xứng
(asymmetric)
‡Symmetric: mô hình hồi qui có tính mô tả (descriptive) (eg. 
log-linear models)
ƒ The objective of the analysis is descriptive – to describe 
the associative structure among the variables.
‡Asymmetric: mô hình hồi qui có tính dự báo (predictive) 
(eg. linear regression models, logistic regression models )
ƒ The variables are divided in two groups, response and 
explanatory – to predict the responses on the basis of the 
explanatory variables.
Æ Generalized linear models: symmetric vs. asymmetric
P. Giudici, Applied Data Mining – Statistical Methods for Business and Industry, John Wiley & Sons Ltd, 2003.
18
18
3.2. Hồi qui tuyến tính
‡Hồi qui tuyến tính đơn biến
„ Đường hồi qui (regression line)
‡Hồi qui tuyến tính đa biến
„Mặt phẳng hồi qui (regression plane)
19
19
3.2.1. Hồi qui tuyến tính đơn biến
Cho N đối tượng đã được quan sát, mô hình hồi qui tuyến
tính đơn biến được cho dưới dạng sau với εi dùng giữ phần
biến thiên của đáp ứng Y không được giải thích từ X:
-Dạng đường thẳng
-Dạng parabola
20
20
3.2.1. Hồi qui tuyến tính đơn biến
•Y= β0 + β1*X1 → Y = 0.636 + 2.018*X
•Dấu của β1 cho biết sự ảnh hưởng của X đối với Y.
21
21
3.2.1. Hồi qui tuyến tính đơn biến
‡ Ước lượng bộ thông số β ( ) để đạt được mô
hình hồi qui tuyến tính đơn biến
Thặng dư (residual)
Tổng thặng dư bình
phương (sum of 
squared residuals)
Æ tối thiểu hóa
Trị ước lượng của β
Giả định (assumptions): thành phần lỗi có phương sai (variance) là hằng số, 
tuân theo phân bố chuẩn (normal distribution).
xi, yi: trị của x, y từ tập dữ liệu
huấn luyện
x, y: trị trung bình từ tập dữ liệu
huấn luyện
ŷi: trị ước lượng với bộ thông số β
22
22
3.2.2. Hồi qui tuyến tính đa biến
‡ Hồi qui tuyến tính đa biến: phân tích mối
quan hệ giữa biến phụ thuộc
(response/dependent variable) và hai hay 
nhiều biến độc lập (independent variables)
yi = b0 + b1xi1 + b2xi2 +  + bkxik
i = 1..n với n là số đối tượng đã quan sát
k = số biến độc lập (số thuộc tính/tiêu chí/yếu tố)
Y = biến phụ thuộc
X = biến độc lập
b0 = trị của Y khi X = 0
b1..k = trị của các hệ số hồi qui
23
23
3.2.2. Hồi qui tuyến tính đa biến
0 1 1 2 2ˆ k ky b b x b x b x= + + + +K
( ) YXXXb TT 1−=
1,1 1,2 1,1 0
2,1 2,2 2,2 1
,1 ,2 ,
1
1
, ,
1
k
k
n n n kn k
x x xY b
x x xY b
x x xY b
            = = =            
Y X b
K
K
M M M MM M
K
Trị ước lượng của Y
Trị ước lượng của
bộ thông số b
24
24
3.2.2. Hồi qui tuyến tính đa biến
‡ Example: a sales manager of Tackey Toys, 
needs to predict sales of Tackey products in 
selected market area. He believes that 
advertising expenditures and the population 
in each market area can be used to predict 
sales. He gathered sample of toy sales, 
advertising expenditures and the population 
as below. Find the linear multiple 
regression equation which the best fit to 
the data.
[Chapter 6 Regression and Correlation.ppt]
25
25
3.2.2. Hồi qui tuyến tính đa biến
40060010.0F
1001003.0E
2004006.0D
4008008.0C
3007005.0B
1002001.0A
Toy sales 
(Thousands of Dollars) y
Population 
(Thousands) x2
Advertising Expenditures 
(Thousands of Dollars) x1
Market 
Area
[Chapter 6 Regression and Correlation.ppt]
26
26
3.2.2. Hồi qui tuyến tính đa biến
1 2ˆ 6.3972 20.4921 0.2805y x x= + +
[Chapter 6 Regression and Correlation.ppt]
27
27
3.3. Hồi qui phi tuyến
‡ Y = f(X, β)
„ Y là hàm phi tuyến cho việc kết hợp các thông số
β.
„ Ví dụ: hàm mũ, hàm logarit, hàm Gauss, 
‡ Xác định bộ thông số β tối ưu: các giải thuật tối ưu
hóa
„ Tối ưu hóa cục bộ
„ Tối ưu hóa toàn cục cho tổng thặng dư bình phương (sum of 
squared residuals)
28
28
3.4. Ứng dụng
‡ Quá trình khai phá dữ liệu
„ Giai đoạn tiền xử lý dữ liệu
„ Giai đoạn khai phá dữ liệu
‡ Khai phá dữ liệu có tính mô tả
‡ Khai phá dữ liệu có tính dự báo
‡ Các lĩnh vực ứng dụng: sinh học (biology), 
nông nghiệp (agriculture), xã hội (social 
issues), kinh tế (economy), kinh doanh
(business), 
P. Giudici, Applied Data Mining – Statistical Methods for Business and Industry, John Wiley & Sons Ltd, 2003.
29
29
3.5. Các vấn đề với hồi qui
‡ Các giả định (assumptions) đi kèm với bài
toán hồi qui.
‡ Lượng dữ liệu được xử lý.
‡ Đánh giá mô hình hồi qui.
‡ Các kỹ thuật tiên tiến cho hồi qui:
„ Artificial Neural Network (ANN)
„ Support Vector Machine (SVM)
30
30
3.6. Tóm tắt
‡ Hồi qui
„ Kỹ thuật thống kê, được áp dụng cho các thuộc tính liên tục
(continuous attributes/features)
„ Có lịch sử phát triển lâu đời
„ Đơn giản nhưng rất hữu dụng, được ứng dụng rộng rãi
„ Cho thấy sự đóng góp đáng kể của lĩnh vực thống kê trong
lĩnh vực khai phá dữ liệu
‡ Các dạng mô hình hồi qui: tuyến tính/phi tuyến, đơn 
biến/đa biến, có thông số/phi thông số/thông số kết hợp, 
đối xứng/bất đối xứng
31
31
Hỏi & Đáp 
32
32
Chương 3: Hồi qui dữ liệu
Phần 2
33
33
Nội dung
‡ Generalized linear models
Æ [2], section 11.3, pp. 384-390. 
‡ Logistic regression
Æ [2], section 10.7, pp. 354-355.
Æ [9], section 25.3, pp. 529-532.
‡ Generalized additive models
Æ [2], section 11.5.1, pp. 393-395.
‡ Projection pursuit regression
Æ [2], section 11.5.2, pp. 395-397.
34
34
Generalized linear models
‡ Linear models: the response variable was 
decomposed into two parts
„ a weighted sum of the predictor variables 
„ a random component: assumed that the ε(i) were 
independently distributed as N (0, σ2)
‡ The generalized linear model extends the 
ideas of linear models.
35
35
Generalized linear models
‡ Generalized linear model
„ (i) The Y(i) are independent random variables,
with distribution N(µ(i), σ2).
‡ Relax the requirement: random variables follow a normal 
distribution
„ (ii) The parameters enter the model in a linear 
way via the sum v(i) = ∑ajxj(i).
„ (iii) The v(i) and µ(i) are linked by v(i) = µ(i).
‡ Generalize: g(µ(i)) = v(i) relates the parameter of the 
distribution to the linear term v(i) = ∑ajxj(i)
36
36
Generalized linear models
‡ The generalized linear model has three main features
„ (i) The Y(i), i=1, n, are independent random variables, with 
the same exponential family distribution
‡ The exponential family of distributions is an important family that 
includes the normal, the Poisson, the Bernoulli, and the binomial 
distributions.
ƒ If ø is known, then θ is called the natural or canonical parameter.
When, as is often the case, α(ø) = ø, ø is called the dispersion or scale 
parameter.
„ (ii) The predictor variables are combined in a form v(i) = 
∑ajxj(i) called the linear predictor, where the ajs are estimates 
of the αjs.
„ (iii) The mean µ(i) of the distribution for a given predictor 
vector is related to the linear combination in (ii) through the 
link function g(µ(i)) = v(i) = ∑ajxj(i).
37
37
Generalized linear models
‡ Prediction from a generalized linear model requires 
the inversion of the relationship g(µ(i)) = ∑ajxj(i).
‡ The nonlinearity means that an iterative scheme has 
to be adopted.
„ Maximum likelihood solution
‡ A measure of the goodness of fit of a generalized 
linear model, analogous to the sum of squares used 
for linear regression: the deviance D(M) of a model
„ the sum of squares is the special case of deviance when it is 
applied to linear models
„ the difference between the log likelihood of model M and 
the log likelihood of the largest model we are prepared to 
contemplate, M*
38
38
Logistic regression
‡ Logistic function
„ the parameter β determines the rate of growth or increase of the 
curve
„ the sign of β indicates whether the curve increases or decreases 
„ the magnitude of β determines the rate of that increase or decrease
‡ β > 0: (x) increases as x increases.
‡ β < 0: π(x) decreases as x increases.
‡ β → 0: the curve tends to become a horizontal straight line.
ƒ When β = 0, Y is independent of X.
π(x) = 
(a). β > 0
(b). β < 0
39
39
Logistic regression
‡ Logistic regression Æ logistic discriminant analysis
„ Descriptive model
‡ a very powerful tool for classification problems in discriminant
analysis Æ tends to have higher accuracy when training data is 
plenty as compared to Naïve Bayes
‡ applied in many medical and clinical research studies
„ As a neural network model without hidden nodes and with a 
logistic activation function and softmax output function
„ The yis are binary variables and thus not normally distributed.
„ The distribution of yi given x is assumed to follow a Bernoulli 
distribution:
Æ a linear function of x
40
40
Logistic regression
‡ Logistic regression Æ logistic discriminant analysis
„ Estimate the β’s: maximum likelihood
Æ find the smallest possible deviance between the observed and predicted 
values (kind of like finding the best fitting line) using calculus (derivatives 
specifically)
Æ use different "iterations" in which it tries different solutions until it gets the 
smallest possible deviance or best fit
Æ Once it has found the best solution, it provides a final value for the deviance 
D, which is usually referred to as "negative two log likelihood“ thought of as 
a Chi-square value. 
π(x) = p(y=1|x) = 



−=
elfulltheoflikelihood
elreducedtheoflikelihoodD
mod
modln2
Likelihood of the reduced model = 
likelihood of predicted values (π(x))
Likelihood of the full model = 
probabilities of observed values (y=1/0)
41
41
Logistic regression
‡ The parameter estimates for the five variables selected in the final model, with the corresponding Wald 
statistics
‡ No variable appears to be not significant, using a significance level of 0.05.
‡ The variable Vdpflart indicates whether or not the price of the first purchase is paid in instalments; it is 
decisively estimated to be the variable most associated with the response variable.
P. Giudici, Applied Data Mining – Statistical Methods for Business and Industry, John Wiley & Sons Ltd, 
2003, p.166.
42
42
Generalized additive models
‡ Extension of the generalized linear model
„ Replace the simple weighted sums of the predictor variables
by weighted sums of transformed versions of the predictor 
variables
‡ The right-hand side is sometimes termed the additive predictor.
„ The relationships between the response variable and the
predictor variables are estimated nonparametrically.
‡ greater flexibility
„ When some of the functions are estimated from the data and
some are determined by the researcher, the generalized 
additive model is sometimes called “semiparametric.”
43
43
Generalized additive models
‡ The model retains the merits of linear and generalized linear 
models.
„ How g changes with any particular predictor variable does not 
depend on how other predictor variables change.
„ Interpretation is eased.
‡ This is at the cost of assuming that such an additive form does 
provide a good approximation to the “true” surface.
‡ The model can be readily generalized by including multiple 
predictor variables within individual f components of the sum.
„ Relaxing the simple additive interpretation
‡ The additive form also means that we can examine each 
smoothed predictor variable separately, to see how well it fits 
the data.
44
44
Generalized additive models
‡ A GAM fitting algorithm
„ Backfitting algorithm to estimate functions fj and 
constant α
„ Proceed the following steps
‡ 1. Initialize
‡ 2. Cycle
‡ 3. Continue 2 until the individual functions do not change.
„ [9], pp. 218-219.
45
45
Generalized additive models
‡ A GAM fitting algorithm
„ 1. Initialize: α =yi, fj = fj0, j = 1, , p.
‡ Each predictor is given an initial functional relationship to the response 
such as a linear one. 
‡ The intercept is given an initial value of the mean of y.
„ 2. Cycle: j = 1, , p,1, , p, ...
‡ A single predictor is selected. 
‡ Fitted values are constructed using all of the other predictors. These 
fitted values are subtracted from the response. 
‡ A smoother Sj is applied to the resulting “residuals,” taken to be a 
function of the single excluded predictor. The smoother updates the 
function for that predictor. 
‡ Each of the other predictors is, in turn, subjected to the same process.
„ 3. Continue 2 until the individual functions do not change.
46
46
Generalized additive models
‡ These “adaptive” methods seem to be most 
useful
„ when the data have a high signal to noise ration,
„ when the response function is highly nonlinear,
„ when the variability in the response function 
changes dramatically from location to location.
Æ Experience to date suggests that data from 
the engineering and physical sciences are 
most likely to meet these criteria.
ÆData from the social sciences are likely to be 
far too noisy.
47
47
Generalized additive models
‡ Neural networks are a special case of the generalized 
additive linear models.
„ Multilayer feedforward neural networks with one hidden layer
‡ where m is the number of processing-units in the hidden layer.
‡ The family of functions that can be computed depends on the 
number of neurons in the hidden layer and the activation
function σ .
‡ Note that a standard multilayer feedforward network with a 
smooth activation function σ can approximate any continuous 
function on a compact set to any degree of accuracy if and only 
if the network’s activation function σ is not a polynomial.
48
48
Projection pursuit regression
‡ The additive models essentially focus on 
individual variables (albeit transformed 
versions of these).
‡ The additive models can be extended so that 
each additive component involves several 
variables, but it is not clear how best to
select such subsets.
‡ If the total number of available variables is 
large, then we may also be faced with a 
combinatorial explosion of possibilities.
49
49
Projection pursuit regression
‡ The basic projection pursuit regression model
‡ This is a linear combination of (potentially nonlinear) 
transformations of linear combinations of the raw variables.
‡ The f functions are not constrained (as in neural networks) to 
take a particular form, but are usually found by smoothing, as in 
generalized additive models.
‡ The term projection pursuit arises from the viewpoint that one is 
projecting X in direction αk, and then seeking directions of 
projection that are optimal for some purpose.
„ optimal as components in a predictive model
„ the model is fitted using standard iterative procedures to estimate 
the parameters in the αk vector.
50
50
Projection pursuit regression
‡ The projection pursuit regression model has obvious 
close similarities to the neural network model.
„ A generalization of neural networks
‡ Projection pursuit regression models can be proven 
to have the same ability to estimate arbitrary 
functions as neural networks, but they are not as
widely used.
„ Estimating their parameters can have advantages over the 
neural network situation.
‡ Projection pursuit regression tends may not be 
practical for data sets that are massive (large n) and 
high-dimensional (large p).
„ The fitting process is rather complex from a computational 
viewpoint.
51
51
Tóm tắt
‡ Regression
„ Linear models
„ Generalized linear model
‡ Logistic models
‡ Feedforward neural networks
‡ Back-propagration neural networks
„ Generalized additive models
„ Projection pursuit regression
Æ Linearity to Nonlinearity
ÆDescriptive vs. Predictive
52
52
Đọc thêm
‡ Predictive modeling for regression
„ [2], chapter 11, pp. 367-398.
‡ Regression modeling, multiple regression and model building, logistic 
regression
„ [6], chapter 2-4, pp. 33-203.
‡ Data mining within a regression framework
„ [9], chapter 11, pp. 209-230.
‡ Statistical methods for data mining
„ [9], chapter 25, pp. 523-540.
‡ Validation of regression models: methods and examples
„ Ronald D. Snee, Technometrics, vol. 19, no. 4 (Nov, 1977), pp. 415-428.
‡ Choosing between logistic regression and discriminant analysis
„ S. James Press, Sandra Wilson, Journal of the American Statistical 
Association, vol. 73, no. 364 (Dec, 1978), pp. 699-705.
‡ Fitting curves to data using nonlinear regression: a practical and 
nonmathematical review
„ Harvey J. Motulsky, Lennart A. Ransnas, FASEB J., vol. 1 (1987), pp. 
365-374.

File đính kèm:

  • pdfbai_giang_khai_pha_du_lieu_chuong_3_hoi_qui_du_lieu_vo_thi_n.pdf