This repository has been archived by the owner on Jan 21, 2024. It is now read-only.
-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathLab6_PairRegressionModel.R
144 lines (118 loc) · 4.92 KB
/
Lab6_PairRegressionModel.R
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
install.packages("stargazer")
install.packages("memisc")
install.packages("tidyverse")
install.packages("ggplot2")
install.packages("lmtest")
install.packages("pander")
install.packages("dplyr")
library("tidyverse") #коллекция пакетов: ggplot2, dplyr, ...
library("lmtest") #тесты для линейных моделей
library("memisc") #сравнение моделей
library("pander") #таблички в markdown
library("broom") #стандартизация информации о модели
library("psych") #описательные статистики
library("modelr") #добавление прогнозов/остатков
library("ggplot2")
h <- Orange
summary(h)
plot(h$age, h$circumference) #поле корреляции
ggplot(Orange) +
geom_point(aes(x = age, y = circumference, color = Tree)) +
labs(x = "Возраст дерева, лет",
y = "Диаметр ствола, мм",
title = "Пять апельсиновых деревьев") +
scale_colour_discrete(name = "Дерево п/п")
model <- lm(circumference ~ age, data = h) #оцениваем модель
model #выводим на экран только коэффициенты
summary(model) #создаём отчет по модели #выводим отчет на экран
attributes(model)
model$coefficients
model$residuals
model$fitted
#показатели информационных критериев Акаике и Байесовского (Шварца)
AIC(model)
BIC(model)
confint(model, level = 0.9) #доверительные интервалы для коэффициентов 90%
confint(model, level = 0.95) #95%
#построение прогнозов
#с доверительным интервалом для среднего
new.data <- data.frame(age = c(100, 200, 300)) #зададим значений объясняющей переменной и обозначим ее как новую переменную
predict(model, new.data, interval = "confidence")
#с предиктивным интервалом
predict(model, new.data, interval = "prediction")
#визуализация
plot <- ggplot(h, aes(h$age, h$circumference)) + geom_point(aes())
plot +
xlab('Возраст деревьев') + #подписываем ось x
ylab('Длина окружности ствола') + #подписываем ось y
theme_bw()+ #выбираем ч/б тему
geom_smooth(method=lm)
#оценка моделей
#создадим две другие
model1 <- lm(circumference ~ age+I(age^2), data = h) #оцениваем квадратичную модель
summary(model1)
ln_age<-log(h$age)
ln_cir<-log(h$circumference)
model2 <- lm(ln_cir ~ ln_age, data = h) #оцениваем логарифмическую модель
summary(model2)
mtable(model, model1, model2) #сводим все три модели в одну табличку
#сами выбираем лучшую
resid<-resid(model2) #смотрим на остатки наилучшей модели
#проверим их на нормальность
#qq plot
qqnorm(resid)
qqline(resid)
qqline(resid, distribution = qnorm, col = "red")
#гистограмма
hist(resid, breaks = 6, freq = FALSE, col = "lightblue")
lines(density(resid), col = "red", lwd = 2)
curve(dnorm(x, mean=mean(resid), sd=sd(resid)), add=TRUE, col="darkblue", lwd=2)
#критерий Жака-Бера
install.packages("moments")
library("moments")
jarque.test(as.vector(resid))
#критерий Колмогорова-Смирнова
install.packages("nortest")
library(nortest)
ks.test(resid, "pnorm",
mean = mean(resid, na.rm = T),
sd = sd(resid, na.rm = T))
#критерий Шапиро-Уилка
shapiro.test(resid)
#критерий Лиллифорса
lillie.test(resid)
#критерий Крамера-фон Мизеса и Андерсона-Дарлинга
ad.test(resid)
#критерий хи-квадрат Пирсона
pearson.test(resid)
#задание
model3 = lm(circumference ~ age+I(age^2)+I(age^3), data = h)
#model
model4 <- lm(ln_cir ~ ln_age + I(ln_age^2), data = h)
#model1
mtable(model, model1, model3,model4)
AIC(model)
BIC(model)
AIC(model1)
BIC(model1)
AIC(model3)
BIC(model3)
AIC(model4)
BIC(model4)
#4 лучше поскольку R-squared больше (не для множественной), проверяем критериями, чем ниже число, тем лучше
resid<-resid(model4)
qqnorm(resid)
qqline(resid)
qqline(resid, distribution = qnorm, col = "red")
hist(resid, breaks = 6, freq = FALSE, col = "lightblue")
lines(density(resid), col = "red", lwd = 2)
curve(dnorm(x, mean=mean(resid), sd=sd(resid)), add=TRUE, col="darkblue", lwd=2)
jarque.test(as.vector(resid))
ks.test(resid, "pnorm",
mean = mean(resid, na.rm = T),
sd = sd(resid, na.rm = T))
shapiro.test(resid)
lillie.test(resid)
ad.test(resid)
pearson.test(resid)
t.test(resid, mu = 0)