1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
|
# KNN알고리즘을 이용하여 유방암 분류하기
wbcd = read.csv('c:/data/wisc_bc_data.csv',header=T,stringsAsFactors=FALSE)
# data.frame()으로 데이터프레임을 생성할 때 변수에 문자가 있을 경우 자동으로 factor타입으로 변환됨
# factor 변수는 연산이 되지 않으므로 stringsAsFactors() 함수를 써서 factor타입으로 변환되지 않게 하자
# factor로 변환하고 하지 않는 이유
# factor로 변환하지 않으면 프로그램이 문자를 단지 형(string)으로만 인식하지만
# factor로 변환하면 각각의 문자를 범주로 인식하기 때문에 이 경우는 일단 stringsAsFactors=F로 함
# 진단 컬럼 확인
table(wbcd$diagnosis)
# R에서 Grubb's Test를 이용한 이상치 검출방법 (출처 : https://sosal.kr/945)
library(outliers)
grubbs.flag <- function(x) {
outliers <- NULL
test <- x
grubbs.result <- grubbs.test(test)
pv <- grubbs.result$p.value
while(pv < 0.05) {
outliers <- c(outliers,as.numeric(strsplit(grubbs.result$alternative," ")[[1]][3]))
test <- x[!x %in% outliers]
grubbs.result <- grubbs.test(test)
pv <- grubbs.result$p.value
}
return(data.frame(X=x,Outlier=(x %in% outliers)))
}
# 3부터 시작하는 이유는 [1], [2] 컬럼은 수치가 아니기 때문
for (i in 3:length(colnames(wbcd))){
a = grubbs.flag(wbcd[,colnames(wbcd)[i]])
b = a[a$Outlier==TRUE,"Outlier"]
print (paste(colnames(wbcd)[i],'--->',length(b)))
}
# 결측치(NA)값 확인
colSums(is.na(wbcd)) # 유방암 데이터는 결측치 없음
# factor는 범주형 자료에서 사용한다. 진단을 factor로 만들어줌
wbcd$diagnosis <- factor(wbcd$diagnosis,
levels =c("B","M"),
labels = c("Benign","Maliganant"))
# 진단 컬럼 확인
prop.table(table(wbcd$diagnosis))
# seed를 설정하여 항상 똑같게 shuffle 되도록 함
set.seed(1)
wbcd_shuffle <- wbcd[sample(nrow(wbcd)), ]
wbcd2 <- wbcd_shuffle[-1] # 1번째 컬럼은 불필요한 환자번호이므로 없애고 shuffle
# 셔플한 데이터 확인
str(wbcd2)
# 정규화 함수
normalize <- function(x) {
return ((x-min(x)) / (max(x) - min(x)))
}
ncol(wbcd2) # 31
wbcd_n <- as.data.frame(lapply(wbcd2[2:31],normalize)) # 진단인 [1] 을 제외하고 전체 컬럼을 정규화함
train_num<-round(0.9*nrow(wbcd_n),0) # 512 (90%)
# 데이터 나누기 train/test
wbcd_train<-wbcd_n[1:train_num,] # 512개의 데이터
wbcd_test<-wbcd_n[(train_num+1):nrow(wbcd_n),] # 57개의 데이터
# 라벨 나누기 train/test
wbcd_train_label <- wbcd2[1:train_num,1]
wbcd_test_label <- wbcd2[(train_num+1):nrow(wbcd_n),1]
# knn 알고리즘 사용
library(class)
result1 <- knn(train=wbcd_train, test=wbcd_test,cl=wbcd_train_label, k=21) # k는 내 마음대로 (대체로 홀수)
# 예측값과 정답을 테이블로 만듦
x = data.frame('실제'=wbcd_test_label,"예측"=result1)
table(x)
# 예측률 평가
library(gmodels)
g2 = CrossTable(x=wbcd_test_label,y=result1,chisq=FALSE)
g2$prop.tbl[1] + g2$prop.tbl[4] # 0.9298246
# 어떤 k값이 정확도가 가장 높을까?
temp = c()
k_num = c()
for (i in 1:200) {
if (i%%2 != 0) {
k_num = append(k_num,i)
wbcd_test_pred = knn(train=wbcd_train, test=wbcd_test, cl=wbcd_train_label, k=i)
g2 = CrossTable(x=wbcd_test_label,y=wbcd_test_pred,chisq=F)
g3 = g2$prop.tbl[1] + g2$prop.tbl[4]
temp = append(temp,g3)
}
}
result = data.frame("k"=k_num,"정확도"=temp)
library(plotly)
plot_ly(x=~result[,"k"],y=~result[,"정확도"],type='scatter',mode='lines') %>%
layout(xaxis=list(title="k값"),yaxis=list(title="정확도"))
|
cs |
'인공지능 > 실습예제' 카테고리의 다른 글
(R) 의사결정트리 활용하기 1 - 화장품을 구입할 고객은? (0) | 2020.06.25 |
---|---|
(R) 나이브베이즈알고리즘 활용하기 3 - 독감 환자입니까? (0) | 2020.06.25 |
(R) 나이브베이즈알고리즘 활용하기 2 - 영화 장르 예측 (0) | 2020.06.25 |
(R) 나이브베이즈알고리즘 활용하기 1 - 버섯 분류 (0) | 2020.06.24 |
(R) KNN알고리즘 활용하기 2 - 와인 분류 (0) | 2020.06.24 |