새소식

Python/opentutorials(Tensorflow)

2. Deep Learning(보스턴 집값 예측, 아이리스 품종 분류)

  • -

 평균의 대표성을 무너뜨리는 값들을 이상치라고 하는데 이상치로 인해 평균의 대표성을 사용하기 힘들 때 중간값을 사용한다.

 

 

# 컬럼 설명

1 범죄율

4 강변

5 평균 방수

13 하위계층 비율

1~13까지 14에 영향을 미치는 독립변수

14 종속변수

 

 

 

 

 

 

 

 

 

X=tf.keras.layers.Input(shape=[13])

Y=tf.keras.layers.Dense(1)(X)

13개의 입력으로부터 1개의 출력을 만든다

 

model = tf.keras.models.Model(X, Y)

model.compile(loss=‘mse’)

 

 

 

 

 

 

 

 종속변수 1개의 결과를 만들 때 수식이 1개가 필요한데 만약 독립변수의 개수가 12개, 종속변수의 개수가 2개라면 Perceptron 2개가 병렬로 연결된 모델이 되는 것이고, 찾아야 하는 가중치 개수는 w(가중치=weight) 12개 b(편향=bias) 1개, 2개 있는 것이므로 모두 26개를찾아야 한다.

 가중치(weight)는 쉽게 입력값에 각기 다르게 곱해지는 것을 말합니다. weight라고도 불려지며 데이터를 각기 다른 비중으로 전달시키기 위해 비중(=가중치)을 다르게 한다고 이해하면 쉬울 것입니다. 편향(bias) 하나의 뉴런으로 입력된 모든 값을 다 더한 다음에(가중합이라고 합니다) 이 값에 더 해주는 상수입니다. 이 값은 하나의 뉴런에서 활성화 함수를 거쳐 최종적으로 출력되는 값을 조절하는 역할을 합니다. 

 

 

 

사용할 라이브러리 import, 가져올 데이터의 파일 경로를 통해 columns를 확인

 

독립변수,종속변수의 판단으로 분리시킨다. 그 후 X,Y의 변수 개수 만큼 모델을 만들고 학습(fit)시켜 loss를 낮춰준다

 

fit 시킨 모델을 이용하여 예측하는데 독립변수의 5~9까지의 맞는 종속변수 값 예측 확인. 모델의 수식은 각 가중치를 보여주는 모습이다

 

 

 

 

 

<아이리스 품종 분류>

 

 

 회귀(regression), 분류(classification) 나누는 것은 종속변수의 양적과, 범주를 중심으로 붓꽃의 종속변수는 범주형이므로 분류를 사용한다. 범주형 데이터는 숫자 형태로 바꿔주는 과정이 필요한데 이것을 원핫인코딩(One Hot Encoding)이라고 부른다. 

옆의 그림을 보면 품종의 범주형 데이터가  원핫인코딩으로 인해 양적 데이터로 변환된 것을 확인할 수 있다.

 

 

 

 

 

 

 

사용할 라이브러리 import, 가져올 데이터의 파일 경로를 통해 columns를 확인

 

 

원핫인코딩을 통해 범주형 데이터 -> 양적 데이터로 변환, 1개의 종속변수가 3개의 종속변수로 나누어졌다

 

 

activation = ‘softmax’ softmax는 비율로 예측을 하기위해 사용. 숫자를 예측하기 위한 회귀모델은 입력을 그대로 출력으로 만드는 identity모델 이 있기 때문인데, (activation = 활성화 함수) 분류 문제는 loss = ‘categorical_crossentrophy’  따라서 loss를 다르게 사용해야한다. 회귀에 사용하는 loss = ‘mse’ , 분류에 사용하는 crossentrophy. 분류에서는 추가로 정확도를 볼 수 있다. ,metrics = ‘accuracy'

 

 

 

 

출처 : https://www.opentutorials.org/module/4966/28987

'Python > opentutorials(Tensorflow)' 카테고리의 다른 글

3. Deep Learning(Hidden layer)  (0) 2021.07.28
1. Strat Deep Learning (레모네이드 판매 예측)  (0) 2021.07.26
1. Start TensorFlow  (0) 2021.07.21
Contents

포스팅 주소를 복사했습니다

이 글이 도움이 되었다면 공감 부탁드립니다.