본문 바로가기

Feature scaling

1. Feature scaling

- 여러 개의 feature들이 같은 scale을 갖도록 조정한다.

x1=size(02000)

x2=numberofbedrooms(010)

 

위 feature는 0 ~ 2000, 0 ~ 10의 다소 극단적인 범위를 갖는다. 이를 아래와 같이 조정할 수 있다.

 

x1=size2000(01)

x2=numberofbedrooms10(01)

 

 

- 모든 feature가 0에서 크게 벗어나지 않는 범위(대략 1xi1)를 갖도록 한다.

3xi3 (O)

13xi13 (O)

0xi2 (O)

100xi100 (X)

0.000001xi0.000001 (X)

 

 

 

2. Mean normalization

- feature 들이 대략 0의 평균을 갖도록 xixiμi로 바꾼다.

μixi의 평균을 의미하며, x0=1은 적용하지 않는다.

 

Ex)

x1=size10002000

x2=numberofbedrooms25

 

xixiμisi

- xi:ithfeature

- μi:average(arithmeticmean)ofxi

- si:rangeofvalueofithfeature

 

si의 범위는 보통 max(xi)min(xi) 또는 xi의 표준편차(σ(xi))로 설정한다.

 

 

 

3. Objective

feature들의 scale이 극단적으로 차이나면 gradient descent가 수렴하기 위해 더 많은 반복을 필요로 한다.

따라서 비슷한 scale을 갖도록 조정해 gradient descent가 더 빨라지도록 한다.

'Machine Learning > Machine Learning' 카테고리의 다른 글

Gradient descent for linear regression  (0) 2021.02.21
Gradient descent  (0) 2021.02.21
가설과 비용함수  (0) 2021.02.20
Unsupervised learning  (0) 2020.12.20
Supervised learning  (0) 2020.12.20