Machine Learning (9) 썸네일형 리스트형 Octave: 제어문 1. for 문 ① fori=n:m ⋯ endfor ② indices=n:d:m fori=indices ⋯ endfor i는 그냥 변수 이름이므로 다른 거 써도 됨. ①은 n부터 m까지 1씩 증가시켜 반복하는 경우고 ②은 n:d:m은 n부터 d씩 증가시키며 m까지 반복하는 경우다. 예를 들어 1:3:11로 지정하면 1,4,7,10이 된다. * disp(): 주어진 parameter를 모니터에 출력하는 함수. display의 앞 네 글자를 딴 이름이다. ※ 주의 Octave의 제어문은 다른 언어들과 다시 end로 끝을 명시해줘야 한다. 끝을 명시하는 방법에는 다음의 두 가지가 .. Octave: Utility 1. 주석 # % 한 줄 주석 %{ ⋯ %} 여러 줄 주석, % 대신 # 써도 됨 2. 문자열 문자열은 작은 따옴표(')나 큰 따옴표(")로 감싸면 된다. 3. 크기 size() 함수와 length() 함수가 있는데 약간 다르다. 둘 다 행렬 또는 벡터의 차원을 반환하지만 size()와 달리 length()는 차원을 지정할 수 없고 가장 긴 차원을 반환한다. LetAis3×4matrixandvis5×1vector size(A,1)=3 $size(A,\.. Octave: 기본적인 연산 1. 행렬 생성 다음과 같은 형식으로 m×n 행렬을 만들 수 있다. A=[a11a12⋯a1n;a21a22⋯a1n;⋯;an1an2⋯ann;] 또는 A=[a11a12⋯a1n; a21a22⋯a1n; ⋯ an1an2⋯ann] 요소 간 구분자는 공백 문자. 행 구분자는 세미콜론이다. 다음과 같이 요소 간 구분자로 공백 대신 콤마, 또는 둘 다 써도 된다. $A = [ a_{11},\;a_{12},\;\cdots,\;a_{1n.. Feature scaling 1. Feature scaling - 여러 개의 feature들이 같은 scale을 갖도록 조정한다. x1=size(0−2000) x2=numberofbedrooms(0−10) 위 feature는 0 ~ 2000, 0 ~ 10의 다소 극단적인 범위를 갖는다. 이를 아래와 같이 조정할 수 있다. x1=size2000→(0−1) x2=numberofbedrooms10→(0−1) - 모든 feature가 0에서 크게 벗어나지 않는 범위(대략 −1≤xi≤1)를 갖도록 한다. $-3 \leq x_{.. Gradient descent for linear regression - 비용 함수와 기울기 하강을 이용해 선형 회귀를 위한 알고리즘, 또는 데이터에 맞는 일차함수를 구한다. Gradient descent algorithm Repeatuntilconvergence{ θj←θj−α∂∂θjJ(θ)(j=0,1,...,n) } Linear regression model hθ(x)=θ0+θ1x1+⋯+θnxn $J(\theta) = \frac{1}{2m}\sum_{i=1}^{m}\{h_{\theta}(x^{(i)}).. Gradient descent 1. Definition 비용함수 J(θ)를 최소화하는 θ를 구하기 위한 알고리즘. Outline은 다음과 같다. ① 임의의 θ0, θ1을 설정한다(보통 0). ② J(θ)를 줄이는 쪽으로 θ0, θ1값을 계속 바꾼다. ③ 기대하는 최소값에 도달할 때까지 이를 반복한다. pseudocode로 표현하면 다음과 같다. Repeat until convergence { θj←θj−α∂∂θjJ(θ0,θ1) (for j = 0, 1) } ←.. 가설과 비용함수 1. 가설 input variable(또는 feature)과 output(또는 target variable)의 관계를 나타내는 함수. 다음과 같은 집값 데이터를 수집했다고 하자. 집 크기(m²) 집 값(₩) 195 507840000 132 256128000 142 347760000 79 196512000 - 집 크기는 input, 집 값은 output에 해당한다. - 집 값 예측: input(집 크기)와 output(집 값)의 관계식을 정의해 새롭게 주어지는 집 크기에 대한 집 값을 예측한다. - 이 때의 관계식이 '가설(hypothesis)'에 해당한다. * 관계식을 '가설'이라고 하는 이유 집 값 예측: 집 값을 도출해낼 수 있는 변수(feature)와 집 값(output)의 관계식을 정의한다. - .. Unsupervised learning Machine learning은 크게 Supervised learning과 Unsupervised learning의 두 가지로 분류된다. 여기서는 Unsupervised learning을 살펴보자. Unsupervised learning(비지도 학습) Supervised learning과 가장 큰 차이점은 label 즉 '정답'이 주어지지 않는다는 것이다. 쉽게 말해 기계에 dataset을 때려넣고 "알아서 구분해라"라고 하는 셈이다. 위 그림에서 보다시피 Supervised learning의 경우 label(O/X)되어 있는 반면, Unsupervised learning의 경우 label이 없거나 모든 data가 같은 label을 갖는다. Unsupervised learning에서는 주어진 datase.. Prev 1 2 Next 목록 더보기