Archive: 2019
Image Search (Kakaopay Internship)
1. Background카카오 인턴쉽 과제로 Kakao Image Search API를 활용한 어플리케이션을 제작하였습니다. 약 7일간 진행하는 소규모 프로젝트이므로 시간관리는 물론 주어진 기능들을 우선적으로 개발하는 것과 본인 역량 가능한 범위 내에 유용한 기능들을 개발하는 것이 중요했습니다. 2. EnvironmentPlatform : Anroid N
Normalization, Overfitting, Underfitting
Normalization입력 데이터를 들어오는 그대로 사용하면 문제가 생길수도 있다. 예를 들어 2개의 입력을 받아서 1개의 결과를 도출하는 Machine Learning Model이라고 생각해보자. 근데 이 2개의 입력 값의 범주가 1개는 1 ~ 10 범위를 가지고 있고 다른 하나는 1000 ~ 10000이라면 단지 이 데이터의 수치에 의해 그 입력값의
Train set, Validation set, Test set
각 Data Set의 역할.일반적으로 Overfitting을 방지하기 위해서 Data set을 3가지로 구분하여 학습을 진행한다. 1. Train Set 학습을 위한 데이터셋이다. 가장 기본적으로 사용되며 일반적으로 Data Set의 60%를 사용한다. 2. Validation Set 모델을 평가하기 위한 데이터셋이다. 하이퍼 파라미터나 Hypoth
Convex Function
Convex FunctionConvex 함수는 2차함수 처럼 볼록하게 생긴 함수를 말한다. 단순히 모양을 칭하는 말이지만 이것은 Gradient Descent에서는 꽤나 중요하게 작용한다. Convex Function Non Convex Function Gradient Descent 알고리즘에서 최소값을 구하기 위해서 미분이 0이 되는 지점을 찾는다.
Logistic Regression
Logistic Regression의 필요성 및 Linear Regression의 한계 Linear Regression은 일반적으로 결과인 y값이 연속적인 값을 가질때 데이터르 표현하기에 유용하다. 그러나 만약 y값이 이산적이라면 어떨까. 두번째 그래프는 y값이 붉은색과 푸른색으로 2가지 형태만 가지고 있다. 합격과 불합격을 의미하도록 만들었다. 데이터가
Linear Regression with Multiple Variables
Hypothesis 확장y = wx + bSimple Linear Regression은 입력되어질 수 있는 변수가 x 한가지이다. 보다 복잡한 상황들을 견뎌낼 수 있는 모델이 필요하다. 이번에는 변수를 2개 이상 가질 수 있는 Linear Regression을 소개한다. y = w_2x_2 + w_1x_1 + b이는 변수 2개를 가질 수 있는 모델이며 같은
Linear Regression with Weight, Bias
선형 회귀 이론의 확장.기존의 선형회귀 이론은 Hypothesis 모델이 y = wx 로 구하려고 하는 변수가 w값 1개 였다.그러나 실제로 이렇게 단순한 모델로 적용할 수 있는 상황은 그렇게 많지 않다. 이번에는 생략했던 b값도 추가하여 y = wx + b 의 모델로 선형 회귀 이론에 대해서 알아보자. Hypothesis개념은 Linear Regressi
Alpha. Learning Rate
Learning rate 란?w_{n+1} = w_n - \alpha { \partial \over \partial w} Cost Function 위 수식과 그래프는 Gradient Descent 알고리즘을 표현한다. 그래프에서 빨간 점은 반복됨에 따라서 점점 최소값을 향해 가고 있다. 위 수식에서 alpha는 learning rate라고 불리며 학습을