본문 바로가기

Keras5

[Kaggle] Titanic: Machine Learning from Disaster (2) 가끔 생각날때, 지금까지 정리해 본 모델을 가지고 예측모델 및 분석 대회 플랫폼인 Kaggle을 이따금 풀어보겠습니다. Kaggle은 예전에는 독자적인 회사였으나, 2017년 3월에 구글에 인수가 되었습니다. 여기에는 크게 Compete모드와 Data모드가 있으며, 기업이 될 수 있고 혹은 단체에서 문제를 등록하면 Data Scientist들이 이를 해결하기 위한 모델을 개발하고 경쟁하는 장 입니다. 경우에 따라서는 보상이 걸리기도 합니다. 지난번에 Logistic Regression을 알아보았기 때문에, 해당 모델로 해결이 가능한 가장 초급적인 문제를 풀어보고자 합니다. 해당문제는 이미 많은 사람들이 풀어본 문제이며, 입문문제로 꼽히기도 합니다. 바로 Titanic 승객들의 정보를 토대로 생존여부를 예.. 2020. 3. 6.
Iris dataset classification with Keras 지난번에는 임의로 데이터 셋을 생성하여, Logistic Regression 과 Softmax Regression을 사용해서 모델링을 해보았습니다. 이 두가지 방식은 종속변수가 범주형인 데이터 셋에 적용이 가능하며, 범주가 2개인지 3개이상인지를 가지고 각 각 다르게 사용했었습니다. 이번에는 유명한 dataset을 사용해서 적당한 분류기를 사용해서 모델링을하고 학습을 하여, 검증하는 방식으로 진행해 보겠습니다. 아주 유명한 예제인 Iris(붓꽃) 데이터를 사용하겠습니다. Iris(붓꽃) dataset (Fisher Iris Dataset)은... 영국 통계 학자 및 생물학자인 로널드 피셔 (Ronald Fisher)가 1936 년 논문에서 소개 한 다변량 데이터 세트입니다. 해당 데이터는 총 150개로 .. 2020. 2. 13.
Logistic Regression Tutorial with Numpy Tensorflow Keras 이번에는 바로전에 이론적으로 확인했던 Logistic Regression에 대한 Tutorial을 진행해 보도록 하겠습니다. 지난 시간에 확인했던 내용을 잠시 요약을 해보겠습니다. Logistic Regression은 독립변수에 대해서 종속변수가 범주형의 형태를 띄는 (ex. (0, 1), (True, False)) 데이터셋에서 적용이 가능한 방법입니다. 그리고, 주요한 요소를 정리해보면... 아래와 같습니다. Hypothesis (가설) : Sigmoid Function - 「hypothesis = P = 1 / (1 + np.exp(-f(x)))」 Loss (손실, 비용, 오차) : 「Loss = E(w) = - ∑ y * ln h(x) + (1-y) * ln (1 - h(x))」 Optimizer .. 2020. 2. 8.
Multiple Linear Regression with Tensorflow 2.0 이전에는 Simple Linear Regression에 대해서 알아보았습니다. 이는 독립변수가 1개이고 hypothesis를 통해서 Label을 도출하는 방식입니다. 아래의 그림과 같이 얼마나 W와 b를 잘 학습해서, 추가로 들어오는 독립변수에 대해서 정확한 Label을 내놓는지가 중요한 문제입니다. Simple Linear Regression에 대해서는 이전글을 참조해주시기 바랍니다. 2020/01/24 - [Tensorflow] - [Tensorflow 2.0] 03. Simple Linear Regression (1) [Tensorflow 2.0] 03. Simple Linear Regression (1) 이번에는 Machine learning의 지도학습(Supervised Learning) 중 하.. 2020. 1. 30.