일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 머신러닝
- CRISP-DM
- pandas
- 인공지능
- MaxPooling2D
- 모델평가
- CIFAR-10
- kt에이블스쿨
- AI
- bias
- 크롤링
- NewsWhale
- 데이터
- 데이터분석
- Pooling Layer
- fashion mnist
- CNN 실습
- CNN
- 데이터처리
- 데이터크롤링
- Convolution Neural Network
- 딥러닝
- explained AI
- 키워드 기반 뉴스 조회
- 뉴스웨일
- Neural Network
- plot_model
- OneHotEncoding
- learning_rate
- AWS 입문자를 위한 강의
- Today
- Total
목록분류 전체보기 (36)
jjinyeok 성장일지

이전 정리에서 Tensorflow와 Keras 문법을 배우고 Tensorflow와 Keras를 통한 머신러닝 과정을 진행했다. 이번엔 이것들을 사용한 딥러닝 과정을 정리하겠다. 딥러닝은 이전 정리에서 중간 Hidden Layer를 쌓는 과정이 추가된다. 1. ANN (Artificial Neural Network) 앞선 Tensorflow와 Keras를 통한 머신러닝 모델에서 Hidden Layer(은닉층)을 추가한다면 간단한 딥러닝 모델을 만들 수 있다. 이를 ANN (Artificial Neural Network) 또는 MLP (Multi Layer Perceptron)라고 한다. Sequential 스타일의 코드에서 Hidden Layer가 2개 추가된 모델의 구현은 다음과 같다. 참고로 이전 정리..

이전 과정 AI 모델 해석 및 평가 과정에서 정말 배운것이 많고 인사이트를 보는 능력을 키울 수 있었지만 자소서 쓰는 시간이 오래 걸려 AI 모델 해석 및 평가 강의를 정리하지 못했다. 그러나 딥러닝 강의 이후 시각 지능 딥러닝과 언어 지능 딥러닝을 배우기 때문에 딥러닝을 먼저 정리해야 할 것 같다. 딥러닝을 정리하고 자소서 시즌이 끝나 시간이 조금 날 때 AI 모델 해석 및 평가 강의를 정리하겠다. 1. Linear Regression을 통한 딥러닝 Linear Regression은 Regression문제를 해결하기 위한 모델로 결과적으로 y = w1 * x1 + w2 * x2 + w3 * x3 + w0와 같은 수식이 만들어진다. 이를 뉴럴 네트워크 구조로 만든다면 다음과 같다. 이때 x1, x2, x..

지금까지 Linear Regression, Logistic Regression, KNN, Decision Tree, SVM 등 하나의 모델을 사용해 모델링을 진행했다. 이제부터 Ensemble이라는 기법을 사용해 여러 모델을 종합 판단하는 방법을 정리하겠다. 앙상블은 크게 Bagging, Boosting, Stacking으로 나뉘어지지만 강의에서는 Bagging, Boosting만을 다루었기에 두개만 정리하고 Stacking은 나중에 혼자 공부해서 정리해보겠다. 1. Bagging Bagging의 과정은 다음과 같다. 먼저 Train Data를 기준으로 복원추출을 통해 Bootstrap Sample들을 여러개 만든다. 즉 하나의 Train Data를 통해 Train Set이 여러 개인 양 만드는 것이다...

1. 선형 모델 : 변수 선택법 Linear Regression, Logistic Regression과 같은 선형 모델은 어떤 feature를 선택했느냐에 따라 성능에 차이가 발생한다. Data Understanding 과정에서 EDA & CDA 과정을 통해 target과 관련이 높은 feature를 알 수 있었다. 선형 모델의 성능을 튜닝할 때 이러한상관도가 높은 feature들만을 사용하며 성능을 높일 수 있다. 이때 단순히 관련도가 아닌 AIC(Akaike Information Criterion)라는 지표를사용해 feature를 선택하는 방법이 존재한다. 2. AIC(Akaike Information Criterion) 모델은 Train Set을 잘 설명하면서도 Overfitting이 되지 않도록 ..

1. Decision Tree Decision Tree (의사 결정 나무) 알고리즘은 특정 feature에 대한 의사 결정의 규칙(decision rule)을 통해 나무의 가지가 뻗는 형태로 분류해 나가는 분석 기법이다. 특히나 분석 과정이 직관적이고 이해하기 쉽고 계산 비용이 낮아 빠르게 데이터 연산이 가능하는 장점이 있으며 분석 과정을 실제 눈으로 관측할 수 있는 대표적인 화이트 박스 모델이다. 2. 분할 과정 target y를 기준으로 전체 데이터를 유사한 값을 가진 segment로 분할한다. 어떤 feature X가 target y에 중요한 정보를 담고 있는지를 찾아 그 feature X를 기준으로 segment로 분할하는 과정을 반복하며 트리를 만들어 나간다. 이때 feature X를 선택하는 ..

1. K-Nearest Neighbors KNN (K-Nearest Neighbors) 알고리즘은 regression 문제와 classification 문제 모두 사용 가능하다. 오늘의 강의에서는 KNN 알고리즘을 사용하여 regression 문제를 해결하는 방법을 중심으로 KNN을 설명해주셨다. KNN 알고리즘은 거리를 계산하여 y를 추정하는 기본 알고리즘이다. KNN 알고리즘은 Nonparametric Method로 데이터를 학습한다는 컨셉의 모델이 아닌 데이터 자체를 그대로 사용하는 모델로 모든 데이터를 저장한다는 특징을 가지고 있다. KNN 알고리즘은 Instance-Based Learnig (사례 기반 학습)이라고 할 수도 있는데 새로운 데이터를 지난 데이터를 통해 예측하는 알고리즘이기 때문이다..