일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- 머신러닝
- fashion mnist
- 뉴스웨일
- 데이터분석
- 인공지능
- 크롤링
- Convolution Neural Network
- 모델평가
- CNN
- pandas
- learning_rate
- 딥러닝
- CNN 실습
- Neural Network
- AWS 입문자를 위한 강의
- 데이터
- bias
- CIFAR-10
- kt에이블스쿨
- plot_model
- AI
- 데이터크롤링
- 키워드 기반 뉴스 조회
- NewsWhale
- MaxPooling2D
- OneHotEncoding
- 데이터처리
- CRISP-DM
- Pooling Layer
- explained AI
- Today
- Total
목록CNN (2)
jjinyeok 성장일지

이전 정리에서는 CNN의 전반적인 개요와 Convolution과 Pooling Layer에 대해 정리했다. 이번 정리는 좀 더 코드 위주로 CNN의 적용을 통해 정리하고자 한다. 다만 CNN은 ANN과 같이 하나의 기법이다. 단지 Feature Map을 활용해 공간 구조를 반영한다는 점에서 차이가 있다. 따라서 CNN 모델은 정해져 있는 것이 아니고 개발자가 임의로 Convolution Layer와 Pooling Layer를 쌓아 Feature Map을 만들고 만들어진 Feature Map을 Neural Network를 통해 출력한다. 이때 다른 Weight와 같이 Filter도 학습된다. 이런 구조를 이해하고시작하도록 하자. 1. CNN으로 Fashion MNIST 데이터 Classification 문..

시각지능 딥러닝에서는 Convolution Neural Network(CNN) 모델과 Object Detection 모델 두가지를 소개하고 실습한다. 1. Batch Normalization & Drop Out 시각지능 딥러닝에 본격적으로 들어가기에 앞서 Batch Noramilzation과 Dropout에 대해 간단히 다루었다. Batch Noramilzation이란 각 Hidden Layer의 Activation 값을 적절하게 퍼뜨리도록 강제화하는 작업이다. 학습을 빠르게 진행할 수 있고 가중치의 초기값에 크게 의존하지 않게 되며 Overfitting을 억제한다. 각 Hidden Layer 층 다음에 Batch Noramilzation Layer를 쌓는 방식으로 적용할 수 있다. 대부분의 경우 Bat..