일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- Pooling Layer
- 머신러닝
- 크롤링
- NewsWhale
- CIFAR-10
- plot_model
- OneHotEncoding
- kt에이블스쿨
- fashion mnist
- 데이터분석
- 데이터처리
- explained AI
- CNN 실습
- CNN
- 딥러닝
- 데이터크롤링
- 모델평가
- 뉴스웨일
- 키워드 기반 뉴스 조회
- AI
- AWS 입문자를 위한 강의
- MaxPooling2D
- Convolution Neural Network
- pandas
- 데이터
- bias
- CRISP-DM
- Neural Network
- learning_rate
- 인공지능
- Today
- Total
목록Convolution Neural Network (2)
jjinyeok 성장일지

이전 정리에서는 CNN의 전반적인 개요와 Convolution과 Pooling Layer에 대해 정리했다. 이번 정리는 좀 더 코드 위주로 CNN의 적용을 통해 정리하고자 한다. 다만 CNN은 ANN과 같이 하나의 기법이다. 단지 Feature Map을 활용해 공간 구조를 반영한다는 점에서 차이가 있다. 따라서 CNN 모델은 정해져 있는 것이 아니고 개발자가 임의로 Convolution Layer와 Pooling Layer를 쌓아 Feature Map을 만들고 만들어진 Feature Map을 Neural Network를 통해 출력한다. 이때 다른 Weight와 같이 Filter도 학습된다. 이런 구조를 이해하고시작하도록 하자. 1. CNN으로 Fashion MNIST 데이터 Classification 문..

시각지능 딥러닝에서는 Convolution Neural Network(CNN) 모델과 Object Detection 모델 두가지를 소개하고 실습한다. 1. Batch Normalization & Drop Out 시각지능 딥러닝에 본격적으로 들어가기에 앞서 Batch Noramilzation과 Dropout에 대해 간단히 다루었다. Batch Noramilzation이란 각 Hidden Layer의 Activation 값을 적절하게 퍼뜨리도록 강제화하는 작업이다. 학습을 빠르게 진행할 수 있고 가중치의 초기값에 크게 의존하지 않게 되며 Overfitting을 억제한다. 각 Hidden Layer 층 다음에 Batch Noramilzation Layer를 쌓는 방식으로 적용할 수 있다. 대부분의 경우 Bat..