Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- CNN 실습
- OneHotEncoding
- plot_model
- 모델평가
- kt에이블스쿨
- 머신러닝
- Neural Network
- CIFAR-10
- pandas
- 크롤링
- bias
- 데이터
- 뉴스웨일
- 데이터분석
- 딥러닝
- 데이터처리
- Convolution Neural Network
- fashion mnist
- Pooling Layer
- 키워드 기반 뉴스 조회
- learning_rate
- CRISP-DM
- NewsWhale
- explained AI
- AI
- AWS 입문자를 위한 강의
- 데이터크롤링
- MaxPooling2D
- CNN
- 인공지능
Archives
- Today
- Total
목록Batch Normalization (1)
jjinyeok 성장일지

시각지능 딥러닝에서는 Convolution Neural Network(CNN) 모델과 Object Detection 모델 두가지를 소개하고 실습한다. 1. Batch Normalization & Drop Out 시각지능 딥러닝에 본격적으로 들어가기에 앞서 Batch Noramilzation과 Dropout에 대해 간단히 다루었다. Batch Noramilzation이란 각 Hidden Layer의 Activation 값을 적절하게 퍼뜨리도록 강제화하는 작업이다. 학습을 빠르게 진행할 수 있고 가중치의 초기값에 크게 의존하지 않게 되며 Overfitting을 억제한다. 각 Hidden Layer 층 다음에 Batch Noramilzation Layer를 쌓는 방식으로 적용할 수 있다. 대부분의 경우 Bat..
[KT AIVLE School]
2022. 9. 19. 18:28