less than 1 minute read

모델 학습 결과

  • 거의 24시간을 꼬박 돌리던 모델이 드디어 학습을 끝마쳤다.
    • 사실 원래 남은 epoch대로라면 다음날 00시까지 학습을 시켜야했겠지만, val_accuracy가 1이 나오는 모습을 보고 식겁해서 훈련을 중단시켰다.
    • validation_set에 data augmentation을 적용 안했다고 해도 설마 이게 overfitting되는건가? 싶은 불안감이 엄습했다.
  • 테스트 데이터셋의 경우, 프로젝트 6일차에 완성해두었던 크롤링 데이터셋을 활용했다.

  • 테스트 결과 loss 1.1250, 정확도 98.34%를 기록했다.
    • 13일차에서 제작했던 non_crop이미지를 학습한 CNN모델의 적중률이 61%인것을 감안했을때, 그야말로 혁명에 가까운 정확도라 대단히 만족스러웠다.
  • 물론 이번 데이터셋의 경우, 명확한 차이가 존재하는 데이터셋(63빌딩, 광화문 이순신 동상, 롯데월드 타워, 남산타워)였기 때문에 가능한 정확도일수도 있기에, 클래스의 개수를 조금 늘려보기로 했다.

클래스 개수 증가(4 -> 72)

  • 6일차에 만들어두었던 이미지 파일을 꺼내와 훈련 데이터로 사용하기로 했다.
    • 이미지 총 개수 2054개, 클래스 개수 72개.
    • AI-HUB 데이터에 비해 클래스별 데이터 개수는 적고, 클래스 개수는 훨씬 많다.
    • 데이터 숫자가 적었기에 데이터 증강 레이어에 Random_Translation() 레이어를 추가해 증강 데이터의 다양성을 증가시켰다.