Releases: boostcampaitech4lv23cv1/final-project-level3-cv-01
Releases · boostcampaitech4lv23cv1/final-project-level3-cv-01
Version 2.0
HEY-I Ver.2
- HEY-I Ver. 1에서 느꼈던 한계점을 보완하기 위해 Ver. 2를 개발했습니다.
- Facial Emotion Recognition / Pose Estimation 모델을 customize 했습니다.
- FER : Pytorch Lightning / EfficientNet B0 를 사용하여 학습했습니다.
- 한국인 감정인식 데이터셋을 사용하여 실제 서비스 이용자인 한국인 얼굴에 맞는 감정 인식 모델을 학습했습니다.
- Pose Estimation : MMPose / ResNet50 을 사용하여 학습했습니다.
- 수화 데이터셋을 사용하여 실제 서비스 데이터와 비슷한 상체 움직임이 많은 데이터를 사용하여 자세 인식 모델을 학습했습니다.
- FER : Pytorch Lightning / EfficientNet B0 를 사용하여 학습했습니다.
- Multi Threading 을 통해 Inference 속도를 개선했습니다.
- Mutli Threading 을 도입하여 기존의 방법보다 약 2배 빠른 추론 속도를 기록했습니다.
- Google Cloud Storage와 MongoDB에 데이터를 축적하고 AirFlow를 통해 추가적인 학습을 가능하도록 했습니다.
- 분석 영상에 대한 User Feedback을 받아서 사용자가 맞다고 생각하는 분석 영상을 이용하여 추가 학습을 시키고, 잘못 분석했다고 생각하는 영상은 따로 저장해 추가 Annotation 과정을 거친 후 학습을 시키는 Pipeline을 구축했습니다.
Version 1.0
HEY-I Ver.1
- 프로토타입 모델을 통해 서비스의 실현 가능성을 알아보고자 했고, 추후 더 나은 서비스를 위해 어떤 점이 필요한지 느끼려 했습니다.
- 빠른 프로토타입 개발을 위해 학습이 필요 없는 API를 사용했습니다.
- 표정 인식을 위해 DeepFace를 사용했습니다.
- 자세 인식을 위해 MediaPipe를 사용했습니다.
- 시선 추적을 위해 Gaze Tracking github repository를 사용했습니다.
- 이를 통해 다음과 같은 한계점을 느꼈습니다.
- 더 나은 모델을 위한 학습 파이프라인 부재
- 실제 서비스에서 마주할 데이터로 학습하지 않음으로 인한 낮은 신뢰성
- Inference 과정을 직접 customize 할 수 없음에 따른 긴 분석 시간