-To Do List 체크
-각 파트별 진행상황 공유(소스 코드 및 결과)
-누가 몰아서 몰빵해서 쓰지 않고 각자 readme 작성
-각 분야별 readme에는 개발환경, 종속성등 문서화!! ex) api 몇사용등..
-한 것들은 각자 체크하고 팀원들에게 알려주기
-상세페이지 : https://github.com/kykymouse/KoreanLipNetAndroid/tree/master/Android
- 안드로이드 화면 UI
- 카메라 촬영 기능
- 파일 업로드 기능
- 파일 다운 기능
- 버튼 누르기로 동영상 촬영, 중단
- 자동으로 3초간 동영상 촬영
- 갤러리에서 동영상파일 선택하면 선택된 파일이 서버에 업로드됨
- predict 완료해서 자막 입힌 동영상 파일 핸드폰으로 다운로드
- 상세페이지 : https://github.com/kykymouse/KoreanLipNetAndroid/tree/master/DeepLearning
- 딥러닝 환경 재구축
- 학습방향 설정
- CAM 활용
- Accuracy 정리
- 문법교정
-오디세이 및 렌탈 PC
- 오디세이
- 렌탈 pc (ssd로 교체 및 환경 재설치)
-여러사람들의 인식률을 높히기 위한 방식
- 1. 병운이형의 영상을 train에 넣고 epoch 500번의 학습 진행 후, 학습된 가중치에 채현이 영상을 train에 넣고 epoch 500번의 학습진행. 총 epoch은 1000번
- 2. 병운이형, 채현이 영상을 한번에 train에 넣고, epoch 1000번의 학습 진행
=> 결과 : 2번의 방식(계속 이방향으로 학습을 진행할 예정)
- 1. 각 align 파일들에서 가능한 모든 단어들을 조합해서 하나의 grid.txt 파일에 저장하는 코드 작성
- 2. 기존 75frame의 영상과 align 파일들을 150frame의 영상(150_frame_extract_mouth_batch2.py)과 align(150frame_algin.py)으로 바꾸어 주는 코드 작성
- 3. 위의 1,2번 테스트 후 epoch 1000번의 학습 진행
=> 결과 : 75frame에서는 높은 정확도를 가지지만 150frame에서는 validation loss가 일정 수준으로 떨어지다가 다시 올라감. overfitting 되었다는 결론에 도달했다. 학습량을 충분히 더 늘려서 테스트해보아야함!
- 1. 모든 단어(야구, 볼펜, 필통, 매우, 늦게, 예쁜, 주황, 노랑, 다홍), 문장(감사합니다, 좋아합니다, 안녕하세요 고생하세요)을 train 327개, val 98개 넣고 학습을 진행중
=> 결과 : 현재 epoch 500번 정도 한 결과 기존의 병운이형의 정확도가 매우 많이 올라갔다. 모든 문장및 단어에서 95%정도의 인식률을 기록!!
- CAM을 RESNET50을 이용하여 사용할 수 있는 환경 구축 및 테스트
- CAM을 활용하여 우리 모델을 사용하여 입술 처리 과정을 보여주는 영상 저장
- CAM을 활용하여 우리 모델을 사용하여 입술 처리 과정을 보여주는 영상을 web 화면에서 보여줌
**=> 결과 : **
- 각 모든 test 과정에서의 accuracy정리 SER(Sentence Error Rate), WER(Word Error Rate), CER(Character Error Rate)
- 쓰세요
- 쓰세요
- 문장에 대한 정보 align 작업 진행(8.8 ~ 8.11) : 동진 68개(감사합니다), 채현68개(좋아합니다), 한솔 과 형수 100(안녕하세요 고생하세요)
- 약 2시간 20분정도 gpu를 사용하여 학습 진행 가능.(epoch 40번) 그러나 점점 한 에폭 도는 데에 걸리는 시간이 길어짐.
=> 주기적으로 다시 학습을 진행시켜주어야함.