가) 오늘 내 학습목표는 무엇이었나요?
- 제출 기회 10번 모두 사용하기
나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요?
- accuracy : 80.3016%, f1 : 0.7410%
- 자체 데이터 추가
- data_1
- 사람을 기준으로 train과 test 데이터로 분리 (train : test = 4 : 1)
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- nn.CrossEntropyLoss()
- optim.SGD(model_ft.parameters(), lr=0.00001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=20
- accuracy : 78.4921%, f1 : 0.7216%
- 자체 데이터 추가
- data_1
- 사람을 기준으로 train과 test 데이터로 분리 (train : test = 4 : 1)
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- nn.CrossEntropyLoss()
- optim.SGD(model_ft.parameters(), lr=0.001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=30
- accuracy : 77.9206%, f1 : 0.6956%
- 자체 데이터 추가
- data_1
- 사람을 기준으로 train과 test 데이터로 분리 (train : test = 4 : 1)
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- nn.CrossEntropyLoss()
- optim.SGD(model_ft.parameters(), lr=0.001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=20
- f1을 기준으로 모델 선정
- accuracy : 73.4127%, f1 : 0.5871%
- 자체 데이터 추가
- data_1
- 사람을 기준으로 train과 test 데이터로 분리 (train : test = 4 : 1)
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- F1Loss()
- optim.SGD(model_ft.parameters(), lr=0.001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=20
- f1을 기준으로 모델 선정
- accuracy : 75.8730%, f1 : 0.6693%
- 자체 데이터 추가
- data_1
- 사람을 기준으로 train과 test 데이터로 분리 (train : test = 4 : 1)
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- F1Loss()
- optim.SGD(model_ft.parameters(), lr=0.001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=50
- f1을 기준으로 모델 선정
- accuracy : 77.0635%, f1 : 0.6790%
- 자체 데이터 추가
- data_1
- 사람을 기준으로 train과 test 데이터로 분리 (train : test = 4 : 1)
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- nn.CrossEntropyLoss()
- optim.SGD(model_ft.parameters(), lr=0.001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=20
- accuracy : 77.0317%, f1 : 0.6902%
- 자체 데이터 추가
- data_1
- 사람을 기준으로 train과 test 데이터로 분리 (train : test = 4 : 1)
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- nn.CrossEntropyLoss()
- optim.SGD(model_ft.parameters(), lr=0.001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=30
- accuracy : 75.3810%, f1 : 0.7004%
- 자체 데이터 추가
- data_1
- 사람을 기준으로 train과 test 데이터로 분리 (train : test = 4 : 1)
- efficientnet-b0
- transforms.CenterCrop(384)
- batch_size=4
- nn.CrossEntropyLoss()
- optim.SGD(model_ft.parameters(), lr=0.001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=30
다) 오늘 나는 어떤 방식으로 모델을 개선했나요?
- accuracy는 개선했으나, f1은 개선하지 못했습니다…
라) 오늘 내가 한 행동의 결과로 어떤 지점을 달성하고, 어떠한 깨달음을 얻었나요?
- 무엇보다 중요한 것은 데이터 그 자체라는 깨달음을 얻었습니다.
마) 오늘 나의 학습과 시도가 크게 성공적이지 않아서 아쉬운 것은 무엇인가요? 내일은 어떻게 다르게 시도해보실 수 있을까요?
- 완전히 색다른 전략이 떠올랐기 때문에, 이를 구현해볼 생각입니다.
마무리
오늘보다 더 성장한 내일의 저를 기대하며, 내일 뵙도록 하겠습니다.
읽어주셔서 감사합니다!