가) 오늘 내 학습목표는 무엇이었나요?
- pseudo labeling
- ensemble
- 제출 기회 10번 모두 사용하기
나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요?
- accuracy : 81.1270%, f1 : 0.7540%
- data_1
- 사람 기준 없이 train과 test 데이터로 분리 (train : test = 9 : 1)
- 58세 이상
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- nn.CrossEntropyLoss()
- optim.SGD(model_ft.parameters(), lr=0.0001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=20
- pseudo labeling
- accuracy : 81.1429%, f1 : 0.7543%
- data_1
- 사람 기준 없이 train과 test 데이터로 분리 (train : test = 9 : 1)
- 58세 이상
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- nn.CrossEntropyLoss()
- optim.SGD(model_ft.parameters(), lr=0.0001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=20
- pseudo labeling
- accuracy : 81.3016%, f1 : 0.7575%
- ensemble 3
- 81.1746%, 0.7544
- 80.3016%, 0.7410
- 78.4444%, 0.7494
- accuracy : 78.2698%, f1 : 0.7295%
- data_1
- 사람 기준 없이 train과 test 데이터로 분리 (train : test = 9 : 1)
- 58세 이상
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- nn.CrossEntropyLoss()
- optim.SGD(model_ft.parameters(), lr=0.0001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=10
- pseudo labeling
- error...
- accuracy : 81.3492%, f1 : 0.7589%
- data_1
- 사람 기준 없이 train과 test 데이터로 분리 (train : test = 9 : 1)
- 58세 이상
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- LabelSmoothingLoss()
- optim.SGD(model_ft.parameters(), lr=0.0001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=15
- pseudo labeling
- accuracy : 81.3175%, f1 : 0.7594%
- data_1
- 사람 기준 없이 train과 test 데이터로 분리 (train : test = 9 : 1)
- 58세 이상
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- LabelSmoothingLoss()
- optim.SGD(model_ft.parameters(), lr=0.0001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=15
- pseudo labeling
- accuracy : 81.3651%, f1 : 0.7609%
- data_1
- 사람 기준 없이 train과 test 데이터로 분리 (train : test = 9 : 1)
- 58세 이상
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- LabelSmoothingLoss()
- optim.SGD(model_ft.parameters(), lr=0.0001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=15
- pseudo labeling
- accuracy : 81.3651%, f1 : 0.7612%
- data_1
- 사람 기준 없이 train과 test 데이터로 분리 (train : test = 9 : 1)
- 58세 이상
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- LabelSmoothingLoss()
- optim.SGD(model_ft.parameters(), lr=0.0001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=15
- pseudo labeling
- accuracy : 81.4762%, f1 : 0.7650%
- data_1
- 사람 기준 없이 train과 test 데이터로 분리 (train : test = 9 : 1)
- 58세 이상
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- LabelSmoothingLoss()
- optim.SGD(model_ft.parameters(), lr=0.0001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=15
- pseudo labeling
- accuracy : 81.5238%, f1 : 0.7662%
- data_1
- 사람 기준 없이 train과 test 데이터로 분리 (train : test = 9 : 1)
- 58세 이상
- resnet34
- transforms.CenterCrop(384)
- batch_size=4
- LabelSmoothingLoss()
- optim.SGD(model_ft.parameters(), lr=0.0001, momentum=0.9)
- lr_scheduler.StepLR(optimizer_ft, step_size=10, gamma=0.9)
- num_epochs=15
- pseudo labeling
다) 오늘 나는 어떤 방식으로 모델을 개선했나요?
- pseudo labeling을 사용하여 모델을 개선했습니다.
라) 오늘 내가 한 행동의 결과로 어떤 지점을 달성하고, 어떠한 깨달음을 얻었나요?
- Semi-Supervised Learning인 pseudo labeling의 절대적인 힘을 깨달을 수 있었습니다.
마) 오늘 나의 학습과 시도가 크게 성공적이지 않아서 아쉬운 것은 무엇인가요? 내일은 어떻게 다르게 시도해보실 수 있을까요?
- 내일도 마찬가지로 pseudo labeling과 ensemble을 시도해볼 계획입니다.
마무리
오늘보다 더 성장한 내일의 저를 기대하며, 내일 뵙도록 하겠습니다.
읽어주셔서 감사합니다!