evaluate_efficiency_salmonn.py 실행| TTFT | TPOT | |
|---|---|---|
| baseline | 0.1606 | 0.0264 |
| llama-1B | 0.2686 | 0.0250 |
최근 계속 느끼고 있는 이 불쾌한 감정과 의욕 없음의 원인을 조금은 알 것도 같다. 일단 내 나름대로는 열심히 하고는 있는데 원하는 만큼의 진도가 나가지 않아서 조급해지고 스스로를 일 못하고 성장하지 못하고 있다고 자책하고 있기 때문인 것 같다. 일단 조급함을 가라앉히고, 타인 의식하지 말고, 내가 할 수 있는 걸 차근차근 해나가자.
SALMONN과 구조가 많이 달라서 코드를 크게 손봐야 함[WARNING] NaN or Inf found in input tensor. 에러가 뜨고 해결하지 못해서 중단.GPU 0 : llama 3B stage 1 재학습GPU 1 : llama 3B-GPTQ stage 1 학습오늘도 지난 주에 이어서 오프라인 팀 미팅을 했다. 강남의 회의실이 있는 투썸 플레이스를 예약하여 사용했는데 방에서 도란도란 있을 수 있어서 좋았지만 방음이 안 되고 무엇보다 인터넷이 안 되어서 핫스팟으로 하느라 고생했다ㅠ 이번에는 오후만 모여서 했는데도 힘들었다...🫠 그래도 같이 모여있으니 바로 바로 논의하고 진행되는 것이 좋기는 하다. 다 좋은데 짧은 기간 안에 잘 모르는 분야에 좋은 성과를 내야 한다는 압박이 있으니 정신이 힘들다ㅠ 게다가 자존감 깎여서 나만 잘 못하고 있다는 생각이 자꾸 들어 괴롭다ㅠ 얼른 좋은 성과 내고 해커톤 마무리되면 좋겠다...
salmonn_eval_config.yaml에서 do_sample=True 때문에 성능이 낮게 나올 가능성?| ASR | AAC | 비고 | |
|---|---|---|---|
| llama-1B (do_sample=True) | 0.1110 | TimeoutError | 30 epoch |
| llama-1B (do_sample=False) | 0.1128 | 0.1891 | 30 epoch & AAC에서 쓸데없는 구절 반복은 여전함 |
| llama-3B (do_sample=True) | 0.0886 | 미제출(쓸데없는 반복 있음) | 5 epoch & new data |
| llama-3B (do_sample=False) | 0.0642 | 0.3678 | 30 epoch |
ASR의 경우 do_sample=False로 하면 오히려 성능이 나빠짐. AAC의 경우는 채점 정도는 되게 만드는 듯. 결론은 do_sample은 별로 성능에 영향을 크게 미치는 것 같지 않음
salmonn_eval_config.yaml에서 repetition_penalty=3.0까지 늘렸을 때 1B에서의 무의미한 구절 반복도 사라졌다고 함. 추후 2까지 조절해도 괜찮은지 실험할 예정.오늘은 집에서 차분하게 듀얼 모니터로 인터넷이 안정적으로 연결되어서 작업할 수 있어서 좋았다. 계속 여러 문제들에 부딪히고 있지만 모두 열심히 달려들어서 어떻게든 한 단계 더 나은 대안을 찾아내고 있어서 다행이다. 끝까지 집중해서 다같이 좋은 성과를 거두면 좋겠다.
/audiocaps/test와 같이 dummy 디렉토리를 만들고 원본 데이터는 /audiocap_1m로 이름 수정salmonn.py에서 low_resource=True로 변경하여 사용하기현재 hugging face에서 실험해볼만한 LLM 경량화 모델 탐색 → SALMONN 베이스라인에서 그 경량화 모델들 갈아끼면서 학습 및 추론 의 루틴을 타고 있는데 그렇다보니 실험 계획이 다 정해져 있고 코드는 돌리기만 하면 되어서 내가 딱히 해 볼 게 없는 것이 좀 걸린다. 물론 더 나은 방법을 위한 모델 탐색이나 자료 조사를 계속 해야겠지만...실질적으로 뭔가 하는 게 없는 느낌이랄까. 그래도 나는 아직 기초/탐색 능력이 많이 부족하니 그것부터 차근차근 해보자.
OVModelForCausalLM.from_pretrained 이용해서 로드 실험 → but 결국 LoRA가 안되어서 실패..low_resource=True는 별로 소용 없었던 걸로...| model | AAC | ASR | Memory | TTFT | TPOT | epochs |
|---|---|---|---|---|---|---|
| GPTQ | Timeout | 0.0927 | 5.45 GB | 0.3706 s | 0.1660 s | 5 |
| 일반 3B | Timeout | 0.0886 | 9.17 GB | 0.3006 s | 0.0447 s | 5 |
메모리만 작아졌을 뿐 성능이 너무 좋지 않다...
멘토링을 하면서 역시 수면 위로 드러났다. 경량화 모델을 갈아끼우면서 실험하는 것은 크게 의미가 없다는 걸...지금까지는 거기에 힘을 쏟고 있었으니 허무하고 또 새로운 방법 생각해보려고 하니 머리가 아프다. 하지만 잘 모르는 분야를 건드리다 보니 어쩔 수 없는 것 같기도 하다. 마음 꺾이지 말고 휴일 동안에도 부지런히 공부하고 좋은 접근법으로 성과를 낼 수 있도록 해야겠다.