Open-Clip 래포의 pre-trained weight 사용하기

FSA·2024년 3월 2일
0

video vision

목록 보기
4/10

step 1. ReadMe에 설명된 방법

1.1. pretrained models

>>> import open_clip
>>> open_clip.list_pretrained()
  • 방법 2: https://github.com/mlfoundations/open_clip/blob/main/docs/PRETRAINED.md
    • 구체적으로, 어떻게 pretrained-model을 사용할 수 있는지 나와있음.
  • 참고:
    • 많은 기존 체크포인트들이 QuickGELU 활성화 함수를 사용
    • 이 활성화 함수는 실제로 최근 버전의 PyTorch에서 기본 torch.nn.GELU보다 효율이 떨어짐
    • 모델 기본값은 이제 nn.GELU이므로, OpenCLIP pretrained models weight를 사용하기 위해서는, -quickgelu 접미사가 있는 모델 정의를 사용해야 함
    • 미래에 훈련된 모델들은 nn.GELU를 사용할 것입니다.

1.2. model loading

  • 모델은 아래 예시에서 보여진 것처럼 open_clip.create_model_and_transforms로 로드
  • 모델 이름과 해당 사전 훈련된 키는 open_clip.list_pretrained()의 출력과 호환
# pretrained also accepts local paths
model, _, preprocess = open_clip.create_model_and_transforms('ViT-B-32', pretrained='laion2b_s34b_b79k') 
  • 사전 훈련된 인수는 로컬 경로도 받아들입니다.

step 2. 방법 2의 ReadMe

profile
모든 의사 결정 과정을 지나칠 정도로 모두 기록하고, 나중에 스스로 피드백 하는 것

0개의 댓글