step 1. ReadMe에 설명된 방법
1.1. pretrained models
>>> import open_clip
>>> open_clip.list_pretrained()
1.2. model loading
- 모델은 아래 예시에서 보여진 것처럼 open_clip.create_model_and_transforms로 로드
- 모델 이름과 해당 사전 훈련된 키는 open_clip.list_pretrained()의 출력과 호환
model, _, preprocess = open_clip.create_model_and_transforms('ViT-B-32', pretrained='laion2b_s34b_b79k')
- 사전 훈련된 인수는 로컬 경로도 받아들입니다.
- 예를 들어, /path/to/my/b32.pt.
- huggingface로부터 체크포인트를 이런 방식으로도 로드할 수 있음
step 2. 방법 2의 ReadMe
- Full collection of available models on a suite of 38 datasets in a zero-shot setting (i.e., without fine-tuning).