[VPT] Visual Prompt Tuning저자: M. Jia et al . Meta발행년도: ECCV 2022년인용수: None회https://arxiv.org/pdf/2203.121191. TL;DR이 논문이 새롭게 문제 삼은 지점은 “대규모 비전-언어 사전학습 모델을 다운스트림에 쓰려면, 왜 항상 전체(혹은 큰 부분)를 파인튜닝해야 하느냐”는 전제였다.저자들은 성능 이전에 ‘업데이트해야 하는 파라미터의 양’ 자체가 배포·확장·재사용을 가로막는 병목이라고 다시 정의했다.그래서 “모델을 바꾸는 일”이 아니라 “입력을 바꾸는 일”로 적응을 옮겨가야 한다는 문제의식을 제시했다.2. 이 논문을 읽기 전의 문제 인식나는 CLIP 같은 비전-언어 사전학습 모델에 대해서, 다운스트림 성능은 결국 파인튜닝으로 ..