본문 바로가기

Compression3

Sparse Structure Exploration and Re-optimization for Vision Transformer https://github.com/Ahnho/SERo/ GitHub - Ahnho/SERoContribute to Ahnho/SERo development by creating an account on GitHub.github.comhttps://openreview.net/pdf?id=n1UUgGyh2Z UAI 2025에 Accept된 논문으로, 국민대학교와 현대자동차 로보틱스 연구실에서 작성한 논문입니다. Abstract논문에서는 ViTs에서 pruning 효과를 극대화할 수 있는 프레임워크 SERo를 제안합니다.SERo에서 크게 집중하는 것은 다음과 같습니다.실제 압축이 가능한 하드웨어에 친화적인 pruning을 하자.Exploration과 Re-optimization phase로 나누어서 학습하.. 2026. 2. 19.
Variation-aware Vision Transformer Quantization ViT Quantization을 빠르게 보려고 하는데, 공개되어있는 github가 있길래 읽어봤다. https://github.com/HuangOwen/VVTQ GitHub - HuangOwen/VVTQ: Official PyTorch implementation of paper "Variation-aware Vision Transformer Quantization"Official PyTorch implementation of paper "Variation-aware Vision Transformer Quantization" - HuangOwen/VVTQgithub.com Accpeted는 안된 것 같다.     논문의 저자들이 하고자하는 이야기는 다음과 같다. "ViT Quantization은 불안정하며.. 2024. 9. 13.
Learned step size quantization 블로그에 자세히 정리한다고 생각하고 글을 쓰다 보니, 논문 리뷰가 아니라 번역에 가깝게 옮겨놓게 되면서[작성중] 카테고리에 비공개로 쓰다가 만 논문들이 너무 많아졌다.그냥 한번 읽고, 기억나는 내용을 중점으로 정리하는 방법으로 바꿔야겠다.   https://arxiv.org/abs/1902.08153 Learned Step Size QuantizationDeep networks run with low precision operations at inference time offer power and space advantages over high precision alternatives, but need to overcome the challenge of maintaining high accuracy as.. 2024. 9. 10.