일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- self-attention
- vision transformer
- BERT
- 라쏘회귀
- VIT
- LassoRegression
- image classification
- 릿지회귀
- attention
- decoder
- Inductive bias
- RidgeRegression
- R
- Residual learning
- Cross-Validation
- CV
- 선형회귀
- glmnet
- rnn
- TRANSFORMER
- Identity mapping
- CDA
- 통계학
- lasso
- 좌표하강알고리즘
- nlp
- Encoder
- transfer learning
- RESNET
Archives
- Today
- Total
목록vision transformer (1)
통계 이야기

1. Introduction self attention에 기반한 Transformer구조는 NLP분야에서 지배적인 위치를 차지하게 되었다. 반면 컴퓨터 비전 분야에서는 컨볼루션 구조가 아직까지 지배적이었다. CNN 구조와 self attention을 조합한 모델들의 시도와 한계가 있었으며, 대규모 이미지 인식에서는 전통적인 ResNet과 같은 아키텍처가 여전히 뛰어난 성능을 보이고 있다. NLP 분야에서 Transformer 구조를 이미지에 그대로 적용을 해보았다. 이미지를 여러 패치들로 분해하였고 이는 NLP에서의 토큰과도 같이 여겨졌다. 우리는 이미지 분류 모델을 지도 학습 방식으로 훈련시켰다. 데이터가 충분하지 않을 경우, 트랜스포머 구조는 CNN에 내재된 inductive bias에 대해서 부족한..
자연어처리/논문리뷰
2023. 8. 9. 17:30