![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/3yX3n/btsFVtOAefd/e3kLEshhBEDj3mUolpdLqK/img.png)
1. Introduction R-CNN이 발전해준 덕분에 image detection은 엄청난 발전을 이뤘다. 하지만 region proposal을 진행하는 데에 2초나 걸리면서 시간 및 연산량 문제가 계속 문제였다. 이를 보완하고자 한 것이 Faster R-CNN이다. 연산량을 줄이기 위해서는 1)region proposal 진행 후 그대로 CPU에 올린 것을 GPU에 올리는 것으로 바꿨다. 2) region-based dectector에서 사용한 convolutional feature map는 region proposal을 생성하는 데에도 쓰일 수 있다. 즉, detection module과 convolution layer를 공유해서 region proposal가 효율적으로 이루어지게 했다. 합성곱 ..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bPSOAO/btsFTddVsc2/XKmJElh4GUBGgfpNekcro1/img.jpg)
R-CNN을 발전시켜서 만든 Fast R-CNN은 VGG16을 깊기 만들어서 R-CNN보다 정확성, 연산량, 속도에서 빠르게 만들었다. 파이썬과 C++을 이용했다. 이전의 R-CNN에서 제시된 것처럼 image classification보다 image detection이 더 복잡한 작업이다. Localization까지 포함되어 있기 때문이다. 이에 대한 설명은 다음 글을 참고하자. 1. Introduction 정확한 detection을 위해서 다음 두 가지 방법이 고려되어야 했다. 1) 후보군 object detection이 적당해야 한다. R-CNN은 2000개의 region proposal로 계산을 진행했기에 시간, 연산량이 굉장히 느렸다. 2) 계산 및 속도가 빠른 localization이 이루어져..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bASE8m/btsFS2KduYa/GQEjGcxEq4ck2GJ3Fio73k/img.jpg)
Crossformer : TRANSFORMER UTILIZING CROSS- DIMENSION DEPENDENCY FOR MULTIVARIATE TIME SERIES FORECASTING 논문을 리뷰할 것이다! 제목에서 transformer 내용인 것까진 알겠는데, cross dimension dependcy가 뭔지 의아해 했다. 논문을 읽으면서 알아보자. 0. abstract cross dimension dependcy란 변수랑 변수 사이에 상관관계가 존재한다는 의미이다. 이는 다변수인 시게열 데이터셋에서 결과에 대한 예측이 어렵게 된다. 이를 보완한 것이 이 논문에서 제시한 crossformer이다. 간략한 구조 1. Multivariate Time Series(MTS)가 input으로 들어가면 Di..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bZaRUS/btsFKPZmzYz/pMzOasjNxsEwjWDTfFRY11/img.webp)
class-specific computation 은 점 내적으로 feature와 SVM 가중치 그리고 non-maximum suppression의 곱으로 이루어져 있다. Image에 대한 모든 점 내적은 single 행렬 곱들로 이루어짐 즉, R-CNN은 해싱과 같은 근사 기법을 사용하지 않고도 수천 개의 객체 클래스를 분류해낼 수 있습니다. 심지어 짧은 시간 내에! 다른 모델보다 정확성, 시간 측면에서 높은 효율성을 보임. 2.3. Training Supervised pre-training - bounding box 없이 image-level annotations만 있는 dataset으로 CNN을 학습시킴. 이렇게 간소화된 training 과정으로 error rate가 CNN은 전에 진행했던 Krizh..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/81uUl/btsFJpliVVL/376ZJgBTxMCgpw5WKqIBKk/img.png)
Abstract 모델 : channel-independent patch time series Transformer (PatchTST) 변수가 여러 개인 시계열 예측(time series forecasting)과 자기 지도 학습 표현 학습(Self-Supervised Representation Learning)에 대해서 Transformer 기반으로 발전시킨 모델에 대한 설명한 논문이다. 2가지의 주요 구성 요소가 있다. 1. 시계열 데이터를 작은 부분 단위로 쪼개어서, 각 부분을 토큰화하여 Transformer 모델의 입력으로 사용한다. 2. "채널 독립성(channel-independence)"은 다수의 시계열 데이터가 각각의 채널에 할당되는데, 각 채널은 하나의 단변량 시계열을 포함하며, 이러한 시계..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/tpOq5/btsC88TzjGL/9ZrrCvUOI1E6iosi1U9hhk/img.jpg)
#서평단 자바의 기본적인 문법과 이를 이용한 자료 구조 정도만 간단히 배웠지, 정작 실무적으로 어떻게 활용되는지를 구체적으로 알지는 못했어요 ! SNS를 통해 이지스리퍼블리싱에 대해 알게 되며, 마침 자바를 활용한 프레임워크인 '스프링부트‘ 책 ≪점프 투 스프링부트≫가 새로 출간되었다는 소식에 너무 읽고 싶었습니다 😽 우선 목차가 깔끔하고, 이론 + 코드 제시를 통한 실무적인 부분을 많이 알려주어 도움이 컸습니다! 코드가 많고 자세히 적혀 있더라고요!! 저도 이제 웹 게시판은 거뜬히? 만들 수 있을 것 같습니다 ㅎㅎ 다 읽어보지는 못했지만, 앞부분에 독학 한 달 커리큘럼까지 같이 제시되어 있습니다! 남은 챕터는 이 커리큘럼을 따라가며 이번 방학 알차게 보내겠습니다! 😏 좋은 책 출간해주신 이지스리퍼블리싱..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bjqcoN/btsBkjWDclk/Lx4hG50JfmkRBPF9rI0LGK/img.png)
https://www.youtube.com/watch?v=JG76JS4EAxc 이 영상을 참고하면 좋을 것 같다. 우선 improper integral, 이상적분에 대해 알아보자. 함숫값이 정의되지 않은 점을 포함하거나 끝값이 불연속한 경우를 이상적분이라고 한다. improper integral를 이렇게 나타낼 수 있고, 이렇게 바꾼 것을 Cauchy principal value라고 부른다. 이것을 배우는 이유는 Line integral에서 끝값이 불연속하고, 정의되지 않은 점들에 대해서도 계산을 하기 위해서이다. 여기에서 R은 limit을 취해서 무한대로 가게하는데, 그러면 다음과 같이 전개된다. 다른 형태의 Improper Integral 이런 흔한 integral에서 A와 B 사이의 점 a에서 값이..