전체 글
[CV] Optical Flow: Lucas Kanade Method (LK method, 1981)
다음의 자료는 Shree Nayar 교수님의 Youtube 강의자료를 정리함Lucas-Kanade Method | Optical FlowAssumptionFor each pixel, assume Motion Field, and hence Optical Flow $(u,v)$, is constant within a small neighborhood (=window, kernel) $\mathbf{W}$.That is for all points $(k,l) \in \mathbf{W}$:$$\nabla_xI(k,l)u + \nabla_y I(k,l)v + \nabla_t I(k,l) = 0$$Brightness Constancy Constraint (=Optical Flow Constraint)가 하나의 pi..
[CV] Optical Flow: Horn-Schunck Method
Horn-Schunck(혼 슁크) 방법은Optical Flow를 구하는 기법으로Global Method임.Optical flow는 연속된 영상프레임 사이에서 물체의 이동(motion vector or velocity)을 추출하는 기법임.1. Horn-Schunck 방법의 기본 개념Horn-Schunck 방법은 영상 전체에서 optical flow field 를 추정.이 방법은 global smoothness constraint를 적용하여, 모든 픽셀의 움직임 벡터가 서로 매끄럽게 연결된다고 가정.즉, 영상 전체를 고려하여 optical flow를 계산하므로, local한 정보에만 의존하지 않고, 전체적인 일관성을 유지.1-1. Optical Flow 기본 방정식Horn-Schunck 방법은 다음의 bri..
[CV] Least-Median of Squares Estimation
Least-Median of Squares (LMedS) 추정법P. J. Rousseeuw가 제안한 강건 회귀 분석 (robust regression) 기법.LMedS는 이상치(outliers)에 대해 매우 강인한 특성을 가짐: 데이터 내 Outlier(이상치)의 비율이 매우 높을 때도 안정적인 regression 결과를 제공.LMedS의 정의LMedS는 다음과 같은 최적화 문제로 정의됩니다:$$\hat{\theta} = \underset{\theta}{\text{argmin}} [\text{median}_i^m ||\textbf{r}_i||^2]$$where:$\hat{\theta}$: 최적의 regression model parameter 추정치$\textbf{r}_i = y_i - f(x_i; \..
[CE] Linear Search, Naive Search, Brute Force Search
Linear Search (Naive Search)The simplest solution to the Nearest Neighbor Search problem is to compute the distance from the query point to every other point in the database, keeping track of the "best so far".이 방식에서는 모든 가능한 데이터를 하나하나 비교하여, 원하는 결과를 찾는 방식입따라서, 탐색 데이터 구조를 활용하지 않고,단순히 데이터베이스의 모든 항목을 순차적으로 검사Naive Search 또는 Brute Force Search라고도 불리며,$O(dN)$의 시간 복잡도를 가짐$N$ : the Cardinarlity of set (..
[ML] Feature Importances for Decision Tree
이 문서는 Feature Importance를 Decision Tree에서 Gini Impurity Measure를 이용하여 계산하는 예제를 보여줌.Tree 예시 (depth = 3) [Root] (X1) [5:5] / \ Node1 Node2 (X2) (X3) [4:1] [1:4] / \ / \Leaf1 Leaf2 Leaf3 Leaf4[3:0] [1:1] [0:2] [1:2]Root 노드는 X1을 사용해 데이터를 분할.Node1은 X2를 사용해 데이터를 다시 분할.Node2는 X3을 사용해 데이터를 다시 분할.단계 1: Gini impurity measure ..
[CE] Queue
QueueQueue는 자료구조 중 하나로 선입선출(FIFO, First-In-First-Out) 방식으로 동작함.즉, 먼저 들어온 데이터가 먼저 나가는 구조를 가짐.일상적인 예로 줄서기를 생각하면 이해하기 쉬운데, 줄의 맨 앞에 있는 사람이 먼저 나가고 새로운 사람은 줄의 맨 뒤에 서게 됨. 주요 용어 및 동작Element (요소):Queue에 저장되는 데이터의 단위. Item이라고도 부름.Enqueue (삽입):Queue의 뒤쪽에 새로운 요소를 추가하는 동작.Dequeue (삭제):Queue의 앞쪽에서 요소를 제거하는 동작.Front (첫 요소):Queue에서 가장 먼저 들어온 요소.Rear (마지막 요소):Queue에서 가장 최근에 추가된 요소. 활용 예시프로세스 스케줄링: 운영 체제에서 CPU에 작..
[LA] Eigenvalue and Eigenvector
특정 행렬 $A$는 linear transform을 의미함: $A\mathbf{x}$는 vector $\mathbf{x}$를 linear transform하는 것에 해당.$A$의 eigenvector와 eigenvalue는 $A$를 standard matrix로 하는 linear transform의 고유한 특성을 나타내는 요소임.Definition:Eigenvector:$n \times n$ 행렬 $A$를 linear transform으로 보았을 때,해당 linear transform을 통해 방향이 변화되지 않고 유지되면서크기(norm)만 Scalar Multiplication이 가해지는nonzero vector $\textbf{x}$.Eigenvalue:행렬 $A$가 linear transform으로 ..
[DIP] Karhunen–Loève Transform (KLT)
Karhunen–Loève 변환(Karhunen–Loève Transform, KLT)은 데이터를 주요 성분으로 표현하여 효율적으로 압축하는 차원 축소 기법임.KLT는 데이터의 고유벡터(eigenvector)들의 선형 결합(linear combination)으로 데이터를 표현하는 방식으로 최적의 압축 성능을 제공함.Hotelling 변환(Hotelling Transform)이라고도 불리며, KLT의 기저(basis)는 변환 대상인 데이터에 따라 달라지는 특성을 가짐.KLT는데이터의 공분산 행렬(covariance matrix)에 대한 고유값 분해(eigenvalue decomposition, EVD)를 통해 수행되며,주요 정보는 고유값(eigenvalue)이 큰 방향의 성분에 압축됨.이 때문에 KLT는데..
[Math] Basis
기저(Basis)는 vector space 또는 function space 에서 모든 요소를 나타내기 위해 필요한 최소한의 독립적인 요소 집합(vector set or function set).Basis (기저)는 벡터 공간 또는 함수 공간의 구조와 차원을 이해하는 데 필수적기저들의 선형 결합을 통해 공간의 모든 요소를 표현할 수 있음.Basis 의 조건Basis 가 되기 위해서는 다음 두 가지 조건을 만족해야 함.선형 독립성(Linear Independence):기저 벡터 집합의 각 벡터는 다른 벡터들의 선형 결합으로 나타낼 수 없어야 함.즉, 모든 기저 벡터가 서로 독립적.벡터 공간을 생성(Span):basis들의 선형 결합으로 벡터 공간의 모든 벡터를 표현할 수 있어야 함.이를 벡터 공간을 생성(s..
[Math] Inner Product (or Hermitian Inner Product, 내적)
Inner product (내적)은 vectoer space이나 function space에서 두 대상 간의 relationship(관계)를 나타내는 operation(연산). 다음의 세 가지 성질을 만족할 때 Inner Product라 부르며, 이를 통해두 벡터나 함수 간의simmilarity(유사성 ~ 사이각),orthogonality(직교성) 등을 평가할 수 있음.Inner Prodcut 의 성질 (or Definition)1. 선형성(Linearity):Inner product는 첫 번째 항에 대해 스칼라 곱에 대해 선형성을 가져야 합니다.$$\langle af + bg, h \rangle = a \langle f, h \rangle + b \langle g, h \rangle$$여기서$a$와 $..