본문 바로가기

전자

(21)
Jordan form 모든 square matrix는 similarity transform에 의해 jordan form으로 변환 가능하다. $$\textbf{x}=Q\bar{\textbf{x}}$$ 이때 Q는 eigenvector를 모은 행렬이다. $$Q=[q_1\quad q_2\quad q_3\quad ...\quad q_n]$$ 그렇다면 \(\bar{\textbf{x}}\)는 \(\textbf{x}\)를 Q를 basis로 해서 표현한 것이다. $$Ax = y$$ $$AQ\bar{x}=Q\bar{y}$$ $$Q^{-1}AQ=\hat{A}$$ \(\hat{A}\)는 \(A\)를 Q를 basis로 해서 표현한 것이다. 참고로, $$AQ=Q\hat{A}$$ $$A[q_1 \quad q_2 \quad ... q_n]=[q_1\qu..
p-norm Let \(p \geq 1\) be a real number, The p-norm (also called \(l_p\)-norm) of vector \(x=(x_1,...,x_n)\) is $$||x||_p:=(\sum_{i=1}^{n}|x_i|^p)^{1/p}$$ For p = 1 -> taxicab norm For p = 2 -> Euclidean norm For p = \(\infty\) -> \(max_i|x_i|\)
Rank of an idempotent matrix is equal to the trace thereof Proof: Full rank factorization을 한다. $$A^2=A,A=B_{p\times r}C_{r\times q}$$ $$BCBC=BC$$ left inverse $$CBC=C$$ right inverse $$CB=I_{r\times r}$$ $$tr(A)=tr(BC)=tr(CB)=tr(I_{r\times r})=r=rank(A)_\blacksquare$$ Idea: Rank랑 trace의 관계? -> \(I_{r \times r}\)이 나와줘야 함. 여기서 trace를 취하면 끝. -> r by r인 identity를 어떻게 만들지? -> Full rank decomposition. -> 그 후 idempotent matrix 성질 이용.
Re, Im을 sin, cos로 합치는 테크닉 Sine으로 합치기$$\sin(\omega_0k)Re[\hat{g}(e^{j\omega_0})]+\cos(\omega_0k)Im[\hat{g}(e^{j\omega_0})]$$\(Re\) 부분은 복소수(여기서는 \(\hat{g}(e^{j\omega_0})\)를 \(Re\)부분으로 정사영, 즉 \(\cos\)을 한 부분이고 \(Im\)부분은 \(Im\)부분으로 정사영, 즉 \(\sin\)을 한 부분이다. sincos+cossin 합차(?)공식 생각하기.$$|\hat{g}(e^{j\omega_0})|\sin(\omega_0k+\angle\hat{g}(e^{j\omega_0}))$$혹은 거꾸로 생각해봐도 된다.$$A\sin(\omega t+\alpha)$$$$=A\sin(\omega t)\cos(\alpha)+..
Eigenvalue, trace, determinant and rank of a matrix 간의 관계들 Trace \(tr(A) = \sum_{i=0}^{n}\lambda_i\) Determinant \(det(A) = \prod_{i=0}^n\lambda_i\) Proof(맞는진 모름): \[det(A-\lambda I) = (-1)^n(\lambda-\lambda_1)...(\lambda-\lambda_n) = (\lambda_1 - \lambda)...(\lambda_n-\lambda)\] \[det(A-\lambda I)|_{\lambda=0}=det(A)=\lambda_1...\lambda_n\] Rank \(rank(A) = number\ of\ nonzero\ eigenvalues.\) \(\lambda\)가 eigenvalue of \(A\) 이면 \(f(\lambda)\)도 \(f(A)\)..
9.4 Gradient Gradient 그래디언트는 \(f\)가 스칼라 함수일 때 \(f\)가 최대로 증가하는 기울기를 찾는 벡터장이다. 기호로는 \(\nabla f\)로 쓴다. \(f\)를 입력으로, \(\nabla\)를 일종의 함수로 생각하면 \(\nabla f\)는 \(\nabla\)의 출력이 될 것이다. 입력은 스칼라이지만, 출력은 벡터로 나오게 되고 그 출력은 \(f\)가 최대로 증가하는 방향을 가르키는 벡터장이 된다. 1차원에서 생각해본다면 우리가 보통 알고있는 기울기와 가깝다. 2차원인 경우는 등고선을 생각해보자. 등고선이 좁을수록 가파르고 넓을수록 완만하다. \(\nabla f\)의 출력은 등고선과 수직하게 올라가는 방향의 벡터들의 집합이 된다. 입력을 어느 한 점으로 한다면 그 지점에서 등고선과 수직하고 올라가..
1. Discrete time signal, unit sample function, linear shift-invariant Discrete time signal인 \(x[n]\)은 n이 정수가 아닌 지점에선 정의가 되지 않는 함수를 말한다. \[\delta[n]=\left\{\begin{array}{ll}1, n=0 \\ 0, n \neq 0\end{array}\right.\] 1. Linearity \(x_1[n] \rightarrow y_1[n], x_2[n] \rightarrow y_2[n]\) 일 때 \(ax_1[n]+bx_2[n]\rightarrow ay_1[n]+by_2[n]\) 이면 linear이다. linearity는 homogeneity와 additivity 둘을 합친 것이다. Homogeneity는 다른 말로 scaling이라 한다. Input이 scaling된 만큼 output도 scaling되는 특징이다..
4. Vector Spaces Vector들의 linear combination(multiplication, adding)로 무한한 벡터들을 모은 집합이 vector space이다. Vector가 \(R^{n}\) 에 있었다면 space도 \(R^{n}\) 안에 있어야 한다. Vector space의 예로 M: matrix vectorspace, F: consists of all real functions 등이 있다. Vector space 안의 특정 벡터들로 만들어지는 또다른 (column) vector space이다. 예1) \(R^{2}\) 에서 원점을 지나는 직선은 subspace이다. 예2) \(R^{3}\) 에서 \(R^{3}\), line, zero vector는 \(R^{3}\) 의 subspace이다. Column s..