본문 바로가기

전체 글

(100)
Cayley-Hamilton과 나눗셈을 이용해서 무한을 유한하게 만들기 ! DISCLAIMER: 이 설명은 잘못됐을수도있음 $$\Delta(\lambda)=(\lambda-\lambda_1)...(\lambda-\lambda_n) $$ $$\Delta(\lambda_1)=(\lambda_1-\lambda_1)...(\lambda-\lambda_n)=0$$ 위 식을 이용할 것이다. $$f(\lambda)=q(\lambda)\Delta(\lambda)+h(\lambda)$$ $$h(\lambda)=\beta_0+\beta_1\lambda+...+\beta_{n-1}\lambda^{n-1}$$ \(f(\lambda)\) 를 나눗셈 하는 식으로 나눈다. 만약 위 식에 eigenvalue를 대입하면 \(\Delta(\lambda)=0\) 이므로 $$f(\lambda_1)=h(\lam..
e의 At승의 라플라스 변환 $$e^{At}=I+tA+\frac{t^2}{2!}A^2+\frac{t^3}{3!}A^3+...$$이때,$$L\left[\frac{t^k}{k!}\right]=\int_0^\infty \frac{t^k}{k!}e^{-st}dt$$$$=0+\int_0^\infty \frac{1}{s^k}e^{-st}dt \quad (\text{Applied partial integration})$$$$=s^{-(k+1)}$$이므로$$L\left[e^{At}\right]=L[I]+L[tA]+L\left[\frac{t^2}{2!}A^2\right]+...$$$$=s^{-1}I+s^{-2}A+s^{-3}A^2+...$$$$=s^{-1}(I+s^{-1}A^1+s^{-2}A^2+...)$$$$=s^{-1}\frac{1}{I-s^{..
Generalized Eigenvectors Generalized Eigenvector Definition A vector \(v_m\)is a generalized eigenvector of rank m of a matrix \(A\) and corresponding to the eigenvalue \(\lambda\) if $$(A-\lambda I)^mv_m=0$$ But $$(A-\lambda I)^{m-1}v_m\neq 0$$ 예시 Chain of generalized eigenvectors of length m=3 m = 3이고 $$(A-\lambda_1 I)^3v=0$$ 일 때 $$\begin{align}v_3&:=v\\v_2&:=(A-\lambda_1I)v_3\\v_1&:=(A-\lambda_1I)v_2=(A-\lambda_1I)^2..
Jordan form 모든 square matrix는 similarity transform에 의해 jordan form으로 변환 가능하다. $$\textbf{x}=Q\bar{\textbf{x}}$$ 이때 Q는 eigenvector를 모은 행렬이다. $$Q=[q_1\quad q_2\quad q_3\quad ...\quad q_n]$$ 그렇다면 \(\bar{\textbf{x}}\)는 \(\textbf{x}\)를 Q를 basis로 해서 표현한 것이다. $$Ax = y$$ $$AQ\bar{x}=Q\bar{y}$$ $$Q^{-1}AQ=\hat{A}$$ \(\hat{A}\)는 \(A\)를 Q를 basis로 해서 표현한 것이다. 참고로, $$AQ=Q\hat{A}$$ $$A[q_1 \quad q_2 \quad ... q_n]=[q_1\qu..
p-norm Let \(p \geq 1\) be a real number, The p-norm (also called \(l_p\)-norm) of vector \(x=(x_1,...,x_n)\) is $$||x||_p:=(\sum_{i=1}^{n}|x_i|^p)^{1/p}$$ For p = 1 -> taxicab norm For p = 2 -> Euclidean norm For p = \(\infty\) -> \(max_i|x_i|\)
Rank of an idempotent matrix is equal to the trace thereof Proof: Full rank factorization을 한다. $$A^2=A,A=B_{p\times r}C_{r\times q}$$ $$BCBC=BC$$ left inverse $$CBC=C$$ right inverse $$CB=I_{r\times r}$$ $$tr(A)=tr(BC)=tr(CB)=tr(I_{r\times r})=r=rank(A)_\blacksquare$$ Idea: Rank랑 trace의 관계? -> \(I_{r \times r}\)이 나와줘야 함. 여기서 trace를 취하면 끝. -> r by r인 identity를 어떻게 만들지? -> Full rank decomposition. -> 그 후 idempotent matrix 성질 이용.
Re, Im을 sin, cos로 합치는 테크닉 Sine으로 합치기$$\sin(\omega_0k)Re[\hat{g}(e^{j\omega_0})]+\cos(\omega_0k)Im[\hat{g}(e^{j\omega_0})]$$\(Re\) 부분은 복소수(여기서는 \(\hat{g}(e^{j\omega_0})\)를 \(Re\)부분으로 정사영, 즉 \(\cos\)을 한 부분이고 \(Im\)부분은 \(Im\)부분으로 정사영, 즉 \(\sin\)을 한 부분이다. sincos+cossin 합차(?)공식 생각하기.$$|\hat{g}(e^{j\omega_0})|\sin(\omega_0k+\angle\hat{g}(e^{j\omega_0}))$$혹은 거꾸로 생각해봐도 된다.$$A\sin(\omega t+\alpha)$$$$=A\sin(\omega t)\cos(\alpha)+..
Maximum A Posteriori (MAP) $$\hat{m}=\arg\max_i{P_{m|\overrightarrow{R}}}(i|\overrightarrow{r})=\arg\max_i P_{\overrightarrow{R}|m}(\overrightarrow{r}|i)P_m(i)=\arg\max_i P_{\overrightarrow{R}|m}(\overrightarrow{r}|i)$$ 마지막은 상수라고 가정하면 제거가능 ex) \(\frac{1}{M}\)