전체 글 (83) 썸네일형 리스트형 통계기초 정리 ProbabilityX가 RV, A가 집합이라면\[P(X=x)=P(\{\omega:X(\omega)=x\})=P(A)\] \[A=\{\omega:X(\omega)=x\}\]\[\omega \in \Omega\]\[A \in \mathcal{F} \]보다시피 \(P\)안에는 집합이 들어간다. 추가로, \(A\)가 집합이고 \(X\)는 RV일때\[P(A|X)=P(A|\sigma(X))\]이다. \(X\)만 쓰는 것은 축약된 표현이다. Law of Total Probability\[P(A)=\sum_{n}P(A\cap B_n)\]\[=\sum_{n}P(A|B_n)P(B_n)\]Law of Total Expectation\[E(A)=\sum_n E(A|B_n)P(B_n)\]Conditional Entropy (.. Eigenvalue, trace, determinant and rank of a matrix 간의 관계들 Trace \(tr(A) = \sum_{i=0}^{n}\lambda_i\) Determinant \(det(A) = \prod_{i=0}^n\lambda_i\) Proof(맞는진 모름): \[det(A-\lambda I) = (-1)^n(\lambda-\lambda_1)...(\lambda-\lambda_n) = (\lambda_1 - \lambda)...(\lambda_n-\lambda)\] \[det(A-\lambda I)|_{\lambda=0}=det(A)=\lambda_1...\lambda_n\] Rank \(rank(A) = number\ of\ nonzero\ eigenvalues.\) \(\lambda\)가 eigenvalue of \(A\) 이면 \(f(\lambda)\)도 \(f(A)\).. [Linux] Fedora 패키지 업데이트 방법 flatpak update sudo dnf update sudo dnf update --refresh GNOME이나 KDE의 Discover에서 패키지를 업데이트 하는 것과 같게 CLI에서 업데이트하는 것은 위 세 명령어와 동일하다. 세 명령어를 모두 실행해야 한다. dnf upgrade는 dnf update의 alias이다. 또한 DE에서 업데이트 할 경우 페도라 버전 업데이트도 되는데 이를 CLI로 업데이트 하려면 아래와 같이 하면 된다. sudo dnf upgrade --refresh sudo dnf install dnf-plugin-system-upgrade sudo dnf system-upgrade download --releasever=$nextversion sudo dnf system-upg.. [Linux] Autostart 모두 정리 Autostart를 일으키는 요소들 Systemd 서비스 Systemd 유저 서비스 (systemctl --user로 보이는 것들) Cron Xorg xinitrc xprofile XDG startup /etc/xdg/autostart ~/.config/autostart Desktop environment startup [Linux] 도커 사용 중 No space left on device 해결법 docker system prune docker volume prune 위 명령을 해주면 된다. [Linux] 한글 입력하기 Fcitx5 설치하기 sudo dnf install fcitx5 sudo dnf install fcitx5-hangul 위만 해도 보통의 DE에서는 괜찮다. 하지만 별도의 input method를 다루는 어플리케이션이 없는 DE의 경우 fcitx5-configtoool을 실행할 경우 frontend를 찾을 수 없다는 식의 오류가 뜬다. 이땐 fcitx5-configtool을 설치하면 된다. sudo dnf install fcitx5-configtool 9.4 Gradient Gradient 그래디언트는 \(f\)가 스칼라 함수일 때 \(f\)가 최대로 증가하는 기울기를 찾는 벡터장이다. 기호로는 \(\nabla f\)로 쓴다. \(f\)를 입력으로, \(\nabla\)를 일종의 함수로 생각하면 \(\nabla f\)는 \(\nabla\)의 출력이 될 것이다. 입력은 스칼라이지만, 출력은 벡터로 나오게 되고 그 출력은 \(f\)가 최대로 증가하는 방향을 가르키는 벡터장이 된다. 1차원에서 생각해본다면 우리가 보통 알고있는 기울기와 가깝다. 2차원인 경우는 등고선을 생각해보자. 등고선이 좁을수록 가파르고 넓을수록 완만하다. \(\nabla f\)의 출력은 등고선과 수직하게 올라가는 방향의 벡터들의 집합이 된다. 입력을 어느 한 점으로 한다면 그 지점에서 등고선과 수직하고 올라가.. [정보이론] Entropy 정보량 확률 \(p\)의 사건이 있을 때 정보량은 \(log_2\frac{1}{p}\)로 정의된다. 정보량은 uncertainty라고도 한다. 불확실성의 정도로 해석하면 좋다. Entropy Discrete random variable (이하 discrete R.V.) \(X\)가 있을 때 probability mass function(pmf)는 \(p(x_i) = P(X=x_i)\)로 표기한다. (\(p(x_i)=Pr(X=x_i)\)로 표기하기도 함.) R.V. \(X\)에 대한 엔트로피 \(H(X)\)는 아래와 같다. \[H(X)=\sum_{i=1}^{m}p(x_i)\cdot log_2\frac{1}{p(x_i)}=E\left[log_2\frac{1}{p(X)}\right]\] \(X\)가 R.V. .. 이전 1 ··· 3 4 5 6 7 8 9 ··· 11 다음