분류 전체보기 (79) 썸네일형 리스트형 [Linux] KDE 및 SDDM 블루투스 자동으로 켜지게 하기 SDDMsudo vi /etc/bluetooth/main.conf/etc/bluetooth/main.conf 파일을 연 후 (없으면 만들기)[Policy]AutoEnable=true위 내용을 추가한다.KDEvi ~/.config/bluedevilglobalrc~/.config/bluedevilglobalrc 파일을 연 후[Adapters]{MAC_ADDRESS}_powered=false해당하는 bluetooth adapter에서 powered 설정을 false에서 true로 바꾼다.[Adapters]{MAC_ADDRESS}_powered=true 급수 수렴 판정법 1. Partial Sum$$ \left\{S_n=\sum_{i=1}^n a_i\right\}_{n=1}^\infty\quad \mathrm{converges}\quad\rightarrow \quad \sum_{i=1}^n a_i\quad \mathrm{converges} $$$$\left\{S_n=\sum_{i=1}^n a_i\right\}_{n=1}^\infty\quad \mathrm{diverges}\quad\rightarrow \quad \sum_{i=1}^n a_i \quad \mathrm{diverges}$$2. Cauchy Criterion$$\forall \epsilon >0,\;\exists N \quad s.t.$$$$n>m>N\;\rightarrow\;\left|\sum_{i=m+1}.. 수열 수렴 판정법 1. Direct Method (epsilon-delta)$$\forall \epsilon > 0,\;\exists N \in \mathbb{Z}^+\quad s.t.$$$$n>N\;\rightarrow\;|a_n-c|2. Box Method(i) Bounded below (above)(ii) Monotone decreasing (increasing)\(\rightarrow\) \(a_n\) converges.3. Cauchy Criterion$$\forall \epsilon>0,\;\exists N \in \mathbb{Z}^+\quad s.t.$$$$m,n>N\;\rightarrow\;|a_m-a_n| LASSO, Ridge regression LASSO$$\min_{\beta}(y-X\beta)^T(y-X\beta)$$$$\mathrm{subject\;to}\quad||\beta||_1\leq t$$\(\beta_i\)가 0이 되는 걸 허용한다. 0이 됨으로써 variable selection도 되는 듯.Ridge regression$$\min_{\beta}(y-X\beta)^T(y-X\beta)$$$$\mathrm{subject\;to}\quad||\beta||_2= c$$ Lagrangian당연히 둘 다 constraint를 Lagrangian을 이용해 objective에 포함시킬 수 있다. Referenceshttps://en.wikipedia.org/wiki/Lasso_(statistics)https://en.wikipedia.org/.. rm -rf * 를 쓰자.. rm -rf ./* 말고 rm -rf * 를 쓰자... 최악의 참사를 보통의 참사로 바꿔준다... 하.. 방금 rm -rf ./*하려다 rm -rf /*를 하고 자료를 날렸다. 다행히 도커여서 연결된 볼륨만 날라갔다... 근데 그게 다 손수 정제한 데이터셋이었다는게 문제... 2d symmetric KL-divergence Implementation import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D def normal2d(mu:np.array, sigma): def normal2d_(x, y): x = np.array([x,y]) x = x.reshape((2,1)) I = np.eye(2) V = sigma**2*I V_inv = np.linalg.inv(V) mul = np.linalg.det(2*np.pi*V)**(-0.5) px = -0.5*(x-mu).T@V_inv@(x-mu) result = mul*np.exp(px[0]) return result[0] return normal2d_ def calcul.. Inequalities 모음 Triangle Inequality \[|A+B| \leq |A| + |B|\] \[\left|\int_0^tf(t)g(t)dt\right| \leq \int_0^t|f(t)g(t)|dt\] proof: \[-|A|\leq A \leq |A|\] \[-|B| \leq B \leq |B| \] \[-|A|-|B| \leq A+B \leq |A|+|B|\] \[|A+B| \leq |A|+|B|\] Cauchy-Schwarz Inequality \[|\langle\textbf{v},\textbf{w}\rangle|^2\leq\langle\textbf{v},\textbf{v} \rangle\cdot\langle\textbf{w},\textbf{w} \rangle\] \[\left|\int_0^tf(t)g(t)d.. M=H'H 일때 M은 nonnegative eigenvalue를 가짐을 증명 \[ M=H'H \] \[ Mv = \lambda v\] \[ v'Mv = \lambda v'v \] \[ v'H'Hv = \lambda v'v \] \[ (Hv)'Hv = \lambda v'v \] \[ w = Hv, w'w \geq 0\] \[ \lambda v'v \geq 0\] \[ \lambda \geq 0\] Proof done by ChatGPT. 이전 1 2 3 4 5 ··· 10 다음