Latest

확률론

작년에 lieklihood 관련해서 정리하면서도 이해가 잘 되지 않았던 내용들이다. 부캠 내용들 위주로 다시 재정리했다. 확률론 딥러닝은 확률론 기반의 기계학습 이론이 바탕이다. 확률분포 데이터 공간 (X x y)에서 확률분포 D는 데이터 공간에서 데이터를 추출하는 분포. 이 때, y가 상정됐기 때문에 정답 레이블이 있는 지도 학습을 기준으로 설명한다. 확률 변수 확률
Sungho Park

통계론

통계론 모수 통계적 모델링 = 적절한 가정으로 확률 분포를 추정하는 것 기계학습과 통계학이 공통적으로 추구하는 목표. 유한한 데이터만 관찰해서 모집단의 정확한 분포 예측은 불가능하다. => 근사적으로 확률분포 추정 모수적(parametric) 방법론 1. 데이터가 특정 확률 분포를 따른다고 선험적(a priori)으로 가정 2. 그 분포를 결정하는 모수(paramter)를 추정 비모수(
Sungho Park

베이즈 통계학

이것도 고등학교 때 배운 내용들이 많은데 까먹은 것도 많다... ![](/assets/images/베이즈 통계학/2e826435-b849-4675-9750-62901080ee56-image.png) 위 조건부확률은 사건 B가 일어났을 때, 사건 A가 발생할 확률을 의미. 베이즈 정리 ![](/assets/images/베이즈 통계학/48b3e05e-ca66-454f-b912-df5f88f6ca68-image.png) 위 수식은 A라는 새로운 정보가 주어졌을 때, P(B)로부터 조건부확률을 계산하는 방법을 제공한다. 베이즈 정리
Sungho Park

Gradient descent 증명

이 또한 notion에 여러번 정리했엇던 내용이다. 부캠에서 배운 내용만을 기준으로 재정리해봤다. 그 동안 정리했던 gradient descent의 내용은 아래 링크에 있다. https://naem1023.notion.site/Gradient-descent-429308fbd0184aaab90c0ac50e90b526 https://naem1023.notion.site/ML-68740e6ac0db42e9a01b17c9ab093606 Gradient descent 사용 목적 이전 포스팅에서는 gradient descent를 사용하여 선형회귀분석을 알고리즘적인 구조만 만들어봤다. 이번에는 수학적으로 어떻게 쓰였는지 알아본다. 선형회귀분석에서의 사용
Sungho Park

Matrix, Vector

Matrix 1학년 공수, 선대 이후로 수학 지식들이 삭제됐다.. 되새기는 겸으로 numpy 기호들과 기록. Annotation scalar calculation numpy에서 +, - 가능. scalar product Hadmard Product : 은 모양의 vector끼리 성분곱하는 것 X · Y X * Y Norm ![](/assets/images/Matrix, Vector/46f4a9f2-c27e-4533-b96e-0181628262f0-image.png) 원점에서부터 벡터까지의 거리. L1 norm = 변화량의 절대값의 합 L2 norm = 유클리드
Sungho Park