Math(20)
-
3차원 그래프 그리기
https://www.geogebra.org/3d
2024.06.13 -
메타 인터뷰 질문
Meta/ Facebook Probability Interview Questions for data scientists 출처 : https://leonwei.com/meta-facebook-probability-interview-questions-for-data-scientists-f307a412ea20 Ads Serving: There are two different ads serving mechanisms for the Facebook newsfeed. The first is randomly replacing a feed with an advertisement with a probability of 4%. The second is: every 25 feeds, turn one of them into ..
2022.05.20 -
Machine Learning 기초 (2) - 선형 분류 Linear Models for Classification
[목차] 1. 선형분류의 목표와 방법들 2. 판별함수 3. 분류를 위한 최소제곱법 4. 퍼셉트론 알고리즘(The Perceptron algorithm) 5. 확률적 생성 모델 (Probabilistic generative models) 6. 확률별 식별 모델 (probabilistic discriminative models) =============================================== 1. 선형분류의 목표와 방법들 2. 판별함수 Discriminant Functions - 확률을 직접 계산하진 않고, 바로 클래스 할당 - ex) binary class 결정경계 : y=0으로 두었을 때의 2개의 벡터로 만들어짐 그림의 이해 빨간선 = y=0일 때, decision boundary ..
2021.06.12 -
Machine Learning 기초 (1) - 선형 회귀 Linear Models for Regression
[목차] 1. 선형 기저 함수 모형 2. 최대우도와 최소제곱법 -> 편향 파라미터 w0 와 b의 최적의 우도 구하기 3. Maximum Likelihood의 기하학적 의미 4. 온라인 학습(Sequential Learning) - Large linear regression 5. 규제화된 최소제곱법 (Regularized Least Squares) 6. 편향 분산 분해(Bias-Variance Decomposition) 7. 베이지안 선형회귀 (Bayesian Linear Regression) ======================================= 1. 선형 기저 함수 모델 x는 비선형이라도 w는 선형!!!! 선형 기저 함수의 예시 ex) 다항식 기저함수 = j에 따라서 얼마나 x를 제곱해..
2021.06.12 -
확률분포 (3) - 연속확률분포 가우시안분포
[목차] 1. 가우시안 분포의 기대값 2. 가우시안 분포의 공분산 3. 조건부 가우시안 분포 4. 주변 가우시안 분포(Marginal Gaussian Distributions) 5. 가우시안 분포를 위한 베이즈 정리(Bayes’ Theorem for Gaussian Variables) ============================================= 1. 가우시안 분포의 기대값 X는 벡터이고 X 의 기대값도 벡터이다 X1에 대한 기대값은 모든 x와 그 확률에 대해 적분한 값 가우시안 분포에서 x의 기대 값은 보기 쉽게 z로 변환하여 z에 대한 적분 으로 변형 아래의 식은 모든 Y 에 대한 적분 다시 한번 강조 하자면 결과 값은 벡터이다 이를 풀면 오른쪽 상단에 있는 하드 function으..
2021.06.11 -
확률분포 (2) - 이산확률분포 다항변수
뮤k도 각각 k개의 벡터임 K는 파라미터 뮤k의 합은 1 x는 확률분포. 기대값도 각각의 값을 가짐
2021.06.07 -
확률분포 (1) - 이산확률분포 이항변수
베이지언 방법 이런 식으로 들어오는 데이터 값으로 사전 확률을 업데이트 해 나가면 극단적인 데이터가 들어올때도 (만약 빈도 주의적 방법이 라면 극단적인 기대 값으로 예측 했겠지만 이와는 달리 베이지언은) 어느 정도 불확실성을 남겨둔 채로 기대 확률을 예측할 수 있다
2021.06.07 -
결정이론 (3) - 결정 문제를 위한 방법들
판별모길 - 확률값 계산 없이 입력값을 할당하기만 함 함
2021.06.05 -
결정이론 (2) - 회귀
회귀문제에서 목표값 t는 실수 손실함수가 주어졌을 때 손실함수의 기대값을 최소화하는 예측값은? t의 조건부 기대값!! 범함수(functional) 의 최소값 - 두 점사이를 연결하는 가장 가까운 선을 찾는 문제 - f함수에 따라 달라짐 - f’(x) : f함수의 1차 미분 오일러-라그랑지 방정식에서 y에 다한 미분 후 t에 대한 적분(=> 하면 1이 죈다) 마지막 줄을 0으로 두고 보면, y의 함수는 x에 대한 t의 함수의 기대값 같은 문제를 다른 방법으로 접근해보자 - 손실함수를 분해하여 기대값을 구하기 중간에 ) 결합확률을 t에 관한 확률 부분만 모아서 정리 마지막에 ) 손실함수의 기대값 = y에 대한 부분과 y와 상관없는 부분으로 나뉨(이는 더 이상 줄일 수 없다는 뜻)
2021.06.05 -
결정이론 (1) - 이진분류
위의 행렬에서 행은 actual class, 열은 predicted class 행렬을 모델 안에 포함시켜서 손실함수 계산 위의 예제에서 x가 healthy 이려면 p(C2|x) 조건부확률이 아플 때의 조건부확률의 100배보다 커야함
2021.06.05