ML 2

ML General 잡질문/답변 (기술면접)

기존 글에도 정리를 해왔지만, 기술 면접 준비하면서 정리 했던 것들 몇 가지 보충해서 정리해봤다. 틀린 내용이 있을 수 있으니 의심하면서 보길... Backpropagation 계산법 (이상한 곳에서는 간단한 계산 시킬 수도...) 로컬 그래디언트에 업스트림 그래디언트를 곱해줌으로써 구하는 것을 기본 원칙으로 계산 하면 된다 Regression vs. Classification 확률적인 관점에서 설명할 줄 알면 든든... 가정하는 분포가 뭔지 (이산? 연속? / 베르누이? 가우시안?) 가정 분포에 따라 Loss는 어떻게 달라지는지... Sigmoid 쓰는 이유? In order to map predicted value to probability a는 sigmoid의 기울기를 결정, b는 중심 위치를 결정..

DL&ML/concept 2021.05.14

Under/overfit, Validation, Regularization, Dropout, Normalization, Ensemble etc.

당부의 말 비판적인 시각으로 받아들이시오... 틀린 것이 있을 수 있으니... 1) Underfitting vs. Overfitting Polynomial regression 문제를 생각해볼 때, x -> y를 매핑함에 있어서 degree(차수)에 따라서 모델의 complexity/flexibility가 결정이 된다. degree가 높아 모델이 최대한 많은 데이터 포인트를 설명이 가능할 때 -> Overfit degree가 낮아 모델이 적은 수의 데이터 포인트 만을 설명할 수 있을 땐 -> Underfit model capacity ; 파라미터의 개수가 증가할 수록 capacity도 증가 -> capacity가 높을 수록 복잡한 표현을 배울 수 있지만, 데이터를 외워버릴 가능서도 존재 여기서 모델의 ge..

DL&ML/concept 2021.03.10