일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Notice
Recent Posts
- Today
- Total
Tags
- activation function
- AdaGrad
- adaptive learning rate
- arithmetic reasoning
- Attention is all you need
- attention mechanism
- auto encoder
- Back Propagation Trough Time
- Backpropagation
- Bayes Theorem
- BCE
- Bert
- Bidirectional Encoder Representation from Transformer
- Binary classification
- BPTT
- Chain-of-Thought
- CNN
- commonsense reasoning
- Computer Vision
- Confusion Matrix
- convolutional neural network
- Cot
- cot reasoning
- counting
- Cross Entropy Loss
- deep learning
- degradation
- Dimension Reduction
- Few-shot
- fine-tuning
데이터 분석 일지
[Deep Learning] Logistic Regression (로지스틱 회귀) 본문
Lecture or Textbook Review/Deep Learning
[Deep Learning] Logistic Regression (로지스틱 회귀)
-ˋˏ ♡ ˎˊ- 2024. 1. 23. 16:521. Structure of Logistic Regression
- Linear Regression과 비슷한 구조이지만, Linear Layer를 거친 후 Sigmoid 함수를 통과시킨다.
- Sigmoid 함수를 사용하기 때문에 1(True)과 0(False) 사잇값을 출력한다.
2. Activation Function
- Sigmoid 함수: 0에서 1 사잇값을 출력하는 함수
- TanH 함수: -1에서 1 사잇값을 출력하는 함수

3. Parameter Optimization using Gradient Descent
Linear Regression과 구조는 같지만 Sigmoid 함수를 추가함으로써 이름은 회귀이지만 사실상 이진 분류 문제라고 봐도 무방하다. 이진 분류 문제라고 생각한다면 BCE Loss Fuction을 사용하고 Accuracy를 확인할 수 있으며 확률 문제로 접근할 수 있다.

4. Binary Cross Entropy (BCE) Loss Function

위 공식은 정답이 1일 경우와 정답이 0일 경우를 합친 확률을 의미한다.
'Lecture or Textbook Review > Deep Learning' 카테고리의 다른 글
[Deep Learning] SGD (Stochastic Gradient Descent) (0) | 2024.01.31 |
---|---|
[Deep Learning] Regression (0) | 2024.01.31 |
[Deep Learning] Linear Regression (선형 회귀) (0) | 2024.01.23 |
[Deep Learning] 기초 최적화 방법: Gradient Descent (0) | 2024.01.22 |
[Deep Learning] 신경망 학습 성능 판단 (0) | 2024.01.22 |