일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Notice
Recent Posts
- Today
- Total
Tags
- activation function
- AdaGrad
- adaptive learning rate
- arithmetic reasoning
- Attention is all you need
- attention mechanism
- auto encoder
- Back Propagation Trough Time
- Backpropagation
- Bayes Theorem
- BCE
- Bert
- Bidirectional Encoder Representation from Transformer
- Binary classification
- BPTT
- Chain-of-Thought
- CNN
- commonsense reasoning
- Computer Vision
- Confusion Matrix
- convolutional neural network
- Cot
- cot reasoning
- counting
- Cross Entropy Loss
- deep learning
- degradation
- Dimension Reduction
- Few-shot
- fine-tuning
목록BCE (1)
데이터 분석 일지

1. Structure of Logistic RegressionLinear Regression과 비슷한 구조이지만, Linear Layer를 거친 후 Sigmoid 함수를 통과시킨다. Sigmoid 함수를 사용하기 때문에 1(True)과 0(False) 사잇값을 출력한다. 2. Activation FunctionSigmoid 함수: 0에서 1 사잇값을 출력하는 함수TanH 함수: -1에서 1 사잇값을 출력하는 함수 3. Parameter Optimization using Gradient Descent Linear Regression과 구조는 같지만 Sigmoid 함수를 추가함으로써 이름은 회귀이지만 사실상 이진 분류 문제라고 봐도 무방하다. 이진 분류 문제라고 생각한다면 BCE Loss Fuction을 ..
Lecture or Textbook Review/Deep Learning
2024. 1. 23. 16:52