일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- Today
- Total
- activation function
- AdaGrad
- adaptive learning rate
- arithmetic reasoning
- Attention is all you need
- attention mechanism
- auto encoder
- Back Propagation Trough Time
- Backpropagation
- Bayes Theorem
- BCE
- Bert
- Bidirectional Encoder Representation from Transformer
- Binary classification
- BPTT
- Chain-of-Thought
- CNN
- commonsense reasoning
- Computer Vision
- Confusion Matrix
- convolutional neural network
- Cot
- cot reasoning
- counting
- Cross Entropy Loss
- deep learning
- degradation
- Dimension Reduction
- Few-shot
- fine-tuning
목록Lecture or Textbook Review (28)
데이터 분석 일지

5-1강: Eigen Value & Eigen Vector 5. 1. 1. 개념 행렬 A에 벡터 v를 곱하면 방향은 그대로이고 크기만 람다만큼 변한다고 하자. 이를 만족하는 람다가 eigen value, 만족하는 벡터 v가 eigen vector이다. 여기서 행렬 A는 항상 정사각행렬이다. 만약 행렬 A가 m x n이라고 하면 벡터 v는 n x 1일 것이고, 이 곱셈의 해는 m x 1이 된다. 이때 스칼라인 람다와 벡터 v가 곱해지면 n x 1일 것이고, 이는 m x 1과 같아야 하므로 m = n이다. 따라서 행렬 A는 항상 정사각행렬이다. $$A \underline{v} = \lambda \underline{v}$$ 5. 1. 2. 선형 변환의 관점 위 수식을 쉽게 벡터 v를 행렬 A에 통과시킨다고 ..

3-1강: Gauss-Jordan Elimination 선대는 연립 일차방적식을 Ax = b의 형식인 행렬과 벡터의 곱으로 나타내고, 여기서 x의 해를 찾는 것이라고 하였다. 여기서 이 x를 찾는 방법이 가우스-조던 소거법이다. 보통 연립 일차방정식을 풀 때는 하나의 식의 양변에 상수를 곱하고 다른 식에 더하거나 빼며 풀었다. 하지만 변수와 식의 개수가 많아지면서 이에 따라 행렬과 벡터의 곱으로 연립 방정식을 나타내기 시작했고, 이렇게 나타낸 방정식에서 해를 쉽게 찾는 방법이 가우스 조던 소거법이다. 방정식의 해를 찾는 원리는 기존과 동일하지만 방법만 살짝 다르다. 예를 들어 아래의 연립 일차 방정식이 있다고 하자. 이 식을 행렬과 벡터의 곱셈으로 나타내면 그다음 수식과 같다. $$\begin{ca..

1. Birthday Problem 문제는 아주 간단하다. k명의 사람이 있을 때, 두 명의 생일이 같을 확률을 구하는 문제이다. 여기서는 최소한 두 명의 생일이 같을 확률을 구할 것이다. 몇 명의 사람이 있어야 최소한 50%의 확률로 두 명의 사람의 생일이 같을 수 있을지 알아보자. 일반적으로 k명의 사람 중 두 명의 생일이 같을 확률을 구해야 한다. 2월 29일은 다른 날짜에 비해 확률이 낮다. 편의를 위해 1년은 365일로 가정하고 문제를 푼다. 그리고 365일이 모두 동일한 확률을 가진다고 가정한다. k > 365 먼저 k가 365보다 클 때를 가정해보자. 이때 확률은 1일 것이다. 왜냐하면 365명보다 많은 사람이 있지만 생일이 될 수 있는 날짜는 365개뿐이기 때문이다. 무조건 한 쌍 이상..

0. Introduction 강의를 시작하기 앞서 몇 가지 조언을 해주신다. 요약하면 다음과 같다. Don't lose common sense 강의가 진행될 수록 상식에서 벗어나고, 직관적이지 못한 결과를 자주 얻게 될 것이다. 직관적이지 않은 문제를 다룬다고 해서 상식을 아예 벗어나라는 것은 아니라는 것이다. 또, 답안을 쓸 때에 합리적인 이유가 있어야 한다. 예를 들어서 52개 중에서 5개를 선택하는 경우의 수를 구할 때, 이것을 (52, 5)로 둬도 괜찮다는 것이다. 교수님은 이를 '설명이 필요 없는 주석'이라고 부르신다. 이렇게 하면 말 그대로 답안에 대한 설명 없이도 설명이 된다는 것이다. Do check answers 자신이 푼 풀이를 반복하라는 것이 아니라, 다른 방법으로 답을 확인하라는..

2강에서는 선형대수를 공부하며 필요한 기초 개념을 짧게 배워본다. 2-1강: 벡터의 덧셈과 뺄셈 및 스칼라 1강에서 숫자를 한 줄로 쌓은 것을 벡터라고 하였다. 벡터 [3, 2]를 좌표평면에 나타내보면 Figure 1과 같다. 간단하게 각각 원소를 x 값, y값에 대입한 좌표이다. 벡터는 크기와 방향을 가진다. 크기는 빗변의 길이를 의미한다. 방향은 양의 x축과 이루는 각도를 의미한다. 이를 θ라고 표현한다. 각각 다음과 같이 계산할 수 있다. 크기: $$\sqrt{9 + 4} = \sqrt{13}$$방향: $$\tan^{-1}{\frac{2}{3}}$$ 그렇다면 Figure 2의 두 벡터는 크기와 방향이 같은데, 같은 벡터일까? 이 질문의 답은 "같다"아다. 빨간색 벡터의 시작점을 원점에 맞춰놓..
0. Introduction 지난 시간에는 간단하게 물리와 양자 역학이 모두 확률 문제라고 이야기 했다. 유전학도 확률 없이는 불가능하다. 이런 과학 뿐만 아니라 경제학이나 게임 이론 등도 확률 문제이다. 심지어 역사나 정치에서도 확률을 사용한다. 이처럼 여러 학문에서 확률과 통계를 응용하는 사례가 늘어나고 있다. Joe Blitzstein 교수님은 확률은 도박에서부터 시작된 것이라고 말한다. 도박은 확률론, 통계학에 있어 굉장히 친숙한 예시가 된다. 주사위나 카드, 동전과 같은 것들이 도박에서 사용되는 것으로, 우리는 이런 도구를 활용해서 푸는 확률과 통계 문제를 많이 접해왔다. 또 교수님은 통계학은 불확실성의 논리라고 말한다. 모든 것은 불확실성을 가진다. 따라서 확률과 통계는 우리의 생각을 어떠..

1-1강: 보이는 선형대수학 선형대수학의 대수학이 되게 큰 수학, 큰 학문, 큰 분야라고 생각하는 분들이 많은데, 큰 대가 아니라 대신할 대자를 쓴다. 숫자를 대신해서 문자를 사용한다는 것이고, 결국 방정식을 푸는 것이다. 방정식을 푸는 것은 이미 중학생 때 배운 내용이다. 아래의 수식을 방정식이라고 할 수 있다. 방정식은 아래 수식에서 x의 해를 찾고자 하는 것이다. $$ax^2+bx+c=0$$ 근데 선형대수학에서는 x의 제곱을 다루지도 않는다. 선형 방정식, 즉 일차방정식만 다룬다는 것이다. 선형대수학이라는 이름은 거창하지만, 선형 방정식만 다루기 때문에 쉽게 공부할 수 있다. 아래의 방정식을 선형대수학에서는 행렬과 벡터로 나타낼 수 있기 때문에, 선형대수학은 행렬과 벡터에 대해서 공부하는 학문이..

0. Foundation Concept of RNN 이전까지는 함수에 x를 입력 받으면 y를 출력하는 형식을 정의했었다. 하지만 RNN은 sequential data나 time series data를 다룰 수 있는 구조를 지닌다. RNN은 이전 time step의 출력을 입력으로 받는 특성을 가진다. 따라서 x와 이전 time step의 출력 h_(t - 1)을 입력으로 받아 현재 time step인 h_t를 출력하는 구조인 것이다. FC layer나 CNN은 이전의 출력 정보를 입력으로 받지 않고, 순서 정보를 고려하지 않는 반면에, RNN은 순서 정보나 이전 데이터에 기반한 현재 데이터의 처리를 할 수 있다. 0. 1. Sequential Data vs Time Series Data sequen..