'K-MOOC/머신러닝'에 해당되는 글 6건

6주차 API

K-MOOC/머신러닝 2020. 4. 9. 12:47
class MultiplGate(object):
	def forward(x,y):
    	z = x*y
        self.x = x # must keep these around
        self.y = y
        return z
    def backward dz :
    	dx = self.y*dz # [dz/dx * dL/dz]
        dy = self.x*dz # [dz/dy * dL/dz]
        return [dx, dy]

음... 왜 이렇게 나오려나???

 

블로그 이미지

Or71nH

,

### 이미지 분석

데이터 32x32x3(색) 의 크기이미지를 축소 하여 행으로 정렬하여 간편화 하게 변환

그리고 분석한다 근데 문제점이 많다 고양이 인데 강아지에 가깝고 에러가 있다

 

 

 

 

$$$ 경계면 을 읽어오면 혹시 그물체를 분활하여 기억하지 않을까???

첫번째 과정은 0 보다 크거나 같게 만든다

두번째 정규화 나누어 합이 1이 되게 만든다

 

기술만 이해하는 쪽으로 해야겠다

복잡도를 산출 하는 방법을 재대로 배우고 이해될 거 같은 부분들이 많다

 

'K-MOOC > 머신러닝' 카테고리의 다른 글

6주차 API  (0) 2020.04.09
4주차 온라인 최적화  (0) 2020.03.31
3주차 Gradient descent, Coordinate descent  (0) 2020.03.24
2주차 선형대수 기본 개념  (0) 2020.03.22
1주차 머신러닝 개요 및 케이스 스터디  (0) 2020.03.20
블로그 이미지

Or71nH

,

###간단 코드

grad_squared = 0 
while True:
	dx = compute_gradient(x)
    grad_squared += dx * dx
    x -= learning_rate * dx / (np.sqrt(grad_squared) + 1e-7)
  

compute_gradient(x) ==> G_t += [g_t[0]^2, ...,g_t[d]^2]

np.sqrt(grad_squared) 

 

@@@AdaGrad

grad_squared = 0 
while True:
	dx = compute_gradient(x)
    grad_squared += dx * dx
    x -= learning_rate * dx / (np.sqrt(grad_squared) + 1e-7)
  

@@@RMSProp

grad_squared = 0 
while True:
	dx = compute_gradient(x)
    grad_squared += decay_rate * grad_squared + (1 - decay_rate) * dx * dx
    x -= learning_rate * dx / (np.sqrt(grad_squared) + 1e-7)
  

@@@AdaGrad/RMSProp

first_moment = 0
second_moment = 0
while True:
	dx = compute_gradient(x)
    first_moment = beta1 * first_moment + (1 - beta1) *dx
    second_moment = beta2 * second_monent + (1 -beta2) * dx * dx
    x -= learning_rate * first_moment / (np.sqrt(grad_squared) + 1e-7)
  

@@@Adam(fullform)

first_moment = 0
second_moment = 0
while True:
	dx = compute_gradient(x)
    first_moment = beta1 * first_moment + (1 - beta1) *dx
    second_moment = beta2 * second_monent + (1 -beta2) * dx * dx
    first_unbias = first_moment / (1 - beta1 **t)
    second_unbias = second_moment / (1 -beta2 **t)
    x -= learning_rate * first_unbias / (np.sqrt(second_unbias) + 1e-7)
  

https://daeson.tistory.com/167

'K-MOOC > 머신러닝' 카테고리의 다른 글

6주차 API  (0) 2020.04.09
5주차 점수 산출  (0) 2020.04.02
3주차 Gradient descent, Coordinate descent  (0) 2020.03.24
2주차 선형대수 기본 개념  (0) 2020.03.22
1주차 머신러닝 개요 및 케이스 스터디  (0) 2020.03.20
블로그 이미지

Or71nH

,

하... 모르겟어...

https://helloworld-km.tistory.com/entry/Steepest-Descent-method

'K-MOOC > 머신러닝' 카테고리의 다른 글

6주차 API  (0) 2020.04.09
5주차 점수 산출  (0) 2020.04.02
4주차 온라인 최적화  (0) 2020.03.31
2주차 선형대수 기본 개념  (0) 2020.03.22
1주차 머신러닝 개요 및 케이스 스터디  (0) 2020.03.20
블로그 이미지

Or71nH

,

###

a^tb < ||a||b||

a^tb = 종류???

### 식들 음...

||x||¹=∑|x_i|

||x||무한 = max |x_i|

|x^ty| < ||x||_p||y||_q for 1/p+1/q =1

 

 

Q. 실수 x, y에 대해서 2x + 9y = 7 일 때, 4x2 + 9y2 의 최솟값을 고르시오.

 

A.  49/10

 

'K-MOOC > 머신러닝' 카테고리의 다른 글

6주차 API  (0) 2020.04.09
5주차 점수 산출  (0) 2020.04.02
4주차 온라인 최적화  (0) 2020.03.31
3주차 Gradient descent, Coordinate descent  (0) 2020.03.24
1주차 머신러닝 개요 및 케이스 스터디  (0) 2020.03.20
블로그 이미지

Or71nH

,