[딥러닝] 이것저것 용어 정리
최적화 기법들
일차미분이용 : Gradient Descent
이차미분이용 : 뉴턴법, 가우스뉴턴법
N개씩 평균 W, B 구하여 전체 모델 파라미터 구함 : mini-batch Gradient Descent
이미지에서는 RENU 액티베이터 사용 (sigmoid단점 극복)
one hot encoding : 출력노드를 one hot으로 여러개 사용
argmax : 어느 출력값이 가장 적합한지 확인하는 함수
softmax : 전체 데이터 합 1.0으로 만들어줌. 전체가 1이니 비율로 쪼개는거로 이해하기 쉬움
model = tf.nn.softmax(L)
[8.04, 2.76, -6.52] -> [0.53 0.24 0.23]
[1,2,3] # 랭크가 1, 쉐이프는 [3]
[[1,2,3],[4,5,6]] # 랭크가 2, 쉐이프는 [2,3]
[[[1,2,3]],[[7,8,9]]] # 랭크가 3, 쉐이프는 [2,1,3]
rank : 차원의 수를 나타내는 것으로써, 랭크가 0이면 스칼라, 1이면 벡터, 2이면 행렬, 3 이상이면 n-Tensor로 불림
shape : 각 차원의 요소 개수로, 텐서의 구조를 설명해줌 / 제일 바깥쪽 차원부터 데이터 갯수 표현 shape(25,25,6) (25학습, 25명, 6속성) 여기서 axis는 3개 rank도 3 (shape안에 콤마로 구분된 데이터 갯수)
data.shape : (10,25,6) 일때
data[4,10,5] = 5반 11번째 학생의 몸무게(6번째필드)를 의미함
data[3, 10:20, 4] = 4반 11번~20번째 학생들의 키 필드값 array
np.sum(data[3, 10:20, 4] = 학생 10명의 키의 합
np.sum(data[1,:,3:] 2반 학생들의…
t1 = [[1,2,3], [4,5,6]]
t2 = [[7,8,9], [10,11,12]]
tf.concat([t1, t2], axis = 0) = [[1,2,3],[4,5,6],[7,8,9],[10,11,12]]
tf.concat([t1, t2], axis = 1) = [[1,2,3,4,5,6],[7,8,9,10,11,12]]
최근 댓글