[딥러닝 학습2] (Linear) Hypothesis
어떤 선이 내가 원하는 결과에 더 적합한지 가설을 세우는 것
찾아낸 추론이 우리의 트레이닝 데이터에 얼마나 적합한가를 확인하기 위해 최소 Cost Function을 구한다.
import tensorflow as tf # X, Y 데이터 x_train = [1,2,3] y_train = [1,2,3] W = tf.Variable(tf.random_normal([1]), name='weight') b = tf.Variable(tf.random_normal([1]), name='bias') # hypothesis 모델 정의XW+B hypothesis = x_train * W + b # cost/less function cost = tf.reduce_mean(tf.square(hypothesis - y_train)) # reduce_mean : 트레이닝 데이터 평균내주는 것 #Minimize / GradientDescent optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01) train = optimizer.minimize(cost) # Launch Graph sess = tf.Session() sess.run(tf.global_variables_initializer()) # Fit the Line for step in range(2001): sess.run(train) if step % 20 == 0: print(step, sess.run(cost), sess.run(W), sess.run(b))
placeholders 이용하여 데이터 넘겨주고 학습시키기
import tensorflow as tf # X, Y 데이터 #x_train = [1,2,3] #y_train = [1,2,3] W = tf.Variable(tf.random_normal([1]), name='weight') b = tf.Variable(tf.random_normal([1]), name='bias') X = tf.placeholder(tf.float32, shape=[None]) Y = tf.placeholder(tf.float32, shape=[None]) # hypothesis 모델 정의XW+B hypothesis = X * W + b # cost/less function cost = tf.reduce_mean(tf.square(hypothesis - Y)) # reduce_mean : 트레이닝 데이터 평균내주는 것 #Minimize / GradientDescent optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01) train = optimizer.minimize(cost) # Launch Graph sess = tf.Session() sess.run(tf.global_variables_initializer()) # Fit the Line for step in range(2001): cost_val, W_val, b_val, _ = sess.run([cost, W, b, train], feed_dict={X: [1,2,3,4,5], Y: [2.1, 3.1, 4.1, 5.1, 6.1]}) if step % 20 == 0: print(step, cost_val, W_val, b_val) # Tranining Hypothesis Test print(sess.run(hypothesis, feed_dict={X: [5]})) print(sess.run(hypothesis, feed_dict={X: [2.5]})) print(sess.run(hypothesis, feed_dict={X: [1.5, 3.5]}))
이 포스트는 김성훈 교수님의 ‘모두의 딥러닝’ 강의를 학습하며 정리한 노트입니다.
최근 댓글