본문 바로가기

반응형

잡다한 IT

04-3. Mulit-variable linear regression with file input ■ 파일로 부터 데이터 입력 받기. xy = np.loadtxt('data-01-test-score.csv',delimiter=',',dtpye=np.float32)- data-01-test-score.csv로 부터 데이터 입력 받음- 데이터간 구분은 ' ' 스페이스로 한다- 데이터 타입은 np.float32 로 설정함 x_data = xy[:,0:-1]- 처음부터 마지막 이전까지의 데이터를 배열 x_data에 저장 y_data = xy[:,[-1]]- 마지막 데이터를 배열 y_data에 저장 print(x_data.shape,x_data,len(x_data)- 원하는대로 x 데이터가 들어왔는지 확인 print(y_data.shape,y_data)- 원하는대로 y 데이터가 들어왔는지 확인 ※ colab .. 더보기
04-2. Multi-variable linear regression with tf.matmul ■ matmul 함수 사용. x_data - 4x3 배열 생성 y_data - 4x1 배열 생성 hypothesis = tf.matmul(X,W)+b- X : 4x3 , Y:3x1 matrix multiplier 수행 후 b와 더함. 1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606162636465666768697071727374757677# Lab04-2 Multi-variable linear regression import tensorflow as tf tf.set_random_seed(777) # for reproducibility x_data = .. 더보기
04-1. Multi-variable linear regression ■ 여러개의 입력이 있는 경우의 linear regression x1_data , x2_data, x3_data , y_data - 여러 입력을 각각의 1행 5열 배열로 처리 hypothesis = x1*w1 + x2*w2 + x3*w3 +b - 여러 입력에 대한 hypothesis 적용 cost_val, hy_val, _ = sess.run([cost,hypothesis,train], feed_dict= {x1:x1_data,x2:x2_data,x3:x3_data,Y:y_data}) - feed_dict 를 통하여 여러 입력을 대입 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525.. 더보기
노드 수? 레이어 수? Question. Answer. 더보기
axis 에 대하여 http://taewan.kim/post/numpy_sum_axis/ 참고사이트 더보기
03-4 Minimizing Cost tf gradient ■ 직접구한 Minimizing cost 와 텐서플로우 사용 Minimizing cost 비교 gvs = optimizer.compute_gradients(cost,[W])- gradient 값을 얻어오는 함수 apply_graidents = optimizer.apply_gradients(gvs)- gradient 값을 통하여 W 값을 얻어내기 위한 그래프를 생성함 sess.run(apply_gradients)- apply_gradients를 실행하여 W 값을 얻어옴 12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970717.. 더보기
03-3 Minimizing Cost tf optimizer ■ 텐서플로우에서 제공하는 Minimizing Cost 함수를 이해한다. ▶ 내장 함수를 사용하여 목적함수를 구함optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.1)train = optimizer.minimize(cost)- tf->train->GradientDescentOptimizer->minimize 와 같은 계통으로 사용을 함- learning_rate=0.1 과 cost 함수의 인자로 사용하는 위치를 익힌다. 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051# Lab03-3 Minimizing Cost tf optim.. 더보기
03-2 Minimizing Cost without tensorflow APIs ■ 텐서플로우 함수를 사용하지 않고 Cost Minimizing 기능을 구현한다. ▶ 내장함수를 사용하지 않고 편미분으로 직접 구현함learning_rate = 0.1- 학습률을 설정한다 gradient = tf.reduce_mean((W*X-Y)*X)- Cost 함수를 W에 대한 편미분을 했을 때의 값- 편미분을 통하여 기울기 값을 구한다. descent = W - learning_rate*gradient- 현재의 W값에서 학습율과 기울기의 곱을 한 값을 뺀다. update = W.assign(descent)- 그 값을 W에 업데이트 한다. 1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950.. 더보기

반응형