본문 바로가기
반응형

Study78

[ML] Dropout Dropout train(학습)은 70%만 하면 됨. evaluation(평가)은 모두 다 불러서 사용해야함. 2018. 7. 3.
[ML] ReLU ReLU Sigmoid는 1보다 작은 값을 계속 곱하기 때문에 최종적인 값은 굉장히 작은 값이 된다. 그렇기 때문에 Sigmoid를 사용하면 정확한 값을 얻을 수 없게 된다. ReLU가 무엇일까? 1보다 작은 값을 계속 곱하게 되는 Sigmoid의 단점을 보완할 수 있는 함수이다. 아래의 그래프와 같이 0보다 작으면 계속 0이고, 0보다 크면 비례하여 값이 커진다. ReLU를 사용하여 계속 계산을 하고 마지막에는 Sigmoid를 사용하여야 한다. 그 이유는 0 or 1로 표현해야하기 때문이다. 2018. 6. 26.
[ML] TensorBoard 사용하기 TensorBoard 사용하기 TensorBoard의 장점 1. Visualize your TF graph 2. Plot quantitative metrics 3. Show additional data 5 steps of using TensorBoard TensorBoard 사용법 1. 위의 step에 따라 코딩을 한 후 실행 2. 터미널에 들어가 아래 빨간 네모 칸과 같이 입력 3. 입력 후 밑에 나오는 URL(ex : http://127.0.0.1:6006, tensorboard의 기본 포트 번호는 6006이다.)을 브라우저에 입력하면 tensorflow 확인 가능 이전에 짠 XOR 코드를 tensorboard를 사용해서 실행시켜보자. 소스 코드1234567891011121314151617181920.. 2018. 6. 25.
[ML] Neural Net for XOR Neural Net XOR with logistic regression 소스 코드12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152import tensorflow as tfimport numpy as np tf.set_random_seed(777) # for reproducibilitylearning_rate = 0.1 x_data = [[0, 0], [0, 1], [1, 0], [1, 1]]y_data = [[0], [1], [1], [0]]x_data = np.array(x_data, dtype=np.float32)y_data = np.array(y_data, dtype=np.flo.. 2018. 6. 23.
[ML] MNIST MNIST epoch : 전체 dataset을 한번 돈 것을 1 epoch이라고 한다. batch size : dataset이 큰 경우, 한 번에 할 수 없기 때문에 짤라서 학습을 시키는데 이 때 자르는 사이즈를 batch size라고 한다. 소스 코드 1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859import tensorflow as tfimport randomimport matplotlib.pyplot as pltfrom tensorflow.examples.tutorials.mnist import input_data mnist = input_data.re.. 2018. 6. 16.
[ML] Training and Test datasets 수 많은 data가 있으면 그 모든 데이터를 학습하는데 사용하지 않고 일부분은 따로 떼어 test하는 곳에 사용하게 된다. data를 학습하는 것을 training, training한 data를 사용하여 결과를 확인해보는 data를 test라고 한다. 소스 코드를 보고 이해해 보자. 12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152import tensorflow as tf x_data = [[1, 2, 1], [1, 3, 2], [1, 3, 4], [1, 5, 5], [1, 7, 5], [1, 2, 5], [1, 6, 6], [1, 7, 7]]y_data = [[0, 0, 1], [0.. 2018. 6. 3.
반응형