-
[비공개] #Tensor 모델을 #저장하고 #불러오기
Tensor모델을 훈련시킨 후, 이를 저장하고 다시 불러와서 사용하는 것은 매우 중요하다. 전이학습(Transfer Learning)을 가능하게 하는 원리이다. 이와 관련되어 유용한 블로그가 있어 공유한다. 이후, 관련한 내용을 다시 잘 정리해 보도록 하겠다. https://goodtogreate.tistory.com/entry/Saving-and-Restoring추천 -
[비공개] #Tensor 모델을 #저장하고 #불러오기
Tensor모델을 훈련시킨 후, 이를 저장하고 다시 불러와서 사용하는 것은 매우 중요하다. 전이학습(Transfer Learning)을 가능하게 하는 원리이다. 이와 관련되어 유용한 블로그가 있어 공유한다. 이후, 관련한 내용을 다시 잘 정리해 보도록 하겠다. https://goodtogreate.tistory.com/entry/Saving-and-Restoring추천 -
[비공개] #Tensor 모델을 #저장하고 #불러오기
Tensor모델을 훈련시킨 후, 이를 저장하고 다시 불러와서 사용하는 것은 매우 중요하다. 전이학습(Transfer Learning)을 가능하게 하는 원리이다. 이와 관련되어 유용한 블로그가 있어 공유한다. 이후, 관련한 내용을 다시 잘 정리해 보도록 하겠다. https://goodtogreate.tistory.com/entry/Saving-and-Restoring추천 -
[비공개] #Tensor 모델을 #저장하고 #불러오기
Tensor모델을 훈련시킨 후, 이를 저장하고 다시 불러와서 사용하는 것은 매우 중요하다. 전이학습(Transfer Learning)을 가능하게 하는 원리이다. 이와 관련되어 유용한 블로그가 있어 공유한다. 이후, 관련한 내용을 다시 잘 정리해 보도록 하겠다. https://goodtogreate.tistory.com/entry/Saving-and-Restoring추천 -
[비공개] #컨볼루션(Convolutional) Neural Network
CNN(Convolutional Neural Network)은 주로 이미지를 사용한 딥러닝 네트워크 방식에서 사용되나, 이미지 외에도 음성, 텍스트, 시간 데이터에도 사용된다. CNN은 특징(Feature)추출을 하는 부분과 분류기(Classification) 부분으로 나누어진다. CNN의 뒷부분인 Classifer 부분은 DNN과 동일하다. #Feature Extraction (특징추출) 특징추출 단계에서는 Convolution Layer + Pooling Layer를 반복하여 구성한다. #Classifer (분류기) Dense Layer + Dropout (과적합을 막기 위하여) + Dense Layer (마지막 Dense Layer이후에는 Dropout하지 않는다.) DNN에서의 모델과 동일 < 용어 정리 > #Convolution (나선형, 합성곱) 특정 크기를 가진 필.......추천 -
[비공개] #컨볼루션(Convolutional) Neural Network
CNN(Convolutional Neural Network)은 주로 이미지를 사용한 딥러닝 네트워크 방식에서 사용되나, 이미지 외에도 음성, 텍스트, 시간 데이터에도 사용된다. CNN은 특징(Feature)추출을 하는 부분과 분류기(Classification) 부분으로 나누어진다. CNN의 뒷부분인 Classifer 부분은 DNN과 동일하다. #Feature Extraction (특징추출) 특징추출 단계에서는 Convolution Layer + Pooling Layer를 반복하여 구성한다. #Classifer (분류기) Dense Layer + Dropout (과적합을 막기 위하여) + Dense Layer (마지막 Dense Layer이후에는 Dropout하지 않는다.) DNN에서의 모델과 동일 < 용어 정리 > #Convolution (나선형, 합성곱) 특정 크기를 가진 필.......추천 -
[비공개] #컨볼루션(Convolutional) Neural Network
CNN(Convolutional Neural Network)은 주로 이미지를 사용한 딥러닝 네트워크 방식에서 사용되나, 이미지 외에도 음성, 텍스트, 시간 데이터에도 사용된다. CNN은 특징(Feature)추출을 하는 부분과 분류기(Classification) 부분으로 나누어진다. CNN의 뒷부분인 Classifer 부분은 DNN과 동일하다. #Feature Extraction (특징추출) 특징추출 단계에서는 Convolution Layer + Pooling Layer를 반복하여 구성한다. #Classifer (분류기) Dense Layer + Dropout (과적합을 막기 위하여) + Dense Layer (마지막 Dense Layer이후에는 Dropout하지 않는다.) DNN에서의 모델과 동일 < 용어 정리 > #Convolution (나선형, 합성곱) 특정 크기를 가진 필.......추천 -
[비공개] #컨볼루션(Convolutional) Neural Network
CNN(Convolutional Neural Network)은 주로 이미지를 사용한 딥러닝 네트워크 방식에서 사용되나, 이미지 외에도 음성, 텍스트, 시간 데이터에도 사용된다. CNN은 특징(Feature)추출을 하는 부분과 분류기(Classification) 부분으로 나누어진다. CNN의 뒷부분인 Classifer 부분은 DNN과 동일하다. #Feature Extraction (특징추출) 특징추출 단계에서는 Convolution Layer + Pooling Layer를 반복하여 구성한다. #Classifer (분류기) Dense Layer + Dropout (과적합을 막기 위하여) + Dense Layer (마지막 Dense Layer이후에는 Dropout하지 않는다.) DNN에서의 모델과 동일 < 용어 정리 > #Convolution (나선형, 합성곱) 특정 크기를 가진 필.......추천 -
[비공개] 뉴럴네트웍을 배우는 최적의 장소 : Tensorflow Playgro..
#playground.tensorflow.org https://medium.com/@kyleake/technical-demo-visualize-neural-network-with-tensorflow-playground-9f6a1d8eb57a 뉴럴네트웍을 이해하기 위하여 반드시 알아야 할 주요 용어에 대하여 정리하면서, playground의 사용법을 익혀보자. #Epoch : 임의의 구분(절단). 일반적으로 '전체 데이터셑에 대한 한번의 주기"라고 말한다. 가령 데이터 전체 세트가 10,000개이고 Batch (처리하는 묶음) 사이즈가 10이면, 1000개의 배치를 대상으로 하는 처리 (Iteration)가 반복되어야 한다. 즉 1,000번의 Iteration을 1번의 Epoch이라고 한다. Batch를 기준으로 지속적으로 계수조정 (Gradient Desecent) 작업을 한다.......추천 -
[비공개] 뉴럴네트웍을 배우는 최적의 장소 : Tensorflow Playgro..
#playground.tensorflow.org https://medium.com/@kyleake/technical-demo-visualize-neural-network-with-tensorflow-playground-9f6a1d8eb57a 뉴럴네트웍을 이해하기 위하여 반드시 알아야 할 주요 용어에 대하여 정리하면서, playground의 사용법을 익혀보자. #Epoch : 임의의 구분(절단). 일반적으로 '전체 데이터셑에 대한 한번의 주기"라고 말한다. 가령 데이터 전체 세트가 10,000개이고 Batch (처리하는 묶음) 사이즈가 10이면, 1000개의 배치를 대상으로 하는 처리 (Iteration)가 반복되어야 한다. 즉 1,000번의 Iteration을 1번의 Epoch이라고 한다. Batch를 기준으로 지속적으로 계수조정 (Gradient Desecent) 작업을 한다.......추천