"Keras"의 두 판 사이의 차이

오픈소스 비즈니스 컨설팅
둘러보기로 가기 검색하러 가기
2번째 줄: 2번째 줄:
  
 
== Model ==
 
== Model ==
 +
 +
=== Activation ===
 +
 +
=== Loss ===
 +
 +
* categorical_crossentropy : 분류시 사용
 +
* mse : 값 예측시 사용
 +
model.compile(loss='categorical_crossentropy', optimizer=sgd(lr=0.01, momentum=0.9), metrics=['accuracy'])
 +
model.compile(loss='mse', optimizer=sgd(lr=0.01, momentum=0.9), metrics=['accuracy'])
  
 
=== Optimizer ===
 
=== Optimizer ===
  
sgd   
+
* sgd (확률적 경사 하강법)
rmsprop
+
:* 학습률 (LR, Learning Rate) : 0.1, 0.01
adagrad
+
from keras.optimizers import sgd
adadelta
+
adam
+
  model.compile(loss='mse', optimizer=sgd(lr=0.01, momentum=0.9), metrics=['accuracy'])
adamax
+
* rmsprop
nadam
+
* adagrad
 +
* adadelta
 +
* adam
 +
* adamax
 +
* nadam
 +
 
 +
=== Metrics ===
 +
 
 +
* accuracy : 정확도
  
 
== 참고 문헌 ==
 
== 참고 문헌 ==

2018년 8월 10일 (금) 11:11 판

Keras를 정리 한다.

Model

Activation

Loss

  • categorical_crossentropy : 분류시 사용
  • mse : 값 예측시 사용
model.compile(loss='categorical_crossentropy', optimizer=sgd(lr=0.01, momentum=0.9), metrics=['accuracy'])
model.compile(loss='mse', optimizer=sgd(lr=0.01, momentum=0.9), metrics=['accuracy'])

Optimizer

  • sgd (확률적 경사 하강법)
  • 학습률 (LR, Learning Rate) : 0.1, 0.01
from keras.optimizers import sgd

model.compile(loss='mse', optimizer=sgd(lr=0.01, momentum=0.9), metrics=['accuracy'])
  • rmsprop
  • adagrad
  • adadelta
  • adam
  • adamax
  • nadam

Metrics

  • accuracy : 정확도

참고 문헌