"Keras"의 두 판 사이의 차이
둘러보기로 가기
검색하러 가기
잔글 (→Activation) |
잔글 (→Optimizer) |
||
24번째 줄: | 24번째 줄: | ||
* sgd (확률적 경사 하강법) | * sgd (확률적 경사 하강법) | ||
:* 학습률 (LR, Learning Rate) : 0.1, 0.01 | :* 학습률 (LR, Learning Rate) : 0.1, 0.01 | ||
− | from keras.optimizers import | + | from keras.optimizers import SGD |
− | model.compile(loss='mse', optimizer= | + | model.compile(loss='mse', optimizer=SGD(lr=0.01, momentum=0.9), metrics=['accuracy']) |
* rmsprop | * rmsprop | ||
* adagrad | * adagrad |
2018년 8월 10일 (금) 11:15 판
Keras를 정리 한다.
Model
Activation
은닉층에서 사용하는 Activation
- relu
- linear. 계산된 값을 그대로 출력으로 보냄
출력층에서 사용하는 Activation
- sigmoid. 이진 분류
- softmax. 다중 분류
Loss
- categorical_crossentropy : 분류시 사용
- mse : 값 예측시 사용
model.compile(loss='categorical_crossentropy', optimizer=sgd(lr=0.01, momentum=0.9), metrics=['accuracy']) model.compile(loss='mse', optimizer=sgd(lr=0.01, momentum=0.9), metrics=['accuracy'])
Optimizer
- sgd (확률적 경사 하강법)
- 학습률 (LR, Learning Rate) : 0.1, 0.01
from keras.optimizers import SGD model.compile(loss='mse', optimizer=SGD(lr=0.01, momentum=0.9), metrics=['accuracy'])
- rmsprop
- adagrad
- adadelta
- adam
- adamax
- nadam
Metrics
- accuracy : 정확도