Keras 문서 원본 보기
←
Keras
둘러보기로 가기
검색하러 가기
문서 편집 권한이 없습니다. 다음 이유를 확인해주세요:
요청한 명령은 다음 권한을 가진 사용자에게 제한됩니다:
사용자
.
이 문서는 편집하거나 다른 명령을 할 수 없도록 보호되어 있습니다.
문서의 원본을 보거나 복사할 수 있습니다.
[[Tensorflow]], [[Theano]], [[CNTK]] 등을 사용하기 편하게 해주는 Keras를 정리 한다. == Model == === Layer === from keras.models import Sequential model = Sequential() ==== Dense ==== from keras.layers import Dense model.add(Dense(units=128, activation='relu', input_shape=(x_train.shape[1], ))) model.add(Dense(units=1)) === Activation === 은닉층에서 사용하는 Activation * relu * linear. 계산된 값을 그대로 출력으로 보냄 출력층에서 사용하는 Activation * sigmoid. 이진 분류 * softmax. 다중 분류 === Loss === * categorical_crossentropy : 분류시 사용 * mse : 값 예측시 사용 model.compile(loss='categorical_crossentropy', optimizer=sgd(lr=0.01, momentum=0.9), metrics=['accuracy']) model.compile(loss='mse', optimizer=sgd(lr=0.01, momentum=0.9), metrics=['accuracy']) 사용자 정의 loss 함수 지정 import numpy as np import tensorflow as tf def ml_mean_squared_error(y, pred): return tf.sqrt(np.mean(tf.square(y - pred), axis=-1)) model.compile(loss=ml_mean_squared_error, optimizer=Adam(lr=0.01), metrics=['accuracy']) === Optimizer === * sgd (확률적 경사 하강법) :* 학습률 (LR, Learning Rate) : 0.1, 0.01 :* momentum : 학습률 값을 고정하고 모멘텀 항으로 매개변수의 변경값을 조정 :* nesterov : True. 순수한 momentum을 약간 변형함 from keras.optimizers import SGD model.compile(loss='mse', optimizer=SGD(lr=0.1, momentum=0.9, nesterov=True), metrics=['accuracy']) * adagrad : 학습률을 조정하며 학습 from keras.optimizers import Adagrad model.compile(loss='mse', optimizer=Adagrad(lr=0.01, epsilon=1e-6), metrics=['accuracy']) * adadelta : adagrad을 보완 from keras.optimizers import Adadelta model.compile(loss='mse', optimizer=Adadelta(rho=0.95), metrics=['accuracy']) * rmsprop : adagrad을 보완 from keras.optimizers import RMSprop model.compile(loss='mse', optimizer=RMSprop(lr=0.001, rho=0.9, epsilon=1e-08, decay=0.0), metrics=['accuracy']) * adam : 값을 예측할 경우 사용 from keras.optimizers import Adam model.compile(loss='mse', optimizer=Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-08, decay=0.0), metrics=['accuracy']) * adamax * nadam 참고 문헌 * [http://forensics.tistory.com/28 학습률 설정, 2018.01] === Metrics === * accuracy : 정확도 == Predict == == 사용자 매뉴얼 == === 사용 라이브러리 지정 === "c:/사용자/{사용자_이름}/.keras/keras.json" 파일에서 backend를 지정 한다. * backend : tensorflow, theano, cntk { "backend": "tensorflow", "image_data_format": "channels_last", "floatx": "float32", "epsilon": 1e-07 } === Device 지정 === Device 목록 확인 from tensorflow.python.client import device_lib print(device_lib.list_local_devices()) Device 사용 지정 import keras.backend.tensorflow_backend with tensorflow_backend .tf.device('/gpu:0'): #--- Keras 코드 == Trouble Shooting == == 용어 사전 == * Machine Learning * Deep Learning * Layer * Activation : 활성화 함수 * Loss : 손실 함수 * Optimizer : 최적화 함수 == 참고 문헌 == * [[Python]] [[Category:BigData|Category:BigData]] [[Category:오픈소스|Category:오픈소스]] [[Category:Cloud|Category:Cloud]]
Keras
문서로 돌아갑니다.
둘러보기 메뉴
개인 도구
로그인
이름공간
문서
토론
변수
보기
읽기
원본 보기
역사 보기
더 보기
검색
주요 메뉴
오픈소스 컨설팅
오픈소스
오픈소스 라이선스
오픈소스 커뮤니티
오픈소스 종류
오픈소스 현황
오픈소스 한글화
문자셋과 인코딩
Storage
Network
보안
고가용성
모니터링
오픈 API
오픈 서비스
Cloud
BigData
Android
산사랑 노트
둘러보기
인기 문서
최근 수정 문서
모든 문서
모든 분류
임의 문서
위키 사용법
자매 사이트
CMS
오비컨 홈페이지
오비컨 CMS
블로그
데모 - SuiteCRM
산사랑의 Twitter
산사랑의 Facebook
친구 사이트
공개SW 포털
OLIS
한국공개소프트웨어협회
AppCenter 지원본부
OLC
PSEG
개발자 블로그
블로터
개인 메뉴
메뉴 수정
양식함
도구
여기를 가리키는 문서
가리키는 글의 최근 바뀜
특수 문서 목록
문서 정보