시계열 모델링
·
KT AIVLE School/딥러닝
1. 통계적 시계열 모델링y의 이전 시점 데이터들로 부터 흐름의 패턴을 추출하여 예측 2. ML 기반 시계열 모델링특정 시점 데이터들과 예측대상시점과의 관계로부터 패턴을 추출 3. DL 기반 시계열 모델링시간흐름 구간!!  데이터(2차원)들과 예측대상시점과의 관계로 패턴 추출 잔차 분석 : 실제 데이터 - 예측 ( ADF, PACF )잔차가 패턴이 있다면 더 해야할 일이 있다. 백색 잡음에 가깝지 않다면 더 해야할 일이 있다.백색 잡음에 가까우면 잘 된것 3-1. RNN(Recurrent Neural Networks)최근 데이터를 기반으로 예측4,4를 뽑았으면, 4개의 Input가 노드를 지나면 각각의 Hidden state(중간 결과물)이 4개가 나온다.이전 노드를 참고했던 중간 결가물에 input 가..
Functional API 및 다중 입력
·
KT AIVLE School/딥러닝
Sequential API지금까지 진행했던 apiclear_session()model = Sequential([Input(shape = (nfeatures, )), Dense(18, activation = 'relu' ), Dense(4, activation='relu') , Dense(1) ])model.summary() Functional API새로운 apiclear_session()il = Input(shape=(nfeatures, ))hl1 = Dense(18, activation='relu')(il)hl2 = Dense(4, activation='relu')(hl1)ol = Dense(1)(hl..
모델 저장하기
·
KT AIVLE School/딥러닝
1. 파일 위치 설정 from google.colab import drivedrive.mount('/content/drive')  2. 모델 저장하기model1.save('hanky.keras')#/content/hanky.keras 3-1. 모델 불러오기from keras.models import load_modelmodel2 = load_model('hanky.keras') 3-2. 이미지 데이터를 클래스별로 정리한 상태import osimport globimport shutilcwd_path = os.getcwd() + '/'files = glob.glob(cwd_path + 'my_mnist' + '/*')for file in files: label = os.path.basename(file..
적절한 복잡도 찾기
·
KT AIVLE School/딥러닝
모델의 복잡도 : 학습용 데이터의 패턴을 반영하는 정도적절한 복잡도가 있어야하고 보통 eblow method에서 끊는다.1. Epoch와 learning_ratemodel.compile(optimizer=Adam(learning_rate = 0.01), loss = 'mse')model.fit(x_train, y_train, epochs = 50, verbose = False) 2. 모델 구조from tqdm import tqdm 2-1. hidden layer 수def modeling_test1(node) : # 노드 수를 입력 받아 모델 선언 clear_session() model = Sequential([Input(shape = (nfeatures,)), ..
분류모델링
·
KT AIVLE School/딥러닝
이진 분류Output층에 활성화 함수는 Sigmoid함수를 사용한다.0 ~ 1 사이 확률 값으로 변환해주는 역할을 한다. Loss Function으로는 binary_crossentropy를 사용한다.오차들의 평균 계산 1. output 층에 활성화함수는 시그모이드가 필요# 메모리 정리clear_session()# Sequential 모델 만들기model = Sequential( [Input(shape = (nfeatures,)), Dense(50, activation='relu'), Dense(1, activation='sigmoid')])# 모델요약model.summary()  2. 손실 함수는 binary_crossentropymod..
회귀모델링
·
KT AIVLE School/딥러닝
- 머신러닝과 딥러닝의 차이점진행 차이모델링 시에 모델구조 잡기, 컴파일이 포함된다.학습 시에 학습 곡선을 확인이 포함된다. 은닉층은닉층에서 만들어진 원래 변수를 통해 세부적으로 새롭게 표현된 변수를 만든다. (feature Enginnering) 변수들을 추상화한 변수를 생성해서 다시 노드를 만드는 것을 반복적으로 진행한다고 볼 수 있다.  (화장실 수, 방 수, 면적 / 지하철역과 거리, 공원 수) > (외부요소, 내부요소) > 집(타겟)머신러닝 : 사람이 새로운 변수를 만들어 낸다.딥러닝 : 은닉층에서 새로운 변수를 나타낸다 스케일링머신러닝은 선택이다 :  KNN, SVM, K-Means는 거리를 기반으로 하기에 스케일링이 필요하다.딥러닝은 필수이다. : 뒤에 스케일링이 모두 필수이다.Normali..