관리 메뉴

jisoleil's coding good thing

딥러닝 1일차 본문

AIVLE/5주차

딥러닝 1일차

jisoleil 2023. 2. 28. 00:09

딥러닝 배우기 시작했다!

역시 인공지능 보다 어렵지만 파이팅!

 

  1. Sequential API
  • -선형회귀 (Linear Regression)

y= w 1 · x 1 + w 2 · x 2 + w 3 · x 3 + w 0

w 가중치(연결,엣지)

x Input(노드) ->Input( shape=(3,) )

y Dense(결과) ->Dense( 1 )

*loss function(손실 함수):  어떤 문제에서 머신러닝 알고리즘이 얼마나 엉터리인지 측정하는 기준

-> 낮을 수록 좋다.

회귀에는 loss='mse'

분류에는 loss='binary_crossentropy'

다중분류에는 loss='categorical_crossentropy'

 

  • 로지스틱 회귀 (Logistic Regression)

z = w 1 · x 1 + w 2 · x 2 + w 0

y가 아닌 이유는 분류 이기 때문에 0,1사이의 값이 나타나야 하므로 연속적인 값이 아닌 확률적인 값의 결과가 나와야 하기 때문에 sigmoid(시그모이드) 함수를 사용한다. 

y=1 / (1+e-z)

x Input(노드) ->Input( shape=(3,) )

y Dense(결과) ->Dense( 1, activation=’sigmoid’)

*activation function(활성화 함수): 뉴런의 선형 방정식이 계산 결과에 적용되는 함수를 활성화 함수라고 함

                                                                                                          대표적인 활성화 함수(sigmoid,softmax)

 

  • 멀티 클래스 분류(다중분류)

x Input(노드) ->Input( shape=(3,) )

y Dense(결과) ->Dense( 1, activation=’softmax’)

one-hot encoding

타깃값이 해당 클래스만 1이고 나머지는 모두 0인 배열로 만드는 것(target의 형태를 클래수 수만큼!)

from tensorflow.keras.utils import to_categorical ##라이브러리를 불러온 후
y = to_categorical( y , n ) #n=타켓값의 수

 

 

그냥 넘어갔지만 딥러닝(신경망 알고리즘)에서 중요하게 사용하는 경사하강법

  • 확률적 경사하강법

훈련 세트에서 랜덤하게 하나의 샘플을 고르는 것

*epoch: 훈련세트를 한번 모두 사용하는 과정

  • 미니배치 경사하강법

여러 개의 샘플을 사용해 경사 하강법을 수행하는 방식

  • 배치 경사하강법

극단적으로 한 번 경사로를 따라 이동하기 위해 전체 샘플을 사용하는 방식

 

 

이번 실습은 코랩에서 하게 되었다. 

중요한 한마디 던지며 마무리 해야지

CPU보다는 GPU 선호하자, 그리고 꼭 끄고 자자!

 

처음 배우는 딥러닝 이지만 금방금방 따라가는 것 같다..

이제 진짜 이론도 많이 보면서 공부랑 복습을 따라가야한다..

힘내보자! 파이팅! 해야지!

'AIVLE > 5주차' 카테고리의 다른 글

딥러닝 4일차  (1) 2023.03.06
딥러닝 3일차  (2) 2023.03.03
딥러닝 2일차  (2) 2023.03.02
Comments