분류 전체보기 172

epochs, batch size, iteration

I. epochs - 한번의 epoch는 인공신경망을 전체 데이터셋에 데해 forward pass/backward pass 과정을 거친 상태, 즉, 전체 데이터 셋에 대해 한 번 학습을 완료한 상태를 말한다. - backpropagation : 입력부터 출력까지 각 계층의 weight를 계산하는 과정을 거치는 forward pass를 반대로 거슬러 가면서 다시 한 번 계산 과정을 거처 기존의 weight를 수정하는 backward pass로 나뉜다. 전체 데이터 셋에 (forward + backward pass)과정이 완료 되면 한번의 epoch가 진행 되었다고 볼 수 있다. - epoch =40 이면 전체 데이터 학습을 40번 거친 것으로 보면 된다. - 적절한 epoch값을 설정해야 underfitt..

인공지능(AI) 2020.10.20

Supervised - Random Forest

* Random Forest - Decision Tree의 확장판 - Tree를 여러개를 사용하면 더 성능이 좋아짐 - 다수의 의사결정나무(Decision Tree)를 사용하여 서로 다른 모델을 조합하여 새로운 모델을 만듬 - 앙상블(Ensemble) : 여러가지 모델을 사용하여 정확도를 개선 - 다양성(diverse)과 임의성(random)을 부여 - Overfitting(과적합) 발생 가능성을 줄 일 수 있다. - 예측은 증가하고, 잘못된 예측은 상쇄 역할 * bagging(bootstrap + aggregating) - 기존 데이터를 사용하여 여러개의 train data를 생성 - 서로 다른 train data를 decision tree를 만듬 - Bootstrap 데이터는 기존 데이터에서 단순 복..

인공지능(AI) 2020.10.20

Supervised - Descision Tree

* Supervised Learning(지도 학습) Decision Tree(의사결정 나무) - 2가지 이진 질의의 분류 규칙으로 root node의 질의 결과에 따라 가지를 타고 뻗어 이동하여 leaf까지 도달함. I. 2가지 다 적용 가능함. a. 범주형 자료 : Classification Tree b. 수치형 자료 : Regression Tree II. Rule 기반 의사 결정 Root node : 최상위 노드 Splitting (Branch) : 하위노드로 분리 Decision Node (Parent Node): 2개의 하위 노드로 분리 Leaf(Child Node): 더이상 분리되지 않는 최하위 노드 장점 규칙기반으로 직관적으로 이해 쉽고 설명력이 좋음 - 불순도 기반한 최적 분류 - 분리 과정..

인공지능(AI) 2020.10.19

Supervised - Logistic Regression and Validation

One-Hot Encoding 하나의 값만 True(1), 나머지 값은 False(0) 'bird' -> [1,0,0] 'dog' -> [0,1,0] 'cat' -> [0,0,1] 문자형 변수를 숫자형으로 변환 Scaling(범위) - 다른 변수와의 범위를 비슷하게 맞추기 위한 목적 - ex) X0: 1에서10사이 스케일, X1:1000에서 100만사이 스케일 Nomalization(정규화) - 변수 스케일을 0~10사이 범위로 맞추는것 - X = (X-min(X)) /(max(X)-min(X)) Standardization(표준화) - 변수의 평균을 0, 표준편차를 1로 만들어 정규분포의 특증을 만듬 - 표준화는 가중치(w) 학습으 더 쉽게함. X_stand = (X-mean(X))/std(X) Con..

인공지능(AI) 2020.10.19

Supervised - Logistic Regression - Cross Entropy Error (CEE)

classification 의 validation I. Information Theory(정보이론) - Information Gain(정보 이득량) 자주발생 하지 않는 사건> 자주발생하는 사건 (크다는 것은 정보량이 많다.) I(x) = -log(P(x)) P(x) : 예측값 Entropy(불확실성의 척도) : 불확실성이 클 수록 정보량이 많다.(Error율이 높다) (ex: 해는 항상 뜨지만(자주발생하는 사건), 만약에 해가 안뜬다면(자주발생하지 않는 사건) 거기에서 오는 충격(error율)은 크다) 확률 변수의 평균 정보량(기댓값) a. Engropy = E(-log(p(x))) b. -sum(p(x)*log(p(x))) c. 놀람의 평균 정도 d. 불확실성(entropy)가 낮으면 분류 정확도가 높..

인공지능(AI) 2020.10.19

Supervised - Logistic Regression(확률적 회귀)

0. 지도 학습(supervised Learning) I. classification의 한 종류 Logistic regression output(y)값의 에측이 아닌 어떤 범주에 속하는지에 대한 확률을 모델링 Y: 0또는 1 , Y_hat: 0~1 사이값 '강아지' 이면 1, 아니면 0으로 분류함 예측값은 0.5를 기준으로 0.5~1에 가까우면 '강아지', 0.5~0 사이면 '다르다'로 표현 Y_hat = sigmoid(w*x+b) f(x)=s(wx+b) 이며, w기울기값이 클수록 수직에 가까우며 . b값이 변하면 수평 이동하게 된다. 평가측정 CEE(Cross Entropy Error) 원래 y=1 이고, f(x) 가설이 1일때 cost(1)=0 원래 y=1 이고, f(x) 가설이 0일때 cost(0)..

인공지능(AI) 2020.10.19

Model Validation

* 우리가 만든 함수가 얼마나 적절한가를 측정함. * Modeling 목적 - 일반화된 성능 제공 (일반화는 학습시 사용되지 않은 데이터에서도 비슷한 성능이 나오게 할 것) 여기서 그래프가 맞는 모델을 하기 위해 다차 함수가 필요. 기본적인 데이터로 평가가 힘듬(평가 기준이 없다) model validation : 평가기준을 만든다. |---------------------------------------------------|-------------| TRE TEE(검증 데이터) AI Machine Lerning => supervised (x:input, y:output) y=wx + b w,b : 파라미터 I , Regression(수치 예측) - 성능 측정(error,loss,cost) MSE =>..

인공지능(AI) 2020.10.15

Supervised - Linear Regression - Gradient Descent(경사하강법)

1. Regression ( 수치예측) - error값의 최소값을 찾아 최적의 기울기를 찾음. 평가기준(error=loss=cost 동일 기준 개념(전부 낮아야 함)) y: 실제값, ^y:예측값 cost(loss)손실값 : (y-^y)^2 MSE : mean(y-^y)^2 learning rate(stepsize) 는 w값이 크면 발산할 수 있으므로 조금씩 W값을 이동 시키는 상수 학습원리 gradient decent : w = w-@미분(w) 출처 blog.naver.com/PostView.nhn?blogId=beyondlegend&logNo=221346376413 머신러닝 경사하강법 (Gradient Decent Algorithm) 선형회귀(Regression)에서 가중치 W, 바이어스 b 를 찾는 ..

인공지능(AI) 2020.10.15

AI(Artificial Intellligence) 인공지능

Artificial Intellligence(AI) * 인공장치들의 지능을 설계 및 인간 지능을 모방. * 지능 : 추론,기억,인식,이해,학습 등 현실세계에 적응하기 위한 능력 1차 인공지능(과거) : 수동적 대화 시스템 / 한계점 : 프레임의 문제 발생(고려해야될 사항이 많음) 2차 인공지능(과거) : 전문지식 시스템 활용 / 한계점 : 지식 획득 병목의 문제(표현할 수 없는 범위가 많음) 3차 인공지능(현재) : 빅데이터와 딥러닝 (학습) / * 아기들은 '아빠'라는 소리를 지속적으로 듣고 보면서 학습하며 인식한다. 컴퓨터는 데이터를 디지털화하여 지속적으로 학습시킴으로써 인식하도록 만든다. *인공지능도 학습을 기반(머신러닝) Machine Learning(ML) * Machine(머신) - 함수로 분..

인공지능(AI) 2020.10.14