인공지능(AI) 25

Supervised - Logistic Regression(확률적 회귀)

0. 지도 학습(supervised Learning) I. classification의 한 종류 Logistic regression output(y)값의 에측이 아닌 어떤 범주에 속하는지에 대한 확률을 모델링 Y: 0또는 1 , Y_hat: 0~1 사이값 '강아지' 이면 1, 아니면 0으로 분류함 예측값은 0.5를 기준으로 0.5~1에 가까우면 '강아지', 0.5~0 사이면 '다르다'로 표현 Y_hat = sigmoid(w*x+b) f(x)=s(wx+b) 이며, w기울기값이 클수록 수직에 가까우며 . b값이 변하면 수평 이동하게 된다. 평가측정 CEE(Cross Entropy Error) 원래 y=1 이고, f(x) 가설이 1일때 cost(1)=0 원래 y=1 이고, f(x) 가설이 0일때 cost(0)..

인공지능(AI) 2020.10.19

Model Validation

* 우리가 만든 함수가 얼마나 적절한가를 측정함. * Modeling 목적 - 일반화된 성능 제공 (일반화는 학습시 사용되지 않은 데이터에서도 비슷한 성능이 나오게 할 것) 여기서 그래프가 맞는 모델을 하기 위해 다차 함수가 필요. 기본적인 데이터로 평가가 힘듬(평가 기준이 없다) model validation : 평가기준을 만든다. |---------------------------------------------------|-------------| TRE TEE(검증 데이터) AI Machine Lerning => supervised (x:input, y:output) y=wx + b w,b : 파라미터 I , Regression(수치 예측) - 성능 측정(error,loss,cost) MSE =>..

인공지능(AI) 2020.10.15

Supervised - Linear Regression - Gradient Descent(경사하강법)

1. Regression ( 수치예측) - error값의 최소값을 찾아 최적의 기울기를 찾음. 평가기준(error=loss=cost 동일 기준 개념(전부 낮아야 함)) y: 실제값, ^y:예측값 cost(loss)손실값 : (y-^y)^2 MSE : mean(y-^y)^2 learning rate(stepsize) 는 w값이 크면 발산할 수 있으므로 조금씩 W값을 이동 시키는 상수 학습원리 gradient decent : w = w-@미분(w) 출처 blog.naver.com/PostView.nhn?blogId=beyondlegend&logNo=221346376413 머신러닝 경사하강법 (Gradient Decent Algorithm) 선형회귀(Regression)에서 가중치 W, 바이어스 b 를 찾는 ..

인공지능(AI) 2020.10.15

AI(Artificial Intellligence) 인공지능

Artificial Intellligence(AI) * 인공장치들의 지능을 설계 및 인간 지능을 모방. * 지능 : 추론,기억,인식,이해,학습 등 현실세계에 적응하기 위한 능력 1차 인공지능(과거) : 수동적 대화 시스템 / 한계점 : 프레임의 문제 발생(고려해야될 사항이 많음) 2차 인공지능(과거) : 전문지식 시스템 활용 / 한계점 : 지식 획득 병목의 문제(표현할 수 없는 범위가 많음) 3차 인공지능(현재) : 빅데이터와 딥러닝 (학습) / * 아기들은 '아빠'라는 소리를 지속적으로 듣고 보면서 학습하며 인식한다. 컴퓨터는 데이터를 디지털화하여 지속적으로 학습시킴으로써 인식하도록 만든다. *인공지능도 학습을 기반(머신러닝) Machine Learning(ML) * Machine(머신) - 함수로 분..

인공지능(AI) 2020.10.14