분류 전체보기 172

신경망에서 과대적합을 방지하기 위한 방법

훈련데이터 더모음 네트워크 용량 감소 (unit(퍼셉트론) 수 조절) 가중치 규제 (L1, L2) 드롭아웃 추가 Dropout : 가중치가 적은 불필요한 퍼셉트론은 사용하지 않게 제한들 두는 옵션 regularization : 정규화이지만 보통 일반화라고 볼 수 있다. 모델 복잡도에 대해 정규화는 overfitting을 방지하고 Generalization(일반화) 성능을 높이는 데 도움을 준다. (방법 : L1, L2, Dropout, Early stooping 등이 있음) regularizer L1 : 실제값과 예측값을 뺀 loss가 음수가 나올 수 있다. 이를 보완하기 위해 절대값을 사용함 regularizer L2 : 또 다른 방법은 실제값과 예측값을 뺀값을 제곱을 하면 음수를 보완할 수 있다. L..

인공지능(AI) 2020.11.06

overfitting

과대적합 모델이 학습될 수록 훈련 데이터에 fit된 모델이 만들어짐 ->훈련 데이터 이외 새로운 데이터(테스트 데이터에는 일반화 성능이 떨어짐 early termination 이후에는 testing error와 training error차이가 크며 testing error는 training step이증가할 수록 testing error가 증가한다. 즉, 학습할 수록 새로운 데이터의 에러율이 증가한다는것 즉, 오버피팅이발생하는것으로 볼 수 있다. 최적화 : 가능한 훈련 데이터 에서 최고 성능을 얻으려고 모델 조정 과정 일반화 : 훈련된 모델이 이전에 보 적없는 데이터에서 얼마나 잘 수행 되는지를 봄 딥러닝은 일반화가 더 중요하다. 과대적합 피한느 과정 더 많은 훈련데이터를 가짐 네트워크 축소 규제(regu..

인공지능(AI) 2020.11.06

성능지표

딥러닝 성능 측정 머신러닝에서 어떠한 문제를 해결하는 시스템 모델 regression - mse -mae -r square (mae 개선) -adjusted r square classification precision-recall roc-auc accuracy log-loss classification(분루) 데이터셋 -test : 실체 정답 되는 데이터셋 predict : 모델이 예측한 결과인 데이터셋 데이터의 종류 positive : 모델을 통해 알아내고 싶은 값 negative : positive 가 아닌 값 모델분류 결과 true : 예측성공 y=y_hat false : 예측실패 y != y_hat 포지티브(우리가 알고싶은 것), 네거티브(아닌것들) 정의 기준 포지티브는 암환자 네거티브는 암이 아..

인공지능(AI) 2020.11.05

keras

파이썬 작성된 오픈 소스 신경망 라이브러리 tensorflow 2.0버전부터 기본 모델 구성으로 채택함. 텐서 : 머신러닝의 기본구성 숫자 데이터를 위한 컨테이너 임의의 차원 개수를 가짐 텐서에서의 차원을 축이라고 부름 축의 개수(rank): 텐서의 차원을 의미 크기 데이터 타입 텐서 사례: 백터 데이터 (sample, features)크기의 2d텐서 첫번째 샘플축, 두번쨰 특성 축 사람의 나이 ,우편번호, 소득으로 구성된 인구 통계 데이터 10만건 (100000, 3) 시계열 데이터(samples, timesteps, features)크기의 3d 텐서 첫번째 샘플축, 두번쨰 순서축, 세번째 특성 축 1분마다 현재 주식 가격, 지난 1분동안에 최고가격, 최소가격,측정한 250일 데이터 (250,390,2..

인공지능(AI) 2020.11.05

강화학습, GAN

RL(reinforce learning)강화학습 액션 : agent가 각 state 에서 취할 수 있는 action(동작) 의 옵션들 특정 state에 있을 때, 특정 actiondㅡㄹ 취하면 얻을 수 있는 reward가 있음 정책 : 특정 상태에서 어떤 행동을 취할 지 정해 놓은 것 value function 을 찾아내는 것이 목표 optimal policy : 목표를 달성하기 위해 모든 state에서 취해야할 적절한 action(행동)이 계산되어 있는 상태 => 강화학습 목표 예) cart-pole balancing, 게임 대부분 강화학습에 적용, 자율주행,지능형 로봇, 주식 거래(대규모지분 매각 시점 찾는데 탁웡ㄹ 투자자 손실을 최소화 및 최적의 이익을 취할 수 있는 가격대) GAN(Generati..

인공지능(AI) 2020.11.03

RNN(Recurrent Neural network), LSTM

딥러닝 모델은 연속적인 데이터가 아닌 현재의 snap shot만을 분석 - 데이터의 순서에 따른 정보를 효과적으로 분석 못함 RNN은 기존 딥러닝 모델에 시간적인 측면을 가미 ( 데이터 순서에 따른 영향도 효과적으로 분석) RNN은 연속적인 데이터를 분석하느데 최적화 된 모델 사용예) 자연어 처리, 문장 처리 주가, 부동산 데이터 처리 이전과거데이터가 지속적으로 있는경우 RNN특징 RNN은 다른 모델과 다르게 은닉층의 출력이 같은 은닉층의 입력으로 들어감 순환되는 RNN 구조를 시간 순서대로 펼친 구조 A(hidden layer)는 동일하며 시간에 따라 새로운input과 output이 생성 RNN을 이용한 모델링 유형 기본구조를 변형하여 다양한 유형의 문제에 적용 one to many -사진->단어들 m..

인공지능(AI) 2020.11.03

Deep Learning (딥러닝)

AI(인공지능) : 학습, 문제 해결, 패턴 인식 등을 인지 문제를 해결하는 융합된 공학분야 1943년에 처음 나옴. Deep Mind : 12명 인공지능 전문가로 구성된 회사를 2014년 1월 구글에서 인수 * 심볼릭 AI(rule based AI) -1950년 ~ 1980년 - 프로그래머에 의해 명시적인 규칙만으로 문제를 해결 하는 접근 방식 - 잘 정의된 논리적인 문제 해결에 적합 (규칙, 데이터)-> 심볼릭AI -> 정답 - 한계 : 문제 더 복잡하고 불분명, 무한대의 규칙 등 쟁점 :컴퓨터가 스스로 처리 가능? 컴퓨터 스스로 데이터를 보고 규칙을 학습가능한가? * 머신러닝(Machine Learning) : 수많은 데이터로부터 기계가 배운다.(1959) 컴퓨터가 명시적인 프로그램이나 규칙 없이도..

인공지능(AI) 2020.11.03

classifier model- 앙상블

* diceision tree 문제점 - overfitting - 학습데이터에만 최적화 - max_depth : 깊이를 조절 - gini : 불순도, (불순도 0이 될 때까지 계속 분기) - gini 계수, 엔트로피 - 컬럼이 많아지면 속도 느려짐 - max_features : 피쳐 갯수를 조절 * 앙상블 모델 - voting : 동일한 데이터셋으로 서로 다른 알고리즘 결합, 다수결로 'a'일 것이다 - bagging : sampling을 통해 여러개의 데이터셋 추출 (bootstrapping 분할 방식) 디시젼 트리를 반복결합 sampling 중복 허용해서 뽑음 예측 후 다수결로 'a'일 것이다라고 뽑음. - boosting : 여러개의 디시젼 트리모델을 춘차적으로 학습 진행 앞서 학습한 모델이 틀리게..

인공지능(AI) 2020.11.03

사설IP, 공인IP 차이

공인IP : 전세계에서 유일하게 하나를 가지는 주소 인터넷상에 접속되어 있는 세계에서 유일하고 고유한 주소 사설IP : 어떤 단일 네트워크안에서만 내부적으로 사용되는 고유한 주소 하나의 네트워크안에서 유일 10.0.0.1 ~ 10.255.255.255.254 192.168.0.1 ~ 192.168.0.254 A class : 10.0.0.1 ~ 126.255.255.255 //로컬, 지역, 국가단위 B class : 127.0.0.1 ~ 191.255.255.255 //회사, 공공기관 단위 C class : 192.168.0.1 ~ 223.255.255.255 // 일반 사설IP로 사용 D class : 224.0.0.0 ~ 239.255.255.255 //멀티캐스팅 용 주소 , 개인 및 단체가 사용할 ..

IT-Infra 2020.10.26