AI/딥러닝4 [딥러닝] Neural Network 심층 신경망(Deep Neural Network, DNN) 심층 신경망(Deep Neural Network, DNN)은 입력층(input layer)과 출력층(output layer) 사이에 여러 개의 은닉층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다. 심층 신경망은 일반적인 인공신경망과 마찬가지로 복잡한 비선형 관계(non-linear relationship)들을 모델링할 수 있다. 예를 들어, 사물 식별 모델을 위한 심층 신경망 구조에서는 각 객체가 이미지 기본 요소들의 계층적 구성으로 표현될 수 있다. 이때, 추가 계층들은 점진적으로 모여진 하위 계층들의 특징들을 규합시킬 수 있다. 심층 신경망의 이러한 특징은, 비슷하게 수행된 인공신.. 2022. 4. 26. [딥러닝] Optimization Colab 환경 실습 Colab Cloud 기반의 JupyterNB 무료 GPU 서버 제공 리눅스 기반 CPU Dual core(2개) Quard core(4개) core는 CPU 개수 GPU GPU로 학습할 때 이점? 속도가 빠르다 ⇒ core 개수가 다름! core 2000개.. 500배 차이까지는 아니지만 병렬적으로 작업하기 때문에 연산량이 많을 때 속도가 빨라서 딥러닝의 경우 GPU로 학습하는 게 좋다. Google Driver에 있는 Dataset은 Cloud 환경에 로드된 데이터셋 Google Driver 임포트 from google.colab import drive mount ⇒ 구글 드라이브에 있는 데이터를 colab으로 mount 해줌경로 지정할 때 content는 colab의 local HOME이다. goo.. 2022. 4. 24. [딥러닝] Backpropagation Optimization loss를 줄여나가는 학습하는 방법을 총칭해서 이르는 말. 최적화 convex function 형태로 (예측값 - 실제값)^2 나타남 loss를 낮추는 방법 = 학습하는 방법 = 하산법 높은 곳에서 낮은 곳으로 내려오는 것 ▪️ Loss-function 우리가 학습 시킨 모델이 얼마나 잘했는지를 정량적으로 수치화하는 것 Loss-function = cost-function = Error Loss function은 하산법으로 치면 고도, 위치를 알아야 어느 방향으로 최적으로 내려갈지 결정할 수 있음, 현재 loss를 바탕으로 가장 가파르게 내려갈 수 있게끔 계산함 ⇒ Backpropagation (미분, 편미분 개념) ▪️ Backpropagation 방법으로 내려가는 optimiz.. 2022. 4. 24. [딥러닝] Computer vision, Classification, Linear Classifier, Loss Function Computer Vision 1959년도 고양이 뇌를 이용한 실험 고양이 뇌에 전자칩을 심어 다양한 피사체를 두어 고양이의 반응을 예측하는 실험 어느 부분을 봤을 때 전자칩 신호가 크게 작동하는지 확인 이미지가 사과일 때 고양이가 어떤 부분을 보고 사과라고 예측했는지 파악하는 것을 확인 Edge 모서리 모서리에서 얻을 수 있는 정보? 피사체의 명암이 변하는 부분이 모서리이기 때문에 영상의 밝기가 높은 것에서 낮은 것으로, 모양(shape), 방향성(direction) 정보 추출. Edge Detection 알고리즘 명암의 밝기 “명암의 기울기(Gradient)” ex) 동전 윤곽선 추출 모서리를 통해서 얻어내는 정보량이 그리 많지 않기 때문에 어느 각도에서 보느냐에 따라 결과 차이가 난다. Convolu.. 2022. 4. 24. 이전 1 다음