학교 공부/컴퓨터비전5 밑바닥부터 시작하는 딥러닝 Chapter 4 : 신경망 학습 학습- 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 획득하는 것4.1 데이터에서 학습하다!신경망의 특징- 데이터를 보고 학습할 수 있다. 즉, 가중치 매개변수의 값을 데이터를 보고 자동으로 결정한다기계 학습 - 기계 학습의 중심에는 데이터가 존재한다.- 사람의 개입을 최소화하고 수집한 데이터로부터 패턴을 찾으려 시도한다기계 학습의 접근법- 이미지에서는 특징(feature)을 추출하고 그 특징의 패턴을 기계학습 기술로 학습하는 방법이 있다.- 특징은 입력 데이터(입력 이미지)에서 본질적인 데이터(중요한 데이터)를 정확하게 추출할 수 있도록 설계된 변환기를 가리킨다- 이미지 데이터를 벡터로 변환하고, 변환된 벡터를 가지고 .. 2024. 5. 2. 밑바닥부터 시작하는 딥러닝 Chapter3-2 : 신경망 3.5 출력층 설계하기분류 (classification)- 데이터가 어느 클래스에 속하느냐는 문제이다- 소프트맥스 함수를 사용한다회귀 (regression)- 입력 데이터에 (연속적인) 수치를 예측하는 문제이다- 항등 함수를 사용한다 항등함수 (identity function)- 입력을 그대로 출력한다소프트맥스 함수 (softmax function)- 소프트맥스 함수의 식은 아래와 같다- 하지만 이대로 계산하면 지수함수에서 오버플로가 발생하기 때문에 아래와 같은 식으로 계산해야 오류가 나지 않는다- 이와 같이 계산하면 오버플로를 막을 수 있다import numpy as npdef softmax(a): c=np.ma.. 2024. 5. 2. 밑바닥부터 시작하는 딥러닝 Chapter3-1 : 신경망 3.1 퍼셉트론에서 신경망까지은닉층- 입력층이나 출력층과 달리 사람 눈에는 보이지 않는다 활성화 함수- 위와 같이 입력 신호의 총합을 출력 신호로 변환하는 함수(h(x))를 활성화 함수라고 부른다- 이를 수식과 뉴런으로 표현하면 아래와 같다 뉴턴의 그림- 보통 뉴턴을 그릴 때는 왼쪽과 같고 활성화 처리 과정은 오른쪽과 같다 계단 함수(step function)- 임계값을 경계로 출력이 바뀌는 함수를 계단 함수라고 한다시그모이드 함수(sigmoid funcion) - 신경망에서 자주 이용하는 활성화 함수이다 - 식은 아래와 같다- 신경망에서는 활성화 함수로 시그모이드 함수를 이용하여 신호를 변환하고, 그 변환된 신호를 다음 뉴런에 .. 2024. 5. 1. 밑바닥부터 시작하는 딥러닝 Chapter2 : 퍼셉트론 2-1. 퍼셉트론이란?퍼셉트론- 다수의 신호를 입력으로 받아 하나의 신호를 출력한다- 신호가 흐름을 만들고 정보를 앞으로 전달한다- '흐른다/안 흐른다(1이나 0)'의 두 가지 값을 가질 수 있다※ 신호- 흐름이 있는 것과 같다퍼셉트론 동작원리- 위는 입력으로 2개의 신호를 받은 퍼셉트론의 예로 왼쪽 그림에서의 원은 뉴런 혹은 노드라고 부른다- 오른쪽은 동작원리를 수식으로 표현한 것이다> 입력 신호가 뉴런에 보내질 때 각각 고유한 가중치가 곱해져 이 신호들의 총합이 정해진 한계를 넘어설 때만 1을 출력한다. 이를 '뉴런이 활성화한다'라고 표현한다> 위에서 말한 한계는 임계값이라고 말한다2-2. 단순한 논리 회로AND 게이트- .. 2024. 5. 1. 이전 1 2 다음