본문 바로가기
728x90
반응형
SMALL

SOFTMAX6

신경망을 위한 X 및 Y 생성 분류 신경망을 위한 X 및 Y 생성 이제 x와 y를 생성할 수 있다. 이것이 분류 문제에 대해 y를 생성하는 방법이다. 회귀는 더미를 사용하지 않으며 대상의 숫자 값을 인코딩한다. # Convert to numpy − Classification x_columns = df.columns.drop('product').drop('id') x = df[x_columns].values dummies = pd.get_dummies(df['product']) # Classification products = dummies.columns y = dummies.values x와 y 행렬을 표시할 수 있다. print(x) print(y) [[5.08760000e+04 1.31000000e+01 1.00000000e+00.. 2023. 11. 7.
[Deep Learning] 활성화 함수 구현 Sigmoid import numpy as np def sigmoid(x): return 1/(1+np.exp(-x)) sigmoid(4) 0.9820137900379085 import matplotlib.pyplot as plt x = np.arange(-10, 10, 0.01) y = sigmoid(x) plt.plot(x, y) ReLU def relu(x): return np.maximum(0, x) x = np.arange(-10, 10, 0.01) y = relu(x) plt.plot(x, y) Softmax def origin_softmax(x): f_x = np.exp(x) / np.sum(np.exp(x)) return f_x x = np.array([1.3, 5.1, 2.2, 0.7, .. 2022. 11. 17.
[PyTorch] 활성화 함수 : Non-linear Activations (weighted sum, nonlinearity) Sigmoid (0 ~ 1) import torchimport matplotlib.pyplot as pltx = torch.linspace(-10, 10, 100)y = torch.sigmoid(x)print(x)print(y)tensor([-10.0000, -9.7980, -9.5960, -9.3939, -9.1919, -8.9899, -8.7879, -8.5859, -8.3838, -8.1818, -7.9798, -7.7778, -7.5758, -7.3737, -7.1717, -6.9697, -6.7677, -6.5657, -6.3636, -6.1616, -5.9596, -5.7576, -5.5556, -5.3535, -.. 2022. 9. 24.
Object Detection (객체 탐지) Object Detection (객체 탐지) Object Detection은 이미지나 비디오 내의 자동차, 사람, 동물, 물건 등의 위치와 종류를 알아내는 것을 Object Detection이라고 한다. Object Detection은 2012년 이전에는 모두 영상 처리 알고리즘으로 해결했으나, 2012년 AlexNet이 나타나고 부터는 딥러닝을 활용하여 문제를 처리하고 있다. Object Detection = Object Classification + Object Localization = Object Classification with Localization Object Classification using softmax 이미지에서 물체를 예측하기 위해서는 이미지를 ConvNet에 넣어주고, 출력 층.. 2022. 9. 3.
[AI] Feed Forward ∙ One Hot Encoding ∙ Softmax Feed Forward 신경망의 입력층 (input layer)으로 데이터가 입력되고, 1개 이상으로 구성되는 은닉층 (hidden layer)을 거쳐서 출력층(output layer)으로 출력 값을 내보내는 과정이다. import numpy as np # 활성화함수 sigmoid def sigmoid(x): return 1 / (1 + np.exp(-x)) input_data = np.array([1, 2]) # 입력데이터 target_data = np.array([1]) # 정답데이터 input_nodes = 2 # 입력노드 hidden_nodes = 3 # 은닉노드 output_nodes = 1 # 출력노드 W2 = np.random.rand(input_nodes, hidden_nodes) b2 =.. 2022. 7. 17.
[Deep Learning] 활성화 함수 (Activation Function) (2) PReLU(Parametric Rectified Linear Unit) leaky ReLU와 거의 유사한 형태를 보인다. leaky ReLU에서는 알파 값이 고정된 상수였다면 PReLU에서는 학습이 가능한 파라미터로 설정된다. ThresholdReLU (Thresold Rectified Linear Unit) ReLU와 거의 유사한 형태를 보이며 ReLU가 0 이하의 입력 값에 대해 0을 출력했다면 ThresoldReLU는 그 경계값을 설정할 수 있다. 1을 기본값으로 설정한다. Softplus ReLU 함수를 부드럽게 깎아놓은 형태를 취한다. 미분 함수가 sigmoid 함수가 된다. Softmax Softmax는 출력 값이 0~1 사이로 정규화되며, 모든 출력 값의 총합이 항상 1이 되는 특성을 가진 .. 2022. 1. 3.
728x90
반응형
LIST