본문 바로가기

Data_engineering36

[Deeplearning] 경사하강법 (Gradient Descent) 경사하강법 (Gradient Descent) 경사하강법(Gradient Descent)은 딥러닝에서 가장 기본적인 최적화 방법 중 하나입니다. 이 방법은 손실 함수(Loss Function)을 최소화하는 파라미터(Weight)를 찾기 위한 방법으로, 학습률(learning rate)과 반복 횟수(iteration)를 조절하여 최적의 파라미터를 찾아냅니다. 경사하강법은 크게 두 가지 방법으로 나뉩니다. 첫 번째는 Batch Gradient Descent 방법으로, 전체 데이터셋을 한번에 학습시키는 방법입니다. 이 방법은 속도가 느리지만 정확한 결과를 얻을 수 있습니다. 두 번째는 Stochastic Gradient Descent 방법으로, 데이터셋 중에서 랜덤으로 하나의 데이터만 선택하여 학습시키는 방법입.. 2023. 3. 6.
[Deeplearning] 손실함수 (Loss Function) 손실함수 (Loss Function) 손실함수란? 손실함수는 딥러닝 모델의 학습 과정에서 모델의 예측값과 실제값의 차이를 계산하여 모델의 성능을 평가하는 함수입니다. 즉, 모델이 예측한 값과 실제 값 사이의 오차를 측정하는 지표로 사용됩니다. 손실함수의 종류 손실함수는 딥러닝 모델의 종류와 문제에 따라 다양한 종류가 존재합니다. 일반적으로 회귀 문제에는 평균 제곱 오차(MSE) 함수가 사용되고, 분류 문제에는 교차 엔트로피(Cross-Entropy) 함수가 사용됩니다. 평균 제곱 오차 (MSE) 평균 제곱 오차는 회귀 문제에서 가장 기본적으로 사용되는 손실함수입니다. 모델이 예측한 값과 실제 값의 차이를 제곱하여 평균을 구합니다. 이 값이 작을수록 모델의 성능이 좋다고 판단됩니다. 교차 엔트로피 (Cro.. 2023. 3. 6.
[sklearn] accuracy_score sklearn accuracy_score accuracy_score 함수는 sklearn 라이브러리에서 제공되며, 분류 모델의 예측 결과와 실제 결과를 비교하여 정확도를 계산하는 함수입니다. 이 함수는 두 개의 인자를 받습니다. 첫 번째 인자는 실제 결과값, 두 번째 인자는 예측 결과값입니다. 이 두 인자는 모두 같은 길이의 배열이어야 합니다. accuracy_score 함수는 이렇게 계산된 정확도 값을 반환합니다. 정확도는 0에서 1 사이의 값으로 나타나며, 1에 가까울수록 모델이 정확하게 예측한 것입니다. 예를 들어, 다음과 같이 사용할 수 있습니다. from sklearn.metrics import accuracy_score y_true = [0, 1, 2, 3, 4] y_pred = [0, 2, .. 2023. 3. 6.
[Numpy] np.random.choice np.random.choice np.random.choice 함수는 numpy 라이브러리 안에 있는 함수 중 하나로, 주어진 배열에서 무작위로 샘플을 선택할 수 있도록 합니다. 이 함수를 사용하면 데이터 분석, 머신러닝 등에서 랜덤한 샘플링이 필요한 경우 유용하게 사용할 수 있습니다. 사용 방법 np.random.choice 함수를 사용하기 위해서는 numpy 라이브러리를 import 해야 합니다. 함수의 구조는 다음과 같습니다. numpy.random.choice(a, size=None, replace=True, p=None) 여기서 a는 원본 배열, size는 샘플링할 요소의 개수, replace는 중복을 허용할지 여부, p는 각 요소가 선택될 확률을 지정하는 배열입니다. 예시 다음은 np.rando.. 2023. 3. 6.