본문 바로가기

MachineLearning10

[Deeplearning] 경사하강법 (Gradient Descent) 경사하강법 (Gradient Descent) 경사하강법(Gradient Descent)은 딥러닝에서 가장 기본적인 최적화 방법 중 하나입니다. 이 방법은 손실 함수(Loss Function)을 최소화하는 파라미터(Weight)를 찾기 위한 방법으로, 학습률(learning rate)과 반복 횟수(iteration)를 조절하여 최적의 파라미터를 찾아냅니다. 경사하강법은 크게 두 가지 방법으로 나뉩니다. 첫 번째는 Batch Gradient Descent 방법으로, 전체 데이터셋을 한번에 학습시키는 방법입니다. 이 방법은 속도가 느리지만 정확한 결과를 얻을 수 있습니다. 두 번째는 Stochastic Gradient Descent 방법으로, 데이터셋 중에서 랜덤으로 하나의 데이터만 선택하여 학습시키는 방법입.. 2023. 3. 6.
[Deeplearning] 손실함수 (Loss Function) 손실함수 (Loss Function) 손실함수란? 손실함수는 딥러닝 모델의 학습 과정에서 모델의 예측값과 실제값의 차이를 계산하여 모델의 성능을 평가하는 함수입니다. 즉, 모델이 예측한 값과 실제 값 사이의 오차를 측정하는 지표로 사용됩니다. 손실함수의 종류 손실함수는 딥러닝 모델의 종류와 문제에 따라 다양한 종류가 존재합니다. 일반적으로 회귀 문제에는 평균 제곱 오차(MSE) 함수가 사용되고, 분류 문제에는 교차 엔트로피(Cross-Entropy) 함수가 사용됩니다. 평균 제곱 오차 (MSE) 평균 제곱 오차는 회귀 문제에서 가장 기본적으로 사용되는 손실함수입니다. 모델이 예측한 값과 실제 값의 차이를 제곱하여 평균을 구합니다. 이 값이 작을수록 모델의 성능이 좋다고 판단됩니다. 교차 엔트로피 (Cro.. 2023. 3. 6.
[sklearn] accuracy_score sklearn accuracy_score accuracy_score 함수는 sklearn 라이브러리에서 제공되며, 분류 모델의 예측 결과와 실제 결과를 비교하여 정확도를 계산하는 함수입니다. 이 함수는 두 개의 인자를 받습니다. 첫 번째 인자는 실제 결과값, 두 번째 인자는 예측 결과값입니다. 이 두 인자는 모두 같은 길이의 배열이어야 합니다. accuracy_score 함수는 이렇게 계산된 정확도 값을 반환합니다. 정확도는 0에서 1 사이의 값으로 나타나며, 1에 가까울수록 모델이 정확하게 예측한 것입니다. 예를 들어, 다음과 같이 사용할 수 있습니다. from sklearn.metrics import accuracy_score y_true = [0, 1, 2, 3, 4] y_pred = [0, 2, .. 2023. 3. 6.
[교차검증] cross_validate() 여러 개의 평가지표를 사용하고 싶을 때 사용 cross_validate() cross_validate()는 Scikit-learn 라이브러리에서 제공하는 cross-validation(교차 검증) 기능의 한 가지 방법입니다. 이 함수를 사용하면 데이터셋을 여러 개의 fold(겹)로 나누어 각각의 fold를 테스트셋으로 사용하고 나머지 fold를 학습셋으로 사용하여 모델을 학습시키고 평가하는 과정을 반복할 수 있습니다. 함수 구문 cross_validate(estimator, X, y=None, groups=None, scoring=None, n_jobs=None, cv=None, verbose=0, fit_params=None, pre_dispatch='2*n_jobs', return_train_scor.. 2023. 2. 27.