728x90 선형 회귀7 [머신러닝] 모델 훈련 - 1 머신러닝 모델 훈련 머신러닝 모델이 어떻게 작동하는지 잘 이해하고 있으면 적절한 모델, 올바른 훈련 알고리즘, 작업에 맞는 좋은 하이퍼 파라미터를 빠르게 찾을 수 있다. 또한 디버깅이나 에러를 효율적으로 분석하는 데 도움이 된다. 모델을 훈련시킨다는 것은 모델이 훈련 세트에 가장 잘 맞도록 모델 파라미터를 설정하는 것이며, 이를 위해 먼저 모델이 훈련 데이터에 얼마나 잘 맞는지 측정해야 한다. 이 글에서 언급하는 대부분의 주제는 신경망을 이해하고 구축하고 훈련시키는 데 필수이다. [알아볼 개념]선형 회귀다항 회귀 - 학습 곡선규제가 있는 선형 모델(릿지, 라쏘, 엘라스틱넷, 조기 종료)로지스틱 회귀, 소프트맥스 회귀선형 회귀는 닫힌 형태의 방정식을 사용하여 비용 함수를 최소화하는 파라미터를 계산하거나, .. 2024. 11. 9. [머신러닝] 로지스틱 회귀 이전 내용 [머신러닝] 회귀 - 규제 선형 모델: 릿지, 라쏘, 엘라스틱넷이전 내용 [머신러닝] 회귀 - 다항 회귀와 과대(과소) 적합이전 내용 [머신러닝] 회귀 - LinearRegression 클래스사이킷런 LinearRegression scikit-learn: machine learning in Python — scikit-learn 1.5.2 documentationCopuppy-foot-it.tistory.com로지스틱 회귀 로지스틱 회귀는 선형 회귀 방식을 분류에 적용한 알고리즘으로, 분류에 사용된다.회귀는 가중치 변수가 선형 인지 아닌지에 따라 선형 또는 비선형으로 나뉜다.로지스틱 회귀가 선형 회귀와 다른 점은 학습을 통해 선형 함수의 회귀 최적선을 찾는 게 아니라 시그모이드 함수 최적선.. 2024. 10. 23. [머신러닝] 회귀 - 다항 회귀와 과대(과소) 적합 이전 내용 [머신러닝] 회귀 - LinearRegression 클래스사이킷런 LinearRegression scikit-learn: machine learning in Python — scikit-learn 1.5.2 documentationComparing, validating and choosing parameters and models. Applications: Improved accuracy via parameter tuning. Algorithms: Grid search, cross vpuppy-foot-it.tistory.com다항 회귀 이해 - 다항 (Polynomial) 회귀: 회귀가 독립변수의 단항식이 아닌 2차, 3차 방정식과 같은 다항식으로 표현되는 것. 회귀에서 선형 회귀/비선형.. 2024. 10. 22. [머신러닝] 회귀 - LinearRegression 클래스 사이킷런 LinearRegression scikit-learn: machine learning in Python — scikit-learn 1.5.2 documentationComparing, validating and choosing parameters and models. Applications: Improved accuracy via parameter tuning. Algorithms: Grid search, cross validation, metrics, and more...scikit-learn.org LinearRegression 클래스는 예측값과 실제 값의 RSS(Residual Sum of Squares)를 최소화해 OLS(Ordinary Least Squares) 추정 방식으로 구현한.. 2024. 10. 21. [개발자를 위한 수학] 선형 회귀 - 3 이전 내용 [개발자를 위한 수학] 선형 회귀 - 2이전 내용 [개발자를 위한 수학] 선형회귀 - 1선형 회귀(linear regression) 데이터 과학과 통계학의 핵심인 선형 회귀는 관측 데이터에 맞는 직선을 훈련하고, 이를 통해 변수 간의 선형 관계를 보puppy-foot-it.tistory.com추정 표준 오차 - 제곱 오차 합(Sum of squared error, SSE): 잔차를 제곱하고 합산하는 방식으로 선형 회귀의 전체 오차를 측정하는 방법. - 추정 평균 오차(Standard error of the estimate): 제곱한 값을 제곱근을 사용해 원래 단위로 다시 조정한 뒤, 이 값을 평균한 값.★ n - 2 를 사용하는 것은, 단순 선형 회귀에는 변수가 하나가 아니라 두 개 이기 때.. 2024. 10. 17. [개발자를 위한 수학] 선형 회귀 - 2 이전 내용 [개발자를 위한 수학] 선형회귀 - 1선형 회귀(linear regression) 데이터 과학과 통계학의 핵심인 선형 회귀는 관측 데이터에 맞는 직선을 훈련하고, 이를 통해 변수 간의 선형 관계를 보여주고 새로운 데이터에 대한 예측을 만든다.puppy-foot-it.tistory.com과대적합 및 분산 선형 회귀 외에 제곱 합의 값이 0이 되도록 손실을 최소화하는 방법 중 하나는 단순히 모든 포인트를 지나는 곡선을 찾는 것이다. 포인트 사이를 연결하여 회귀를 수행하면 손실은 0이 된다.그러나 이런 포인트 연결 모델은 심하게 과대적합(overfitting) 되었는데, 즉 훈련 데이터에만 너무 정확하게 맞아서 새로운 데이터에 대해 제대로 예측하지 못한다.이 모델은 다른 데이터에서 멀리 떨어져 있.. 2024. 10. 16. [개발자를 위한 수학] 선형회귀 - 1 선형 회귀(linear regression) 데이터 과학과 통계학의 핵심인 선형 회귀는 관측 데이터에 맞는 직선을 훈련하고, 이를 통해 변수 간의 선형 관계를 보여주고 새로운 데이터에 대한 예측을 만든다. 입력 변수가 하나일 경우 선형 회귀는 직선의 방정식을 훈련하고, 두 개면 평면의 방정식을, 세 개 이상이면 초평면의 방정식을 훈련한다.- 회귀: 관측 데이터에서 어떤 함수를 훈련한 다음 새로운 데이터에 대한 예측을 만드는 방법.기본 선형 회귀 간단한 데이터 셋으로 복잡한 기법을 이해할 수 있으면 복잡한 데이터 없이도 알고리즘의 강점과 한계를 파악할 수 있다. 선형 상관관계가 나타난다는 의미는,변수 중 하나가 증가 (또는 감소)하면 다른 변수도 대략 이에 비례해 증가 (또는 감소) 한다는 것이고, 이.. 2024. 10. 16. 이전 1 다음 728x90