728x90 [파이썬 Projects]/<파이썬 머신러닝>92 [머신러닝] 차원 축소 - SVD 차원 축소란? [머신러닝] 차원 축소(Dimension Reduction)차원 축소(Dimension Reduction)차원 축소의 중요한 의미는차원 축소를 통해 좀 더 데이터를 잘 설명할 수 있는잠재적인 요소를 추출하는 데 있다.차원 축소: 매우 많은 피처로 구성된 다차원 데이터puppy-foot-it.tistory.comSVD(Singular Value Decompostion, 특이값 분해) [PCA vs SVD]PCA: 정방행렬만을 고유벡터로 분해SVD: 정방행렬 뿐 아니라 행과 열의 크기가 다른 행렬에도 적용 가능여기에서 각 행렬은 다음과 같은 성질을 가진다. U는 m × m 크기를 가지는 유니터리 행렬이다. Σ는 m × n 크기를 가지며, 대각선상에 있는 원소의 값은 음수가 아니며 나머지 원소의.. 2024. 10. 24. [머신러닝] 차원 축소 - NMF 차원 축소란? [머신러닝] 차원 축소(Dimension Reduction)차원 축소(Dimension Reduction)차원 축소의 중요한 의미는차원 축소를 통해 좀 더 데이터를 잘 설명할 수 있는잠재적인 요소를 추출하는 데 있다.차원 축소: 매우 많은 피처로 구성된 다차원 데이터puppy-foot-it.tistory.comNMF(Non-Negative Matrix Factorization, 비음수 행렬 분해) 비음수 행렬 분해(Non-negative matrix factorization, NMF)는 음수를 포함하지 않은 행렬 V를 음수를 포함하지 않은 행렬 W와 H의 곱으로 분해하는 알고리즘이다. 행렬이 음수를 포함하지 않는 성질은 분해 결과 행렬을 찾기 쉽게 만든다. 일반적으로 행렬 분해는 정확한 해.. 2024. 10. 24. [머신러닝] 차원 축소 - LDA 차원 축소란? [머신러닝] 차원 축소(Dimension Reduction)차원 축소(Dimension Reduction)차원 축소의 중요한 의미는차원 축소를 통해 좀 더 데이터를 잘 설명할 수 있는잠재적인 요소를 추출하는 데 있다.차원 축소: 매우 많은 피처로 구성된 다차원 데이터puppy-foot-it.tistory.comLDA(Linear Discriminant Analysis, 선형 판별 분석) [PCA vs LDA]- LDA는 PCA와 유사하게 입력 데이터 세트를 저차원 공간에 투영해 차원을 축소하는 기법이지만, 중요한 차이는 LDA는 지도학습의 분류(Classification)에서 사용하기 쉽도로 개별 클래스를 분별할 수 있는 기준을 최대한 유지하면서 차원을 축소한다.- PCA는 입력 데이터의 .. 2024. 10. 24. [머신러닝] 차원 축소 - PCA 차원 축소란? [머신러닝] 차원 축소(Dimension Reduction)차원 축소(Dimension Reduction)차원 축소의 중요한 의미는차원 축소를 통해 좀 더 데이터를 잘 설명할 수 있는잠재적인 요소를 추출하는 데 있다.차원 축소: 매우 많은 피처로 구성된 다차원 데이터puppy-foot-it.tistory.comPCA(Principal Component Analysis, 주성분 분석)주성분 분석(PCA)은 원본 데이터의 피처 개수에 비해매우 작은 주성분으로 원본 데이터의 총 변동성을 대부분 설명할 수 있는 분석법이다. PCA는 대표적인 차원 축소 기법이며, 여러 변수 간에 존재하는 상관관계를 이용해 이를 대표하는 주성분을 추출해 차원을 축소하는 기법이며, PCA는 입력 데이터의 변동성이 가장.. 2024. 10. 24. [머신러닝] 차원 축소(Dimension Reduction) 머신러닝 기반 분석 모형 선정 [머신러닝] 머신러닝 기반 분석 모형 선정머신러닝 기반 분석 모형 선정 지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레이블(Label)이 포함되어 있는 학습 데이터를 통해 컴퓨터를 학습시키는 방법(puppy-foot-it.tistory.com차원 축소(Dimension Reduction)차원 축소의 중요한 의미는차원 축소를 통해 좀 더 데이터를 잘 설명할 수 있는잠재적인 요소를 추출하는 데 있다.차원 축소: 매우 많은 피처로 구성된 다차원 데이터 세트의 차원을 축소해 새로운 차원의 데이터를 생성하는 것.일반적으로 차원이 증가할수록 데이터 포인트 간의 거리가 기하급수적으로 멀어지게 되고, 희소한 구조를 가지게 되며 피처가 많을.. 2024. 10. 24. [머신러닝] 회귀 - 캐글 주택 가격 회귀 관련 내용[머신러닝] 회귀(Regression)[머신러닝]경사 하강법(GD, gradient descent)[머신러닝] 회귀 - LinearRegression 클래스[머신러닝] 회귀 - 다항 회귀와 과대(과소) 적합[머신러닝] 회귀 - 규제 선형 모델: 릿지, 라쏘, 엘라스틱넷[머신러닝] 로지스틱 회귀[머신러닝] 회귀 트리캐글 주택 가격 실습 (고급 회귀 기법) 이번에는 캐글에서 제공하는캐글 주택 가격: 고급 회귀 기법(House Prices: Advanced Regression Techniques) 데이터 세트를 이용해 회귀 분석을 더 심층적으로 학습해 본다.캐글(하단 링크)에 접속하여 해당 실습의 데이터 (train.csv)를 다운 받는다. (로그인 및 경쟁 규칙 동의 필요) House Pric.. 2024. 10. 23. [머신러닝] 회귀 - 자전거 대여 수요 예측 회귀 관련 내용[머신러닝] 회귀(Regression)[머신러닝]경사 하강법(GD, gradient descent)[머신러닝] 회귀 - LinearRegression 클래스[머신러닝] 회귀 - 다항 회귀와 과대(과소) 적합[머신러닝] 회귀 - 규제 선형 모델: 릿지, 라쏘, 엘라스틱넷[머신러닝] 로지스틱 회귀[머신러닝] 회귀 트리자전거 대여 수요 예측 실습 캐글의 자전거 대여 수요 예측 경연에서 사용된 학습 데이터 세트를 이용해 선형 회귀와 트리 기반 회귀 비교 [Bike Sharing Demand] 자전거 수요 예측 데이터 분석Explore and run machine learning code with Kaggle Notebooks | Using data from Bike Sharing Demandwww.. 2024. 10. 23. [머신러닝] 회귀 트리 이전 내용 [머신러닝] 로지스틱 회귀이전 내용 [머신러닝] 회귀 - 규제 선형 모델: 릿지, 라쏘, 엘라스틱넷이전 내용 [머신러닝] 회귀 - 다항 회귀와 과대(과소) 적합이전 내용 [머신러닝] 회귀 - LinearRegression 클래스사이킷런 LinearRegpuppy-foot-it.tistory.com회귀 트리 트리 기반의 회귀는 회귀 트리를 이용하는 것인데, 회귀를 위한 트리를 생성하고 이를 기반으로 회귀 예측을 하는 것이다. [분류 트리와 회귀 트리의 차이]분류 트리와 회귀 트리는 모두 기계 학습의 다양한 유형의 예측 작업에 사용되는 의사 결정 트리 유형이며, 주요 차이점은 다음과 같다.1.출력 유형:분류 트리: 범주형 출력에 사용. 목표는 데이터를 사전 정의된 카테고리 또는 클래스로 분류하는 .. 2024. 10. 23. [머신러닝] 로지스틱 회귀 이전 내용 [머신러닝] 회귀 - 규제 선형 모델: 릿지, 라쏘, 엘라스틱넷이전 내용 [머신러닝] 회귀 - 다항 회귀와 과대(과소) 적합이전 내용 [머신러닝] 회귀 - LinearRegression 클래스사이킷런 LinearRegression scikit-learn: machine learning in Python — scikit-learn 1.5.2 documentationCopuppy-foot-it.tistory.com로지스틱 회귀 로지스틱 회귀는 선형 회귀 방식을 분류에 적용한 알고리즘으로, 분류에 사용된다.회귀는 가중치 변수가 선형 인지 아닌지에 따라 선형 또는 비선형으로 나뉜다.로지스틱 회귀가 선형 회귀와 다른 점은 학습을 통해 선형 함수의 회귀 최적선을 찾는 게 아니라 시그모이드 함수 최적선.. 2024. 10. 23. [머신러닝] 회귀 - 규제 선형 모델: 릿지, 라쏘, 엘라스틱넷 이전 내용 [머신러닝] 회귀 - 다항 회귀와 과대(과소) 적합이전 내용 [머신러닝] 회귀 - LinearRegression 클래스사이킷런 LinearRegression scikit-learn: machine learning in Python — scikit-learn 1.5.2 documentationComparing, validating and choosing parameters and models. Applications: Improvepuppy-foot-it.tistory.com규제 선형 모델 좋은 머신러닝 회귀 모델은 적절히 데이터에 적합하면서도 회귀 계수가 기하급수적으로 커지는 것을 제어할 수 있어야 한다. 이전까지 선형 모델의 비용 함수는 실제 값과 예측값의 차이 (RSS)를 최소화하는 것.. 2024. 10. 22. [머신러닝] 회귀 - 다항 회귀와 과대(과소) 적합 이전 내용 [머신러닝] 회귀 - LinearRegression 클래스사이킷런 LinearRegression scikit-learn: machine learning in Python — scikit-learn 1.5.2 documentationComparing, validating and choosing parameters and models. Applications: Improved accuracy via parameter tuning. Algorithms: Grid search, cross vpuppy-foot-it.tistory.com다항 회귀 이해 - 다항 (Polynomial) 회귀: 회귀가 독립변수의 단항식이 아닌 2차, 3차 방정식과 같은 다항식으로 표현되는 것. 회귀에서 선형 회귀/비선형.. 2024. 10. 22. [머신러닝] 회귀 - LinearRegression 클래스 사이킷런 LinearRegression scikit-learn: machine learning in Python — scikit-learn 1.5.2 documentationComparing, validating and choosing parameters and models. Applications: Improved accuracy via parameter tuning. Algorithms: Grid search, cross validation, metrics, and more...scikit-learn.org LinearRegression 클래스는 예측값과 실제 값의 RSS(Residual Sum of Squares)를 최소화해 OLS(Ordinary Least Squares) 추정 방식으로 구현한.. 2024. 10. 21. [머신러닝] 경사 하강법(GD, gradient descent) 경사하강법 경사하강법(GD, gradient descent)은 여러 종류의 문제에서 최적의 해법을 찾을 수 있는 일반적인 최적화 알고리즘이다. 경사 하강법의 기본 아이디어는 비용 함수를 최소화하기 위해 반복해서 파라미터를 조정해 가는 것이다.파라미터 벡터에 대해 비용 함수의 현재 그레이디언트를 계산하고 그 그레이디언트가 감소하는 방향으로 진행한다. 이 그레이디언트가 0이 되면 최소값에 도달한 것이다. 머신러닝 회귀 알고리즘은 데이터를 계속 학습하면서 비용 함수가 반환하는 오류 값을 지속해서 감소시키고 최종적으로는 더 이상 감소하지 않는 최소의 오류 값을 구하는 것인데, 어떻게 비용 함수가 최소가 되는 W 파라미터를 구할 수 있을까?★ W 파라미터 (Weight) : 가중치 W 파라미터의 개수가 적다면 고.. 2024. 9. 22. [머신러닝] 회귀(Regression) 머신러닝 기반 분석 모형 선정 [머신러닝] 머신러닝 기반 분석 모형 선정머신러닝 기반 분석 모형 선정 지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레이블(Label)이 포함되어 있는 학습 데이터를 통해 컴퓨터를 학습시키는 방법(puppy-foot-it.tistory.com회귀(Regression) 회귀 분석은 데이터 값이 평균과 같은 일정한 값으로 돌아가려는 경향을 이용한 통계학 기법이다.회귀는 여러 개의 독립변수와 한 개의 종속변수 간의 상관관계를 모델링하는 기법을 통칭한다. 예를 들어 집의 방 개수, 방 크기, 주변 학군 등 여러 개의 독립변수에 따라 주택 가격이라는 종속변수가 어떤 관계를 나타내는지를 모델링하고 예측하는 것이다.머신러닝 관점에서 보면.. 2024. 9. 21. [머신러닝] 스태킹 앙상블 앙상블 학습 [머신러닝] 분류 - 앙상블 학습(Ensemble Learning)앙상블 학습(Ensemble Learning) 앙상블 학습을 통한 분류는,여러 개의 분류기를 생성하고 그 예측을 결합함으로써 보다 정확한 최종 예측을 도출하는 기법을 말한다. 앙상블 학습의 목표는,다양한puppy-foot-it.tistory.com스태킹 모델 스태킹(Stacking)은 개별적인 여러 알고리즘을 서로 결합해 예측 결과를 도출한다는 점에서 배깅(Bagging) 및 부스팅(Boosting)과 공통점을 갖고 있으나, 가장 큰 차이점은 개별 알고리즘으로 예측한 데이터를 기반으로 다시 예측을 수행한다는 것이다.- 배깅: 훈련 세트에서 중복을 허용하여 샘플링하는 방식.- 부스팅: 약한 학습기를 여러 개 연결하여 강한 학습기.. 2024. 9. 21. 이전 1 2 3 4 5 6 7 다음 728x90