TOP
class="layout-aside-left paging-number">
본문 바로가기
728x90

분류 전체보기615

[머신러닝] 군집화: DBSCAN 군집화란? [머신러닝] 군집화 (Clustering)군집화(Clustering) [군집]군집은 비슷한 샘플을 클러스터 또는 비슷한 샘플의 그룹으로 할당하는 작업으로, 데이터 분석, 고객 분류, 추천 시스템, 검색 엔진, 이미지 분할, 준지도 학습, 차원 축소puppy-foot-it.tistory.com이전 내용 [머신러닝] 군집화: GMM군집화란? [머신러닝] 군집화 (Clustering)군집화(Clustering) [군집]군집은 비슷한 샘플을 클러스터 또는 비슷한 샘플의 그룹으로 할당하는 작업으로, 데이터 분석, 고객 분류, 추천 시스템, 검색 엔puppy-foot-it.tistory.comDBSCAN ◆ DBSCAN(Density Based Spatial Clustering of Application.. 2024. 10. 27.
[머신러닝] 군집화: GMM 군집화란? [머신러닝] 군집화 (Clustering)군집화(Clustering) [군집]군집은 비슷한 샘플을 클러스터 또는 비슷한 샘플의 그룹으로 할당하는 작업으로, 데이터 분석, 고객 분류, 추천 시스템, 검색 엔진, 이미지 분할, 준지도 학습, 차원 축소puppy-foot-it.tistory.com이전 내용 [머신러닝] 군집화: 평균 이동군집화란? [머신러닝] 군집화 (Clustering)군집화(Clustering) [군집]군집은 비슷한 샘플을 클러스터 또는 비슷한 샘플의 그룹으로 할당하는 작업으로, 데이터 분석, 고객 분류, 추천 시스템, 검색 엔puppy-foot-it.tistory.comGMM(Gaussian Mixture Model) - GMM 군집화: 군집화를 적용하고자 하는 데이터가 여러 .. 2024. 10. 27.
[머신러닝] 군집화: 평균 이동 군집화란? [머신러닝] 군집화 (Clustering)군집화(Clustering) [군집]군집은 비슷한 샘플을 클러스터 또는 비슷한 샘플의 그룹으로 할당하는 작업으로, 데이터 분석, 고객 분류, 추천 시스템, 검색 엔진, 이미지 분할, 준지도 학습, 차원 축소puppy-foot-it.tistory.com이전 내용 [머신러닝] 군집화: 군집 평가군집화란? [머신러닝] 군집화 (Clustering)군집화(Clustering) [군집]군집은 비슷한 샘플을 클러스터 또는 비슷한 샘플의 그룹으로 할당하는 작업으로, 데이터 분석, 고객 분류, 추천 시스템, 검색 엔puppy-foot-it.tistory.com평균 이동(Mean Shift) 평균 이동 군집화는 데이터의 분포를 이용해 군집 중심점을 찾으며, 이를 위해 .. 2024. 10. 25.
[머신러닝] 군집화: 군집 평가 군집화란? [머신러닝] 군집화 (Clustering)군집화(Clustering) [군집]군집은 비슷한 샘플을 클러스터 또는 비슷한 샘플의 그룹으로 할당하는 작업으로, 데이터 분석, 고객 분류, 추천 시스템, 검색 엔진, 이미지 분할, 준지도 학습, 차원 축소puppy-foot-it.tistory.com이전 내용 [머신러닝] 군집화: k-평균군집화란? [머신러닝] 군집화 (Clustering)군집화(Clustering) [군집]군집은 비슷한 샘플을 클러스터 또는 비슷한 샘플의 그룹으로 할당하는 작업으로, 데이터 분석, 고객 분류, 추천 시스템, 검색 엔puppy-foot-it.tistory.com군집 평가(Clustering Evaluation) 대부분의 군집화 데이터 세트는 비교할 만한 타깃 레이블을 가.. 2024. 10. 25.
[머신러닝] 군집화: k-평균 군집화란? [머신러닝] 군집화 (Clustering)군집화(Clustering) [군집]군집은 비슷한 샘플을 클러스터 또는 비슷한 샘플의 그룹으로 할당하는 작업으로, 데이터 분석, 고객 분류, 추천 시스템, 검색 엔진, 이미지 분할, 준지도 학습, 차원 축소puppy-foot-it.tistory.comk-평균 k-평균은 군집 중심점(centroid)이라는 특정한 임의의 지점을 선택해 해당 중심에 가장 가까운 포인트들을 선택하는 군집화 기법이다. 또한, 반복 몇 번으로 데이터셋을 빠르고 효율적으로 클러스터로 묶을 수 있는 간단한 알고리즘이다.군집 중심점은 선택된 포인트의 평균 지점으로 이동하고 이동된 중심점에서 다시 가까운 포인트를 선택, 다시 중심점을 평균 지점으로 이동하는 프로세스를 반복적으로 수행하며.. 2024. 10. 25.
[머신러닝] 군집화 (Clustering) 머신러닝 기반 분석 모형 선정  [머신러닝] 머신러닝 기반 분석 모형 선정머신러닝 기반 분석 모형 선정   지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레이블(Label)이 포함되어 있는 학습 데이터를 통해 컴퓨터를 학습시키는 방법(puppy-foot-it.tistory.com군집화(Clustering) [군집]군집은 비슷한 샘플을 클러스터 또는 비슷한 샘플의 그룹으로 할당하는 작업으로, 데이터 분석, 고객 분류, 추천 시스템, 검색 엔진, 이미지 분할, 준지도 학습, 차원 축소 등에 사용할 수 있는 도구로서 비지도 학습 방법 중 하나이다. 분류와 마찬가지로 각 샘플은 하나의 그룹에 할당되나, 분류와 달리 군집은 비지도 학습이다.클러스터에 관한 보편적인 정의는.. 2024. 10. 25.
[머신러닝] 차원 축소 - SVD 차원 축소란? [머신러닝] 차원 축소(Dimension Reduction)차원 축소(Dimension Reduction)차원 축소의 중요한 의미는차원 축소를 통해 좀 더 데이터를 잘 설명할 수 있는잠재적인 요소를 추출하는 데 있다.차원 축소: 매우 많은 피처로 구성된 다차원 데이터puppy-foot-it.tistory.comSVD(Singular Value Decompostion, 특이값 분해) [PCA vs SVD]PCA: 정방행렬만을 고유벡터로 분해SVD: 정방행렬 뿐 아니라 행과 열의 크기가 다른 행렬에도 적용 가능여기에서 각 행렬은 다음과 같은 성질을 가진다. U는 m × m 크기를 가지는 유니터리 행렬이다. Σ는 m × n 크기를 가지며, 대각선상에 있는 원소의 값은 음수가 아니며 나머지 원소의.. 2024. 10. 24.
[머신러닝] 차원 축소 - NMF 차원 축소란? [머신러닝] 차원 축소(Dimension Reduction)차원 축소(Dimension Reduction)차원 축소의 중요한 의미는차원 축소를 통해 좀 더 데이터를 잘 설명할 수 있는잠재적인 요소를 추출하는 데 있다.차원 축소: 매우 많은 피처로 구성된 다차원 데이터puppy-foot-it.tistory.comNMF(Non-Negative Matrix Factorization, 비음수 행렬 분해) 비음수 행렬 분해(Non-negative matrix factorization, NMF)는 음수를 포함하지 않은 행렬 V를 음수를 포함하지 않은 행렬 W와 H의 곱으로 분해하는 알고리즘이다. 행렬이 음수를 포함하지 않는 성질은 분해 결과 행렬을 찾기 쉽게 만든다. 일반적으로 행렬 분해는 정확한 해.. 2024. 10. 24.
[머신러닝] 차원 축소 - LDA 차원 축소란? [머신러닝] 차원 축소(Dimension Reduction)차원 축소(Dimension Reduction)차원 축소의 중요한 의미는차원 축소를 통해 좀 더 데이터를 잘 설명할 수 있는잠재적인 요소를 추출하는 데 있다.차원 축소: 매우 많은 피처로 구성된 다차원 데이터puppy-foot-it.tistory.comLDA(Linear Discriminant Analysis, 선형 판별 분석) [PCA vs LDA]- LDA는 PCA와 유사하게 입력 데이터 세트를 저차원 공간에 투영해 차원을 축소하는 기법이지만, 중요한 차이는 LDA는 지도학습의 분류(Classification)에서 사용하기 쉽도로 개별 클래스를 분별할 수 있는 기준을 최대한 유지하면서 차원을 축소한다.- PCA는 입력 데이터의 .. 2024. 10. 24.
[머신러닝] 차원 축소 - PCA 차원 축소란? [머신러닝] 차원 축소(Dimension Reduction)차원 축소(Dimension Reduction)차원 축소의 중요한 의미는차원 축소를 통해 좀 더 데이터를 잘 설명할 수 있는잠재적인 요소를 추출하는 데 있다.차원 축소: 매우 많은 피처로 구성된 다차원 데이터puppy-foot-it.tistory.comPCA(Principal Component Analysis, 주성분 분석)주성분 분석(PCA)은 원본 데이터의 피처 개수에 비해매우 작은 주성분으로 원본 데이터의 총 변동성을 대부분 설명할 수 있는 분석법이다. PCA는 대표적인 차원 축소 기법이며, 여러 변수 간에 존재하는 상관관계를 이용해 이를 대표하는 주성분을 추출해 차원을 축소하는 기법이며, PCA는 입력 데이터의 변동성이 가장.. 2024. 10. 24.
[머신러닝] 차원 축소(Dimension Reduction) 머신러닝 기반 분석 모형 선정  [머신러닝] 머신러닝 기반 분석 모형 선정머신러닝 기반 분석 모형 선정   지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레이블(Label)이 포함되어 있는 학습 데이터를 통해 컴퓨터를 학습시키는 방법(puppy-foot-it.tistory.com차원 축소(Dimension Reduction)차원 축소의 중요한 의미는차원 축소를 통해 좀 더 데이터를 잘 설명할 수 있는잠재적인 요소를 추출하는 데 있다.차원 축소: 매우 많은 피처로 구성된 다차원 데이터 세트의 차원을 축소해 새로운 차원의 데이터를 생성하는 것.일반적으로 차원이 증가할수록 데이터 포인트 간의 거리가 기하급수적으로 멀어지게 되고, 희소한 구조를 가지게 되며 피처가 많을.. 2024. 10. 24.
[머신러닝] 회귀 - 캐글 주택 가격 회귀 관련 내용[머신러닝] 회귀(Regression)[머신러닝]경사 하강법(GD, gradient descent)[머신러닝] 회귀 - LinearRegression 클래스[머신러닝] 회귀 - 다항 회귀와 과대(과소) 적합[머신러닝] 회귀 - 규제 선형 모델: 릿지, 라쏘, 엘라스틱넷[머신러닝] 로지스틱 회귀[머신러닝] 회귀 트리캐글 주택 가격 실습 (고급 회귀 기법) 이번에는 캐글에서 제공하는캐글 주택 가격: 고급 회귀 기법(House Prices: Advanced Regression Techniques) 데이터 세트를 이용해 회귀 분석을 더 심층적으로 학습해 본다.캐글(하단 링크)에 접속하여 해당 실습의 데이터 (train.csv)를 다운 받는다. (로그인 및 경쟁 규칙 동의 필요) House Pric.. 2024. 10. 23.
[머신러닝] 회귀 - 자전거 대여 수요 예측 회귀 관련 내용[머신러닝] 회귀(Regression)[머신러닝]경사 하강법(GD, gradient descent)[머신러닝] 회귀 - LinearRegression 클래스[머신러닝] 회귀 - 다항 회귀와 과대(과소) 적합[머신러닝] 회귀 - 규제 선형 모델: 릿지, 라쏘, 엘라스틱넷[머신러닝] 로지스틱 회귀[머신러닝] 회귀 트리자전거 대여 수요 예측 실습 캐글의 자전거 대여 수요 예측 경연에서 사용된 학습 데이터 세트를 이용해 선형 회귀와 트리 기반 회귀 비교 [Bike Sharing Demand] 자전거 수요 예측 데이터 분석Explore and run machine learning code with Kaggle Notebooks | Using data from Bike Sharing Demandwww.. 2024. 10. 23.
[머신러닝] 회귀 트리 이전 내용 [머신러닝] 로지스틱 회귀이전 내용 [머신러닝] 회귀 - 규제 선형 모델: 릿지, 라쏘, 엘라스틱넷이전 내용 [머신러닝] 회귀 - 다항 회귀와 과대(과소) 적합이전 내용 [머신러닝] 회귀 - LinearRegression 클래스사이킷런 LinearRegpuppy-foot-it.tistory.com회귀 트리 트리 기반의 회귀는 회귀 트리를 이용하는 것인데, 회귀를 위한 트리를 생성하고 이를 기반으로 회귀 예측을 하는 것이다. [분류 트리와 회귀 트리의 차이]분류 트리와 회귀 트리는 모두 기계 학습의 다양한 유형의 예측 작업에 사용되는 의사 결정 트리 유형이며, 주요 차이점은 다음과 같다.1.출력 유형:분류 트리: 범주형 출력에 사용. 목표는 데이터를 사전 정의된 카테고리 또는 클래스로 분류하는 .. 2024. 10. 23.
[머신러닝] 로지스틱 회귀 이전 내용 [머신러닝] 회귀 - 규제 선형 모델: 릿지, 라쏘, 엘라스틱넷이전 내용 [머신러닝] 회귀 - 다항 회귀와 과대(과소) 적합이전 내용 [머신러닝] 회귀 - LinearRegression 클래스사이킷런 LinearRegression   scikit-learn: machine learning in Python — scikit-learn 1.5.2 documentationCopuppy-foot-it.tistory.com로지스틱 회귀 로지스틱 회귀는 선형 회귀 방식을 분류에 적용한 알고리즘으로, 분류에 사용된다.회귀는 가중치 변수가 선형 인지 아닌지에 따라 선형 또는 비선형으로 나뉜다.로지스틱 회귀가 선형 회귀와 다른 점은 학습을 통해 선형 함수의 회귀 최적선을 찾는 게 아니라 시그모이드 함수 최적선.. 2024. 10. 23.
728x90