TOP
class="layout-aside-left paging-number">
본문 바로가기
728x90

전체 글531

[딥러닝] 케라스로 다층 퍼셉트론 구현하기 - 3 인공 신경망 [딥러닝] 인공 신경망(ANN)머신러닝 기반 분석 모형 선정  [머신러닝] 머신러닝 기반 분석 모형 선정머신러닝 기반 분석 모형 선정   지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레puppy-foot-it.tistory.com퍼셉트론(perceptron), 다층 퍼셉트론 (MLP) [딥러닝] 인공 신경망: 퍼셉트론, 다층 퍼셉트론머신러닝 기반 분석 모형 선정 [머신러닝] 머신러닝 기반 분석 모형 선정머신러닝 기반 분석 모형 선정   지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레이puppy-foot-it.tistory.com이전 내용 [딥러닝] 케라스로 다층 퍼셉트론 구현하기 - 2인공 신경망  [딥.. 2024. 11. 20.
[딥러닝] 케라스로 다층 퍼셉트론 구현하기 - 2 인공 신경망  [딥러닝] 인공 신경망(ANN)머신러닝 기반 분석 모형 선정  [머신러닝] 머신러닝 기반 분석 모형 선정머신러닝 기반 분석 모형 선정   지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레puppy-foot-it.tistory.com퍼셉트론(perceptron), 다층 퍼셉트론 (MLP) [딥러닝] 인공 신경망: 퍼셉트론, 다층 퍼셉트론머신러닝 기반 분석 모형 선정 [머신러닝] 머신러닝 기반 분석 모형 선정머신러닝 기반 분석 모형 선정   지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레이puppy-foot-it.tistory.com이전 내용 [딥러닝] 케라스로 다층 퍼셉트론 구현하기 - 1인공 신경망 [딥.. 2024. 11. 20.
[부모일기] #1 부모 될 준비하기 21년 8월 15일 21년 8월 15일. 그녀를 처음 만난 날.일주일? 2주 가까이 연락만 하다가 그녀를 처음 만났다.이미 연락 만으로도 서로가 얘기가 잘 통하고, 호감이 있다는 걸 알았기 때문에 마지막 관문(실제 느낌, 외모)만 통과한다면 굳이 잴 필요는 없었다.맥주 한 캔도 겨우 마시던 그녀는, 처음 날 만난 날 둘이서 청하를 6병 넘게 마셨다.우리는 역시 얘기가 잘 통했고, 심지어 우리는 전화번호 뒷자리가 거꾸로 하면 서로 똑같았다.그녀의 뒷번호가 1234 라면, 나는 4321.사소한 거 하나하나 의미부여를 하며 우리는 운명이라 예감했다.  어렸을 때, 고등학생 시기. 내가 오랫동안 짝사랑하던 사람도 나를 좋아하고 있었다는 걸 뒤늦게 알았을 때, 하지만 바보같이 고백도 못하고 지켜만 보다 놓쳤을 때.. 2024. 11. 20.
[딥러닝] 케라스로 다층 퍼셉트론 구현하기 - 1 인공 신경망 [딥러닝] 인공 신경망(ANN)머신러닝 기반 분석 모형 선정  [머신러닝] 머신러닝 기반 분석 모형 선정머신러닝 기반 분석 모형 선정   지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레puppy-foot-it.tistory.com퍼셉트론(perceptron), 다층 퍼셉트론 (MLP) [딥러닝] 인공 신경망: 퍼셉트론, 다층 퍼셉트론머신러닝 기반 분석 모형 선정 [머신러닝] 머신러닝 기반 분석 모형 선정머신러닝 기반 분석 모형 선정   지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레이puppy-foot-it.tistory.com케라스 케라스는 신경망 구축, 훈련, 평가, 실행을 목적으로 설계된 멋지고 간.. 2024. 11. 19.
[딥러닝] 인공 신경망: 퍼셉트론, 다층 퍼셉트론 머신러닝 기반 분석 모형 선정 [머신러닝] 머신러닝 기반 분석 모형 선정머신러닝 기반 분석 모형 선정   지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레이블(Label)이 포함되어 있는 학습 데이터를 통해 컴퓨터를 학습시키는 방법(puppy-foot-it.tistory.com인공 신경망 [딥러닝] 인공 신경망(ANN)머신러닝 기반 분석 모형 선정  [머신러닝] 머신러닝 기반 분석 모형 선정머신러닝 기반 분석 모형 선정   지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레puppy-foot-it.tistory.com퍼셉트론(perceptron) 퍼셉트론은 가장 간단한 인공 신경망 구조로, TLU 또는 LTU 라고 불리는.. 2024. 11. 19.
[딥러닝] 인공 신경망(ANN) 머신러닝 기반 분석 모형 선정  [머신러닝] 머신러닝 기반 분석 모형 선정머신러닝 기반 분석 모형 선정   지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레이블(Label)이 포함되어 있는 학습 데이터를 통해 컴퓨터를 학습시키는 방법(puppy-foot-it.tistory.com인공 신경망 (ANN; Artificial Neural Network) ◆ 개념뇌에 있는 생물학적 뉴런의 네트워크에서 영감을 받은 머신러닝 모델로, 사람 두뇌의 신경세포인 뉴런이 전기신호를 전달하는 모습을 모방한 기계학습 모델이며, 딥러닝의 핵심이다.인공 신경망은 다재다능하고 강력하고 확장성이 좋아서 아주 복잡한 대규모 머신러닝 문제를 다루는 데 적합하다.입력값을 받아서 출력값을 만들기 .. 2024. 11. 19.
[전세보증금 반환 청구] 명도 증빙 안내 사항 이전 내용  [전세보증금 반환 청구] 이행 청구 심사 완료 안내이전 내용 24년 10월 17일 허그 이행 청구 심사 담당자로부터 서류 보완 안내를 받아,서류를 준비하여 담당자에게 빠른 등기로 보냈었다. [전세보증금 반환 청구] 이행 청구 서류 보완이전 내용 puppy-foot-it.tistory.com24년 11월 19일 - 명도 증빙 안내 어제 허그 관리 센터 명도 담당자님께 오후 6시 넘어서 메일을 보냈음에도, 다음날 오전 10시도 안 되어 메일이 도착해 있었다. 그리고 확인 차 문자로도 상세한 내용을 보내주셨고,메일에 첨부된 한글 파일은 아래의 문자 내용을 보다 더 상세하게 작성한 내용이다.이를 토대로 글을 써보자면,이사 당일에 필요한 명도 증빙자료 및 예시. 1. 임대인에 대한 주택 명도(퇴거) .. 2024. 11. 19.
[전세보증금 반환 청구] 이행 청구 심사 완료 안내 이전 내용 24년 10월 17일 허그 이행 청구 심사 담당자로부터 서류 보완 안내를 받아,서류를 준비하여 담당자에게 빠른 등기로 보냈었다. [전세보증금 반환 청구] 이행 청구 서류 보완이전 내용 [전세보증금 반환 청구]임대보증보험 연장이전 내용  [전세보증금 반환 청구] 주택도시보증공사 이행 청구 (재)접수이전 내용 [전세보증금 반환 청구] 주택도시보증공사 이행 청구puppy-foot-it.tistory.com24년 10월 22일 - 심사 완료 안내 받음! 그로부터 며칠 후, 허그로부터 카톡이 왔다. 드디어! 임대보증금 반환 이행 청구 심사가 완료되었다는 내용이었다!그리고나서 이틀 후 24년 10월 24일 HUG 인천관리센터 명도 담당자로부터 문자를 또 받았다.주요 내용은보증 이행 청구 심사 승인이 완료.. 2024. 11. 18.
[AI 환각 사례] 네이버 AI 검색 Cue 최근 머신러닝 공부를 하다가, 군집에서 최적의 클러스터 k를 찾는 법에 대한 공부를 하다 엘보우 포인트라는 것에 좀 더 명확히 알고 싶어 네이버에서 출시한 Cue: 라는 검색을 활용하면서 겪은 AI 할루시네이션에 관련된 일이다.AI 환각 (할루시네이션)의 개념 인공지능(AI)에서 환각(hallucination,할루시네이션) 또는 인공 환각(artificial hallucination)은 트레이닝 데이터를 통해 판단하지 않는 것처럼 비쳐지는 AI에 의한 확신적 답변이다. 즉, AI 환각 (AI Hallucination)은 OpenAI의 GPT4 또는 Google PaLM과 같은 대규모 언어 모델(LLM)이 실제 데이터나 이벤트에 기반하지 않은 거짓 정보나 사실을 구성하는 것을 말한다. AI 환각 현상은 O.. 2024. 11. 17.
[머신러닝] 군집: 군집 사례 군집화란? [머신러닝] 군집화 (Clustering)군집화(Clustering) [군집]군집은 비슷한 샘플을 클러스터 또는 비슷한 샘플의 그룹으로 할당하는 작업으로, 데이터 분석, 고객 분류, 추천 시스템, 검색 엔진, 이미지 분할, 준지도 학습, 차원 축소puppy-foot-it.tistory.com군집을 사용한 이미지 분할 여기서는 k-평균을 사용하는 간단한 색상 분할 작업에 중점을 둬서 진행해 본다. ◆ 이미지 분할(image segmentation)이미지 분할은 이미지를 여러 개의 세그먼트로 분할하는 작업이다.색상 분할: 동일한 색상을 가진 픽셀을 같은 세그먼트에 할당. 예. 인공위성 사진을 분석하여 한 지역의 전체 산림 면적이 얼마나 되는지 측정시맨틱 분할: 동일한 종류의 물체에 속한 모든 픽셀.. 2024. 11. 16.
[머신러닝] 군집: k-평균 알고리즘 훈련하기 k-평균  [머신러닝] 군집화: k-평균군집화란? [머신러닝] 군집화 (Clustering)군집화(Clustering) [군집]군집은 비슷한 샘플을 클러스터 또는 비슷한 샘플의 그룹으로 할당하는 작업으로, 데이터 분석, 고객 분류, 추천 시스템, 검색 엔puppy-foot-it.tistory.com  k-평균 알고리즘은 클러스터링 알고리즘 중 하나로, 주어진 데이터를 k개의 클러스터로 묶는 방법이며, 이를 위해 먼저 k개의 클러스터 중심(센트로이드)을 무작위로 선정하고, 각 데이터를 그 중 가장 가까운 클러스터 중심에 속하도록 할당한다. 그리고 다시 클러스터 중심을 해당 클러스터에 속하는 데이터들의 평균값으로 재계산하고, 이를 반복하여 더 이상 클러스터 중심이 움직이지 않을 때까지 계속해서 갱신한다. 하.. 2024. 11. 16.
[머신러닝] 머신러닝 기반 분석 모형 선정 머신러닝 기반 분석 모형 선정   지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레이블(Label)이 포함되어 있는 학습 데이터를 통해 컴퓨터를 학습시키는 방법(컴퓨터에 먼저 정보를 가르치는 방법.)설명변수와 목적변수 간의 관계성을 표현해내거나 미래 관측을 예측해 내는 것에 초점주로 인식, 분류, 진단, 예측 등의 문제 해결에 적합분석하고자 하는 목적변수의 형태가 수치형인가 범주형인가에 따라 분류와 수치예측 방법으로 다시 나눔로지스틱 회귀, 인공신경망 분석(ANN), 의사결정나무, 서포트 벡터 머신(SVM), 랜덤 포레스트, 감성 분석 등 예를 들어, 사진을 주고 "이 사진은 고양이" 라고 알려주는 식이며, 기존 기계학습 알고리즘은 대부분 지도 학습에 기초.  .. 2024. 11. 16.
[머신러닝] 차원 축소: 랜덤 투영, 지역 선형 임베딩 차원축소란? [머신러닝] 차원 축소(Dimension Reduction)차원 축소(Dimension Reduction)차원 축소의 중요한 의미는차원 축소를 통해 좀 더 데이터를 잘 설명할 수 있는잠재적인 요소를 추출하는 데 있다.차원 축소: 매우 많은 피처로 구성된 다차원 데이터puppy-foot-it.tistory.com랜덤 투영 랜덤 투영은 간단하고 빠르며 메모리 효율이 높고 강력한 차원 축소 알고리즘으로, 특히 고차원 데이터셋을 다룰 때 염두에 두어야 한다. 랜덤 투영 알고리즘은 랜덤한 선형 투영을 사용하여 데이터를 저차원 공간에 투영한다. 이러한 랜덤 투영은  실제로 거리를 상당히 잘 보존할 가능성이 매우 높다는 것이 존슨과 린덴스트라우스가 수학적으로 증명해 냄에 따라 투영 후에도 비슷한 두 개의.. 2024. 11. 15.
[머신러닝] 차원 축소: 주성분 분석 (추가) 차원 축소란? [머신러닝] 차원 축소(Dimension Reduction)차원 축소(Dimension Reduction)차원 축소의 중요한 의미는차원 축소를 통해 좀 더 데이터를 잘 설명할 수 있는잠재적인 요소를 추출하는 데 있다.차원 축소: 매우 많은 피처로 구성된 다차원 데이터puppy-foot-it.tistory.com주성분 분석(PCA) 주성분 분석(principal component analysis)은 가장 인기 있는 차원 축소 알고리즘이다. 먼저 데이터에 가장 가까운 초평면을 정의한 다음, 데이터를 이 평면에 투영시킨다. [보다 자세한 내용] [머신러닝] 차원 축소 - PCA차원 축소란? [머신러닝] 차원 축소(Dimension Reduction)차원 축소(Dimension Reduction).. 2024. 11. 15.
[머신러닝] 앙상블 : AdaBoost 앙상블 학습 [머신러닝] 분류 - 앙상블 학습(Ensemble Learning)앙상블 학습(Ensemble Learning) 앙상블 학습을 통한 분류는,여러 개의 분류기를 생성하고 그 예측을 결합함으로써 보다 정확한 최종 예측을 도출하는 기법을 말한다. 앙상블 학습의 목표는,다양한puppy-foot-it.tistory.com에이다 부스트 (AdaBoost) ◆ 부스팅(Boosting):부스팅은 약한 학습기를 여러 개 연결하여 강한 학습기를 만드는 앙상블 방법을 말하며, 앞의 모델을 보완해 나가면서 일련의 예측기를 학습시키는 것이다.  ◆ AdaBoost 개념- 에이다부스트는 Adaptive + Boosting 로 만들어진 단어이며, 알고리즘의 정의를 살펴보면 아래와 같다.약한 분류기(weak classi.. 2024. 11. 15.
[머신러닝] 앙상블: 투표 기반 분류기, 배깅과 페이스팅 앙상블 학습 [머신러닝] 분류 - 앙상블 학습(Ensemble Learning)앙상블 학습(Ensemble Learning) 앙상블 학습을 통한 분류는,여러 개의 분류기를 생성하고 그 예측을 결합함으로써 보다 정확한 최종 예측을 도출하는 기법을 말한다. 앙상블 학습의 목표는,다양한puppy-foot-it.tistory.com투표 기반 분류기 - 직접 투표(hard voting) 더 좋은 분류기를 만드는 매우 간단한 방법은 각 분류기의 예측을 집계하는 것인데, 가장 많은 표를 얻은 클래스가 앙상블의 예측이 되며, 이렇게 다수결 투표로 정해지는 분류기를 직접 투표 (하드 보팅, hard voting) 분류기라고 한다.이 다수결 투표 분류기가 앙상블에 포함된 개별 분류기 중 가장 뛰어난 것보다도 정확도가 높은.. 2024. 11. 15.
[엑셀 다운로드] 2025년 가계부 템플릿 공유 필자는 10년 넘게 엑셀로 가계부를 작성하고 있는데, 마치 오래된 일기장 같은 느낌이다. 스마트폰 어플이 발전하면서 요즘엔 어플로 가계부를 쓰고 관리한다고는 하지만, 나는 내 소비내역, 수입내역 들을 직접 써야 마음이 편한 게 있어 아직까지도 엑셀로 가계부를 작성하고 있고, 앞으로도 이 습관을 바꿀 생각은 없다.   2015년에서 2016년까지 중국에서 지낼때도 열심히 가계부를 썼는데, 노트북이 고장나버려서 데이터가 다 날아가버려 큰 아쉬움이 남는다.. 그래서 그 이후로는 한 해가 지나면 가계부를 메일에 보내놓고, 외장 하드에 담아두는 등 여러 대책을 세워둔다.가계부를 쓰면서 좋은 점은, 가계부에 들어가서 그날 뭐에다 돈을 썼는지를 보면 그때의 일이 떠오른다. (가계부를 쓰면서 돈을 절약했다고는 말 못한.. 2024. 11. 15.
[머신러닝] 결정 트리 (추가) 결정 트리 [머신러닝] 결정 트리 (+시각화)시작에 앞서해당 내용은 ' 권철민 지음. 위키북스' 를 토대로 작성되었습니다. 보다 자세한 내용은 해당 서적에 상세히 나와있으니 서적을 참고해 주시기 바랍니다. 결정 트리(Decision Tree) ◆ 결puppy-foot-it.tistory.com [결정 트리 개념]결정 트리(decision tree)는 분류와 회귀 작업 그리고 다중 출력 작업까지 가능한 다목적 머신러닝 알고리즘이며, 매우 복잡한 데이터셋도 학습할 수 있는 강력한 알고리즘이다.결정 트리는 최근에 자주 사용되는 강력한 머신러닝 알고리즘인 랜덤 포레스트의 기본 구성 요소이기도 하다. 결정 트리는 export_graphviz() 함수를 사용해 그래프 정의를 .dot 파일로 출력하여 훈련된 결정 트.. 2024. 11. 14.
[머신러닝] 서포트 벡터 머신(SVM) 머신러닝 기반 분석 모형 선정  [머신러닝] 머신러닝 기반 분석 모형 선정머신러닝 기반 분석 모형 선정   지도 학습, 비지도 학습, 강화 학습, 준지도 학습, 전이 학습 1) 지도 학습: 정답인 레이블(Label)이 포함되어 있는 학습 데이터를 통해 컴퓨터를 학습시키는 방법(puppy-foot-it.tistory.com서포트 벡터 머신(Support Vector Machine, SVM) SVM은 매우 강력할 뿐만 아니라 선형이나 비선형 분류, 회귀, 특이치 탐지에도 사용할 수 있는 다목적 머신러닝 모델이다. SVM은 중소규모의 비선형 데이터셋, 특히 분류 작업에서 빛을 발하나 매우 큰 데이터셋으로는 잘 확장되지 않는다. [SVM 주요 특징]벡터 공간에서 훈련 데이터가 속한 2개의 그룹을 분류하는 선형 .. 2024. 11. 14.
[구글시트 의뢰] 렌터카 업체 관리 템플릿 의뢰 내용 의뢰인은 렌터카 업체 직원이며, 기존에는 관리 내역을 각각 엑셀 파일을 만들어서 관리하고 있어 통합된 내역을 조회하기가 어렵다고 하였다. 기존에 사용하고 있는 파일은 10개 였는데, 해당 파일들은 직원 / 외주 / 정비소 라는 큰 카테고리로 나뉘어진다고 하였으며, 직원 관련 파일의 경우 직원 한 명 당 파일이 하나라 직원이 추가될수록 파일도 늘어나게 되며 그만큼 관리가 더 어려워지는 단점이 있었다. [주요 요청 내용]주요 카테고리는 직원 / 정비 공장 / 외주 / 렌카 이며, 각 카테고리 별 시트를 만들어서 입력해당 카테고리 별 매출 건수, 매출액이 집계되도록 처리일반 카테고리를 추가하여 차종 별 대여비율, 차종 별 매출비교, 결제 수단 비교(카드 / 현금 / 계좌이체 등) 주요 작업 내용  .. 2024. 11. 14.
[머신러닝] 모델 훈련 - 2 이전 내용 [머신러닝] 모델 훈련 - 1머신러닝 모델 훈련 머신러닝 모델이 어떻게 작동하는지 잘 이해하고 있으면 적절한 모델, 올바른 훈련 알고리즘, 작업에 맞는 좋은 하이퍼 파라미터를 빠르게 찾을 수 있다. 또한 디버깅이나puppy-foot-it.tistory.com학습 곡선 학습 곡선은 모델의 훈련 오차와 검증 오차를 훈련 반복 횟수의 함수로 나타낸 그래프이다. 고차 다항 회귀를 적용하면 일반 선형 회귀에서보다 훨씬 더 훈련 데이터에 잘 맞추려 할 것이다,아래의 코드는 300차 다항 회귀 모델을 훈련 데이터에 적용하여 단순한 선형 모델이나 2차 다항 회귀 모델과 결과를 비교해본 것이다.from sklearn.preprocessing import StandardScalerfrom sklearn.pipe.. 2024. 11. 13.
728x90