728x90 반응형 SMALL Epoch5 [MLops] 모델 훈련 디렉토리 생성 opt 디렉토리에서 mlops-model 디렉토리를 생성한다. mkdir mlops-modelmkdir datasetcp /opt/mlops-crawler/result/watch_log.csv dataset/ 패키지 설치 pip install -U numpy==1.26.4pip install torch torchinfo scikit-learn icecream main.py import torchimport torch.nn as nnimport torch.optim as optimfrom torch.utils.data import Dataset, DataLoaderimport pandas as pdimport numpy as npfrom sklearn.model_selection import.. 2024. 8. 9. Digital Polysomnography Digital Polysomnography 컴퓨터화된 폴리그래프는 표준 폴리그래프를 대체했다. 일부 시스템은 아날로그-디지털 변환기를 사용하여 아날로그 증폭기를 컴퓨터에 연결한다. 오늘날 대부분의 시스템은 디지털 수면다원검사를 기록하기 위해 아날로그-디지털 변환기를 통해 연결된 보조 장비와 함께 컴퓨터에 직접 연결된 디지털 증폭기를 사용한다. 그러나 컴퓨터를 사용한다고 해서 표준 계측 원리를 이해할 필요성이 줄어들지는 않다. 실제로 컴퓨터를 사용하려면 기술자가 수면다원검사 중에 기록된 다양한 생물물리학적 신호를 컴퓨터가 적절하고 정확하게 기록하고 있는지 판단할 수 있을 만큼 충분한 지식이 있어야 한다. 적절한 전극 및 센서 적용 기술과 정밀한 장비 교정은 여전히 필수적이다. 정확한 신호 처리는 물론 .. 2023. 9. 25. [Python] time 모듈 time 모듈 날짜와 시간, 기간 처리를 하기 위해 time, datetime 모듈을 사용한다. time() 함수 이 함수는 epoch 이후의 시간을 초 단위로 반환한다. epoch의 특정 날짜와 윤초 처리는 플랫폼에 따라 다르다. import time current_time = time.time() print(current_time) epoch 파이썬의 time 모듈에서 에포크 (epoch)는 시간 척도의 기준점을 의미한다. epoch는 대부분의 운영 체제와 프로그래밍 언어에서 1970년 1월 1일 00시 00분 00초 (UTC)로 정의되어 있다. 이 시점을 기준으로 시간을 계산하며, epoch 이후의 시간은 양수, 이전의 시간은 음수로 표현된다. import time # 현재 시간 (epoch 이후 .. 2023. 6. 19. [PyTorch] DATASET / DATALOADER DATASET / DATALOADER 데이터 샘플을 처리하는 코드는 지저분(messy)하고 유지보수가 어려울 수 있다. 더 나은 가독성 (readability)과 모듈성 (modularity)을 위해 데이터셋 코드를 모델 학습 코드로부터 분리하는 것이 이상적다. PyTorch는 torch.utils.data.DataLoader와 torch.utils.data.Dataset의 두 가지 데이터 기본 요소를 제공하여 미리 준비해둔 (pre-loaded) 데이터셋 뿐만 아니라 가지고 있는 데이터를 사용할 수 있도록 한다. Dataset은 샘플과 정답 (label)을 저장하고, DataLoader는 Dataset을 샘플에 쉽게 접근할 수 있도록 순회 가능한 객체 (iterable)로 감싼다. PyTorch의 도메.. 2022. 1. 13. [Deep Learning] 경사 하강법 (Gradient Descent) / 배치 사이즈 (Batch Size) / 에포크 (Epoch) 경사 하강법 (Gradient Descent) 반복 (iterative, 곡선의 최소값) 최상의 결과를 찾기 위해 기계 학습에 사용되는 최적화 알고리즘이다. 알고리즘은 iterative이므로 최적의 결과를 얻으려면 여러 번 결과를 얻어야 한다. gradient descent의 반복적인 quality은 과소 적합 (under-fitted) 그래프가 그래프를 데이터에 최적으로 맞추는 데 도움이 된다. gradient descent에는 학습률 (learning rate)이라는 매개변수 (parameter)가 있다. 왼쪽 그림에서 처음에는 단계가 더 크다는 것은 learning rate이 더 높다는 것을 의미하고, 포인트가 내려갈수록 단계의 크기가 짧을수록 learning rate은 더 작아진다. 또한, 비용 .. 2021. 12. 22. 이전 1 다음 728x90 반응형 LIST