본문 바로가기
728x90
반응형
SMALL

분류 전체보기1632

피어슨 상관 계수 (Pearson correlation coefficient) 피어슨 상관 계수 (Pearson correlation coefficient) 두 수치 특징을 비교하기 위한 표준 도구는 일반적으로 상관 계수로 알려진 Pearson 상관 계수이다 (다른 상관 계수도 많이 있지만 이 상관 계수가 가장 일반적임). 이것은 두 개의 수치 특징 사이의 선형 연관 강도를 나타내는 수치이다. 형상 사이의 관계가 비선형적이면 이 상관 계수가 오해의 소지가 있을 수 있으므로 산점도와 상관 계수를 모두 검토하는 것이 항상 좋은 방법이다. Key Characteristics 이 계수의 주요 특성은 다음과 같다. 값은 항상 [-1, +1] 간격에 있다. 이 값은 형상 사이의 선형 관계의 강도를 나타낸다. -1에 가까운 값은 형상 사이의 강한 음의 관계를 나타내며, +1에 가까운 값은 형상.. 2023. 7. 13.
Automatic Sleep/Wake Identification From Wrist Activity Abstract 많은 연구 및 임상 상황에서는 실험실 외부에서 인간의 수면 데이터를 얻을 수 있는 저렴하고 방해가 되지 않는 방법이 필요하다. Mullaney 외 연구진은 손목에 장착된 움직임 감지기에서 얻은 데이터를 수동으로 채점하여 수면과 각성 상태를 높은 정확도로 구별할 수 있음을 보여주었다. 그러나 수동 채점과 관련된 힘든 노동은 일상적인 사용을 위한 이 방법의 실용성을 감소시킨다. Webster 외 연구진은 수면 및 각성을 위한 손목 활동 데이터의 점수를 매기는 자동 방법을 개발했다. 그들이 개발한 채점 알고리즘은 실험 손목 활동 그래프에만 최적화되어 있어서 그 방법이 현재 상업적으로 이용 가능한 활동 그래프 도구로 일반화될 수 있을지 불확실하다. 이 연구의 목표는 상용 손목 활동 그래프로 얻은.. 2023. 7. 13.
CatBoost CatBoost CatBoost는 Yandex에서 개발한 오픈 소스 소프트웨어 라이브러리이다. 이는 다른 기능 중에서 클래식 알고리즘과 비교하여 순열 기반 대안을 사용하여 범주형 기능을 해결하려고 시도하는 그레디언트 부스팅 프레임워크를 제공한다. pip install catboost import numpy from catboost import CatBoostRegressor dataset = numpy.array([[1,4,5,6], [4,5,6,7], [30,40,50,60], [20,15,85,60]]) train_labels = [1.2, 3.4, 9.5, 24.5] model = CatBoostRegressor(learning_rate=1, depth=6, loss_function='RMSE') .. 2023. 7. 12.
[Chronobiology] 일주기 리듬 (Circadian Rhythmicity) (3) 전사-번역적 피드백 루프 인체의 거의 모든 세포는 면역 반응과 약물 해독뿐만 아니라 신장, 간, 췌장, 내분비, 생식, 호흡, 그리고 호흡 및 심혈관 기능을 포함한 다양한 생리적, 대사 활동의 일상적인 리듬에 기여하는 거의 24시간에 가까운 리듬을 가진 자체 진동자를 가지고 있다. SCN의 주요한 일주기 심박조율기는 각 세포의 리듬을 생성하는 것에 책임이 없다. 오히려 기존의 고유 리듬을 동기화하는 것에 책임이 있다. 각 세포의 리듬은 자동 조절 전사-번역적 피드백 루프에 의해 유지된다. 포유류 시계 메커니즘은 시계의 일주기 출력을 생성하기 위해 core positive 및 negative 피드백 루프로 구성된다. 1차 양성 피드백 루프에서 전사 인자 CLOCK 및 BMAL1은 이종이량체를 형성하여 PE.. 2023. 7. 12.
급내 상관 계수 (Intraclass Correlation Coefficients) 급내 상관 계수 (Intraclass Correlation Coefficients) 급내 상관 계수 (intraclass correlation coefficient, ICC) 또는 신뢰도 계수 (reliability coefficient)는 반복성과 재현성을 평가하는 데 매우 흔하게 사용되는 지표로, 측정값들의 총 변동 중 개인간 변동에 의해 야기된 부분에 대한 추정치이다. 통계에서 클래스간 상관 관계 (또는 클래스간 상관 계수)는 10세 아들과 40세 아버지의 가중치와 같이 클래스 (유형)가 다른 두 변수 간의 관계를 측정한 것이다. 변수의 편차는 해당 클래스에 대한 데이터의 평균, 즉 아들의 체중에서 모든 아들의 체중을 뺀 값 또는 아버지의 체중에서 모든 아버지의 체중을 뺀 값에서 측정된다. Pear.. 2023. 7. 12.
어플리케이션 배포 환경 (2) 클라우드 네이티브 클라우드 네이티브는 클라우드의 장점을 최대한 활용할 수 있도록 어플리케이션을 개발, 구축, 실행하는 방식이다. 클라우드 네이티브 어플리케이션의 방법론 데브옵스 (DevOps) 어플리케이션 운영 구조 마이크로서비스 어플리케이션 운영 인프라 컨테이너 어플리케이션을 더욱 짧은 주기로 고객에게 제공하는 자동화 프로세스 지속적인 통합 / 배포 (CI / CD) 데브옵스 (DevOps) 모델 데브옵스 (DevOps)는 소프트웨어 개발과 IT 운영을 결합한 합성어이다. 기존의 분리된 소프트웨어 개발팀과 IT 운영팀의 협업으로 전체 라이프 사이클을 함께 관리할 수 있는 모델이다. 소프트웨어 개발팀과 IT팀이 더 빠르고 안정적으로 소프트웨어를 빌드, 릴리즈할 수 있도록 두 팀간의 프로세스를 자동화하는 .. 2023. 7. 12.
어플리케이션 배포 환경 (1) 어플리케이션 배포 환경 어플리케이션 배포 환경은 지난 몇 년 동안 크게 변화했다. 과거에는 어플리케이션을 온프레미스 (On-premise)서버에 직접 배포하는 것이 일반적이었지만, 최근에는 가상 머신과 컨테이너를 사용하는 배포 환경이 점점 더 대중화되고 있다. 온프레미스 배포는 기업이 자체적으로 서버를 구축하고 운영하는 방식이다. 온프레미스 배포는 기업이 애플리케이션에 대한 완전한 제어권을 갖는다는 장점이 있지만, 서버 구축과 운영에 대한 비용이 많이 드는 단점이 있다. 가상 머신 배포는 하나의 물리적 서버에 여러 개의 가상 서버를 생성하여 어플리케이션을 배포하는 방식이다. 가상 머신 배포는 온프레미스 배포에 비해 비용이 저렴하고 관리가 간편하다는 장점이 있다. 컨테이너 배포는 애플리케이션의 모든 종속성.. 2023. 7. 12.
[Machine Learning] Boosting Methods (3) LightBoost LGBM (Light Gradient Boosting Machine)은 2017년 마이크로소프트에서 처음 출시되었으며 사용자가 선호하는 또 다른 Gradient Boosting 방법이며 의사 결정 트리 기반이다. 다른 방법과의 핵심적인 차이점은 잎을 기준으로 트리를 분할한다는 것이다. 즉, 포인트 촬영에 필요한 단위를 감지하고 중지할 수 있다 (다른 것은 깊이 기반 또는 레벨 기반임). LGBM은 잎 기반이므로 오차를 줄여 정확도와 속도를 높이는 측면에서 매우 효과적인 방법이다. 특수 알고리즘을 사용하여 범주형 데이터를 분할할 수 있지만 열의 문자열 이름 대신 인덱스와 같은 정수 값을 입력해야 한다. import numpy as np from time import time from l.. 2023. 7. 11.
[Machine Learning] Boosting Methods (2) XGBoost XGBoost (Extreme Gradient Boost)는 2014년 Tianqi Chen에 의해 처음 개발되었으며 그레디언트 부스트보다 훨씬 빠르기 때문에 선호되는 부스팅 방법이다. XGBoost는 확장 가능하고 매우 정확한 그레디언트 부스팅 구현으로 트리 알고리듬을 강화하기 위한 컴퓨팅 성능의 한계를 푸시하며 주로 기계 학습 모델 성능 및 계산 속도를 활성화하기 위해 구축된다. XGBoost를 사용하면 GBDT와 같이 순차적으로 트리가 아닌 병렬로 구축된다. 그것은 그레디언트 값을 스캔하고 이러한 부분 합계를 사용하여 훈련 세트에서 가능한 모든 분할에서 분할의 품질을 평가하는 level-wise (수준별) 전략을 따른다. 포함된 하이퍼파라미터 덕분에 정규화 하이퍼파라미터가 과적합을 방.. 2023. 7. 11.
[Machine Learning] Boosting Methods (1) Boosting Methods 앙상블 학습에서는 여러 학습 알고리즘으로 모델을 가장 성공적으로 훈련시키는 것을 목표로 한다. 앙상블 학습 중 하나인 배깅 방법에서는 동일한 데이터 세트의 서로 다른 하위 샘플에 두 개 이상의 모델을 병렬로 적용했다. 또한, 다른 방법이며 실제로 자주 사용되는 부스팅은 병렬 대신 순차적으로 구축되며 모델 훈련뿐만 아니라 알고리즘 훈련을 목표로 한다. 약한 알고리즘은 모델을 훈련시킨 다음 훈련 결과에 따라 재구성되고 학습하기 쉬워진다. 이 수정된 모델은 다음 알고리즘으로 전송되고 두 번째 알고리즘은 첫 번째 알고리즘보다 쉽게 학습된다. AdaBoost Adaptive Boost (Adaboost)는 의사 결정 나무에 기반한 분계점이 할당되고 분계점에 따라 예측이 이루어진다. .. 2023. 7. 11.
728x90
반응형
LIST