DeepSleepNet: a Model for Automatic Sleep Stage Scoring based on Raw Single-Channel EEG
본 연구는 원시 단일 채널 EEG를 기반으로 한 자동 수면 단계 점수를 위한 DeepSleepNet이라는 딥러닝 모델을 제안한다. 기존 방법의 대부분은 수면 분석에 대한 사전 지식이 필요한 수작업 기능에 의존한다. 그 중 일부만이 다음 수면 단계를 식별하는 데 중요한 전환 규칙과 같은 시간 정보를 추출된 특징으로 인코딩한다. 제안된 모델에서, DeepSleepNet은 시간 불변 특징을 추출하기 위해 컨볼루션 신경망을 활용하고, EEG 에폭스에서 자동으로 수면 단계 사이의 전이 규칙을 학습하기 위해 bidirectional-Long Short-Term Memory를 활용한다. 모델을 효율적으로 훈련시키기 위해 2단계 훈련 알고리즘을 구현한다. 서로 다른 특성 (ex: 샘플링 속도)과 채점 표준 (AASM 및 R&K)을 갖는 두 가지 공공 수면 데이터 세트의 서로 다른 단일 채널 EEG (F4-EOG, Fpz-Cz 및 Pz-Oz)를 사용하여 DeepSleepNet 모델을 평가했다. 결과는 DeepSleepNet이 두 데이터 세트 모두에서 최첨단 방법 (MASS: 85.9%-80.5, Sleep-EDF: 78.9%-73.7)과 비교하여 유사한 전체 정확도와 매크로 F1 점수 (MASS: 86.2%-81.7, Sleep-EDF: 82.0%-76.9)를 달성했음을 보여주었다. 이는 모델 아키텍처와 훈련 알고리즘을 변경하지 않고도 DeepSleepNet 모델이 수공학적 기능을 활용하지 않고 서로 다른 데이터 세트의 서로 다른 원시 단일 채널 EEG에서 수면 단계 점수를 위한 기능을 자동으로 학습할 수 있음을 입증했다.
• 첫 번째 레이어와 양방향 LSTM에서 필터 크기가 서로 다른 두 개의 CNN을 활용하는 새로운 모델 아키텍처를 개발한다. CNN은 원시 단일 채널 EEG에서 시간 불변 특징을 추출하는 필터를 학습하도록 훈련할 수 있고, 양방향 LSTM은 수면 단계 전환 규칙과 같은 시간 정보를 인코딩하도록 훈련할 수 있다. • 모델은 대규모 수면 데이터 세트에 제시된 클래스 불균형 문제 (즉, 대부분의 수면 단계만 분류하는 학습)를 겪지 않도록 방지하면서 역전파를 통해 모델을 효과적으로 종단 간 훈련할 수 있는 2단계 훈련 알고리즘을 구현한다. • 모델은 아키텍처와 훈련 알고리즘을 변경하지 않고도 모델이 수작업으로 설계된 기능을 활용하지 않고 서로 다른 특성 (ex: 샘플링 속도)과 스코어링 표준 (AASM 및 R&K)을 갖는 두 데이터 세트의 서로 다른 원시 단일 채널 EEG에서 수면 단계 스코어링을 위한 기능을 자동으로 학습할 수 있음을 보여준다. |
Deep SleepNet의 아키텍처는 그림과 같이 크게 두 부분으로 구성되어 있다. 첫 번째 부분은 표현 학습으로, 각 원시 단일 채널 EEG epoch에서 시간 불변 특징을 추출하기 위한 필터를 학습하도록 훈련될 수 있다. 두 번째 부분은 시퀀스 잔류 학습으로, 추출된 특징의 EEG epoch 시퀀스에서 단계 전환 규칙과 같은 시간 정보를 인코딩하도록 훈련될 수 있다. 이 아키텍처는 AASM 및 R&K 매뉴얼의 표준에 따라 30초 EEG 에폭스를 채점하도록 설계되었다.
Representation Learning
첫 번째 계층에 작고 큰 필터 크기를 가진 두 개의 CNN을 사용하여 원시 단일 채널 30-S EEG epoch에서 시간 불변 특징을 추출한다. 이 아키텍처는 신호 처리 전문가가 기능 추출 알고리즘에서 시간 정밀도와 주파수 정밀도 사이의 균형을 제어하는 방법에서 영감을 받았다. 작은 필터는 시간적 정보 (즉, 특정 EEG 패턴이 나타날 때)를 캡처하는 것이 더 낫고, 큰 필터는 주파수 정보 (즉, 주파수 성분)를 캡처하는 것이 더 낫다.
모델에서, 각 CNN은 네 개의 컨볼루션 레이어와 두 개의 최대 풀링 레이어로 구성된다. 각 컨볼루션 레이어는 필터가 있는 1D-컨볼루션, 배치 정규화 및 정류 선형 단위 (ReLU) 활성화 적용 (즉, relu(x) = max(0,x))의 세 가지 연산을 순차적으로 수행한다. 각 풀링 레이어는 최대 연산을 사용하여 입력을 다운샘플링한다. 필터 크기, 필터 개수, 스트라이드 크기 및 풀링 크기의 사양은 그림 1에서 확인할 수 있다. 각 conv block은 필터 크기, 필터 개수 및 스트라이드 크기를 보여준다. 각 max-pool block은 풀링 크기와 스트라이드 크기를 표시한다.
Sequence Residual Learning
시퀀스 잔류 학습 부분을 설계하기 위해 잔류 학습 프레임워크를 적용한다. 이 부분은 양방향 LSTM과 바로 가기 연결의 두 가지 주요 구성 요소로 구성된다.
수면 전문가가 이전 단계를 기반으로 다음 가능한 수면 단계를 결정하는 데 사용하는 단계 전환 규칙과 같은 시간 정보를 학습하기 위해 양방향 LSTM의 두 가지 계층을 사용한다. 예를 들어, AASM 매뉴얼은 피험자가 수면 단계 N2에 있을 경우, K 복합체나 수면 스핀들이 존재하지 않더라도 낮은 진폭과 혼합 주파수 EEG 활동을 N2로 계속하여 점수를 매길 것을 제안한다. 이 경우, 양방향 LSTM은 N2 단계를 봤다는 것을 기억하고 낮은 진폭과 혼합 주파수 EEG 활동을 여전히 감지하면 N2로 연속 epoch를 계속 채점할 수 있다. 양방향 LSTM은 두 개의 LSTM이 정방향 및 역방향 입력 시퀀스를 독립적으로 처리하도록 하여 LSTM을 확장한다. 즉, 순방향 및 역방향 LSTM의 출력은 서로 연결되지 않습니다. 따라서 이 모델은 과거와 미래의 정보를 모두 활용할 수 있다. 또한, LSTM에서 피프홀 연결을 사용하여 게이트 메커니즘이 수정 전에 현재 메모리 셀을 검사할 수 있다.
이 부분의 계산을 잔차 함수로 재구성하기 위해 지름길을 사용한다. 이를 통해 모델은 이전 입력 시퀀스에서 학습한 시간 정보를 CNN에서 추출한 기능에 추가할 수 있다. 또한 바로 가기 연결에 완전히 연결된 계층을 사용하여 CNN의 기능을 LSTM의 출력에 추가할 수 있는 벡터로 변환한다. 이 계층은 가중치 매개 변수와 배치 정규화 및 순차적으로 ReLU 활성화를 적용하여 행렬 곱셈을 수행한다.
'Somnology > Lecacy, Heuristics & AI Model' 카테고리의 다른 글
중추성 수면 무호흡증 이벤트의 기계 학습 기반 자동 감지 (0) | 2022.06.23 |
---|---|
[Deep Learning] RobustSleepNet (0) | 2022.06.22 |
수면다원검사 : 딥러닝을 사용한 불안 및 우울증 식별 (0) | 2022.06.21 |
자동 수면 채점 : 다중 모드 시계열 딥러닝 아키텍처 (0) | 2022.06.21 |
[Deep Learning] A Deep Learning Model for Automated Sleep Stages Classification Using PSG Signals (0) | 2022.06.17 |