본문 바로가기
728x90
반응형
SMALL

전체 글1632

수학 (Mathematics) 수학 (Mathematics) 수학 (數學, mathematics, math)은 수, 양, 구조, 공간, 변화 등의 개념을 다루는 학문이다. 널리 받아들여지는 명확한 정의는 없으나 현대 수학은 일반적으로 엄밀한 논리에 근거하여 추상적 대상을 탐구하며, 이는 규칙의 발견과 문제의 제시 및 해결의 과정으로 이루어진다. 수학은 그 발전 과정에 있어서 철학, 과학과 깊은 연관을 맺고 있으며, 다만 엄밀한 논리와 특유의 추상성, 보편성에 의해 다른 학문들과 구별된다. 특히 수학은 과학의 여느 분야들과는 달리 자연계에서 관측되지 않는 개념들에 대해서까지 이론을 추상화시키는 특징을 보이는데, 수학자들은 그러한 개념들에 대한 추측을 제시하고 적절하게 선택된 정의와 공리로부터 엄밀한 연역을 거쳐 그 진위를 파악한다. 수.. 2022. 1. 7.
Ageing of neural regeneration processes Background of introduction 다세포 동물은 그들의 환경에서 정보를 수집하고 대응한다. 이 계산 작업은 복잡성이 다양한 신경망을 통해 달성된다. 복잡성이 다양한 네트워크 성능 신뢰성은 다음과 같아야 합니다. 셀의 짧은 수명과 연결 고장에 대처하여 관련 기능을 노후화시키는 동시에 개인의 수명에 걸쳐 신뢰할 수 있는 성능을 가져야 한다. 이것은 다목적 최적화 (multi-objective optimization)를 통해 해결할 수 있다. 신경망을 갖춘 디지털 유기체가 연장된 수명 동안 계산 작업을 안정적으로 해결할 것이다. 하지만 신경 연결은 비용이 많이 든다. 또한 시간이 지남에 따라 성능이 저하되지만 약간의 비용을 들여 재생성 (regeneration)될 수 있다. 이러한 비용과 계산 .. 2022. 1. 7.
퇴행성 뇌질환 (Degenerative brain disease) 퇴행성 뇌질환 (Degenerative brain disease) 퇴행성 뇌질환은 뉴런이라고 불리는 신경 세포의 쇠퇴와 사멸로 인해 발생한다. 이러한 질병은 진행성이며, 이는 뇌의 더 많은 수의 뉴런이 죽으면서 상태가 시간이 지남에 따라 악화됨을 의미한다. 뇌가 점차 악화됨에 따라 환자는 언어, 기억 및 공간 기술과 같은 주요 영역에서 지적 기능을 상실한다. 퇴행성 뇌질환에는 알츠하이머병, 전두측두엽 치매, 루이소체 치매와 같은 치매 유형이 있다. 하지만 이러한 질병의 원인은 완전히 이해되지 않았으며 현재로서는 치료법이 없다. 치매는 다음을 포함한 여러 퇴행성 뇌질환을 총칭하는 용어이다. 알츠하이머 (Alzheimer) 알츠하이머병의 원인은 불분명하지만 뇌 조직의 플라크 (plaques)와 엉킴 (tan.. 2022. 1. 7.
렘수면 행동장애 (REM sleep behavior disorder) 렘수면 행동장애 (REM sleep behavior disorder) 렘수면행동장애 (rapid eye movement sleep behavior disorder, RBD)는 렘수면(rapid eye movement sleep, REM sleep) 기간 동안 근육의 긴장도가 증가되고 꿈과 관련된 과도한 움직임과 이상행동을 보이는 질환이다. 나이가 많을수록, 남성일수록 흔하게 발생하며, 대표적으로 파킨슨씨 병과 같은 다양한 신경계 퇴행성 질환과 연관성이 높다. 원인 렘수면 행동장애는 파킨슨병 (Parkinson’s disease)이나 루이체 치매 (dementia with Lewy Bodies)와 같은 퇴행성 신경질환과 연관되어 발생할 수 있다. 최근 연구에서는 렘수면 행동장애를 진단 받은 환자들이 약 1.. 2022. 1. 7.
[ANN] RNN many to many many to many many-to-one 모델에서 출력을 생성하려면 최종 입력이 모델에 입력되어야 한다. 이와 달리 many-to-many 모델은 각 입력을 읽을 때마다 출력을 생성한다. 즉, many-to-many 모델은 입력 시퀀스에서 각 토큰의 기능을 이해할 수 있다. many-to-many는 개체명 인식 (Named Entity Recognition)이나 형태소 분석 (Morphological Analysis)과 같은 task에 사용된다. 이 모델에서 가능한 예는 품사 태깅, 줄여서 POS이다. POS는 유사한 문법적 특성을 가진 단어 (또는 어휘 항목)의 범주이다. 일반적인 POS 유형은 명사, 동사, 형용사, 부사, 대명사이다. 따라서 POS 태깅은 각 토큰의 POS에 자동으로 태깅된다. .. 2022. 1. 5.
[ANN] RNN many to one Sequence classification many to one 유형은 sequence of words를 sentiment로 분류하는 sentiment classification에 가장 많이 활용되고 있다. "이 영화는 좋다"라는 문장이 있다고 가정하고 이 문장의 감정을 분류하고자 한다. 이를 위해서는 단어 수준에서 토큰화를 적용해야 한다. 이 문장이 좋은 감정을 의도한다면, 단어 토큰은 "좋은"과 같은 좋은 단어를 포함할 수 있다. 그래서 우리는 이 문장을 좋은 감정으로 분류할 수 있다. 따라서 RNN 모델에 적용하려면 문장을 단어 시퀀스 (many)로 간주하고 label (work)을 분류해야 합니다. many-to-one 모델의 프로세스이다. 계산 모델은 단어 자체를 입력으로 받아들일 수 없으므로 .. 2022. 1. 5.
[ANN] RNN basics (Vanilla) ANN에서 sequence data는 어떻게 다룰 것인가? • We don’t understand one word only • We understand based on the previous words + this word. (time series) • NN/CNN cannot do this RNN 위를 cell이라고 표현하는데, cell의 아웃풋이 다시 cell에 영향을 주게 된다. 이것은 기존의 Neural Network과 다른점이다. 바닐라 (Vanilla) RNN은 가장 기본적인 RNN이다. 이전에 사용하던 NN와는 다르게 tanh를 사용한다. new state 값은, old state 값과 입력값을 처리하는 함수를 통해 출력된다. Ht는 state 값을 나타낸다. 현재 state 값에 대한 함수.. 2022. 1. 5.
[Keras] Model.evaluate 함수 Model.evaluate evaluate 함수를 사용하면 모델의 최종적인 accuracy와 loss 값을 알 수 있다. loss는 예측값과 실제값이 차이나는 정도를 나타내는 지표이며 작을 수록 좋다. Model.evaluate( x=None, y=None, batch_size=None, verbose=1, sample_weight=None, steps=None, callbacks=None, max_queue_size=10, workers=1, use_multiprocessing=False, return_dict=False, **kwargs ) https://keras.io/api/models/model_training_apis/#evaluate-method Keras documentation: Mode.. 2022. 1. 4.
[Keras] Model.fit 함수 Model.fit 함수 Model.fit( x=None, y=None, batch_size=None, epochs=1, verbose="auto", callbacks=None, validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None, initial_epoch=0, steps_per_epoch=None, validation_steps=None, validation_batch_size=None, validation_freq=1, max_queue_size=10, workers=1, use_multiprocessing=False, ) verbose : Verbosity mode. 0, 1 or .. 2022. 1. 4.
[Deep Learning] 드롭아웃 (Dropout) 드롭아웃 (Dropout) weight decay 기법은 간단하게 구현할 수 있고, 어느 정도 지나친 학습을 억제할 수 있다. 그러나 신경망 모델이 복잡해지면 weight decay만으로는 대응하기 어려워진다. 이럴 때 사용하는 것이 드롭아웃 (Dropout)이라는 기법이다. dropout은 신경망 모델에서 뉴런을 임의로 삭제하면서 학습하는 방법이다. 학습 시에 hidden layer의 neuron을 무작위로 골라 삭제한다. 훈련 때에는 데이터를 흘릴 때마다 삭제할 neuron을 무작위로 선택하고, 시험 때는 모든 neuron에 신호를 전달한다. 단, 시험 때는 각 neuron의 출력에 훈련 때 삭제한 비율을 곱하여 출력한다. neuron을 임의로 삭제하여 적은 수의 neuron만으로 지정된 레이블을 맞.. 2022. 1. 3.
728x90
반응형
LIST