본문 바로가기
728x90
반응형
SMALL

전체 글1632

[VPython] Math Functions Math Functions https://www.glowscript.org/docs/VPythonDocs/math.html VPython Help Math Functions For versions of Python prior to 3.0, Python performs integer division with truncation, so that 3/4 is 0, not 0.75. This is inconvenient when doing scientific computations, and can lead to hard-to-find bugs in programs. In the Web VPython env www.glowscript.org https://www.glowscript.org/docs/VPythonD.. 2022. 1. 18.
[VPython] Animations Animations Moving Graphs에서 볼 수 있듯이, Animations의 핵심은 일정 시간 동안 동작을 수행할 수 있는 rate(#)이다. animation이 무한 재생되도록 하려면 (while True:) loop를 사용하고, (for i in range(#):) loop는 finite 시간 동안 재생한다. 참고 : 프로그램이 고장나면 loop에 rate(#)가 있는지 확인. Bouncing Ball Example # make sphere and 2 wall objects my_sphere = sphere(pos=vector(0,0,0), radius=0.25, color=color.green ) wall1 = box(pos=vector(2,0,0), size=vector(0.1,1,1),.. 2022. 1. 18.
[VPython] Graphs (2) Multiple Plots 동일한 graph에 여러 개의 그림을 추가하려면 동일한 (graph=) parameter를 사용하여 새 그림을 만든다. plot2 = (graph=g,color=color.green,data=[[10,11],[12,13],… ]) 여기서 plot type이 동일할 필요는 없다. Legend 범례 (legend)를 추가하려면 새 그림을 만들 때 (label=) parameter를 사용한다. plot2 = (graph=g,data=[[1,2],[3,4],… ],label=”plot name”) Aside on for loops: for i in range(start,stop): for i in range(start, stop, step size): for i in range(0,1.. 2022. 1. 17.
[VPython] Graphs (1) Graphs graph 옵션에는 2 가지가 있다. (default is fast=True) 1. fast=False : 이동 및 확대 / 축소와 같은 interactive 기능이 있는 Plotly를 기반으로 한다. 2. fast=True : Flot을 기반으로 하며 interactive 형이 아니다. 먼저 그래프 창을 정의하고 그래프 크기, 제목 및 label을 지정한다. g = graph (width=600,height=400,title=’title here’,xtitle=’x’,ytitle=’y’, foreground=color.black, background=color.white, # optional xmin=0, xmax=10, ymin=-15, ymax=15,fast=False) # option.. 2022. 1. 17.
[VPython] Widgets Widgets VPython에는 사용자가 개체 매개 변수를 제어할 수 있는 widget이 있다. widget은 코드에 나타나는 순서대로 모델 아래에 표시한다. scene.append_to_caption('\n\n')을 사용하여 위젯 사이에 공백을 추가하면 된다. 삭제할 때 = (bind=function), .delete()를 사용한다. Bind Parameter 모든 widget에는 클릭하면 호출되는 함수에 할당되는 bind 매개 변수가 있다. 먼저 widget의 입력을 사용하여 객체 parameter를 제어하는 python 함수를 정의한다. def f(x): # define the function actions here 키워드 def는 python으로 함수를 선언하고 입력 parameter x는 wid.. 2022. 1. 17.
[Deep Learning] Basic Guide to Spiking Neural Networks for Deep Learning (3) How to build a Spiking Neural Network? SNN으로 작업하는 것은 어려운 작업이다. 그래도 흥미롭고 유용한 몇 가지 도구가 있다. SNN를 시뮬레이션하는 데 도움이 되고 주로 생물학자들이 사용하는 소프트웨어가 필요한 경우 다음을 확인하는 것이 좋다. GENESIS Neuron Brian NEST 이론이 아닌 실제 문제를 해결하는 데 사용할 수 있는 소프트웨어를 원한다면 다음을 확인해야 한다. SpikeNet TensorFlow 또는 SpykeTorch 를 사용해야 한다 . 그러나 특수 하드웨어 없이 로컬에서 SNN으로 작업하는 것은 계산적으로 매우 비용이 많이 든다. Tensorflow Tensorflow를 사용하여 SNN을 확실히 만들 수 있지만 DL 프레임워크가 처음에 S.. 2022. 1. 17.
[Deep Learning] Basic Guide to Spiking Neural Networks for Deep Learning (2) SNN architectures SNN은 그 개념이 독특함에도 불구하고 여전히 NN이므로 SNN 아키텍처는 세 그룹으로 나눌 수 있다. Feedforward Neural Network 는 모든 산업 분야에서 널리 사용되는 고전적인 NN 아키텍처이다. 이러한 아키텍처에서 데이터는 입력에서 출력으로의 한 방향으로만 전송된다. 순환이 없고 많은 숨겨진 layer에서 처리가 발생할 수 있다. ANN 아키텍처의 대부분은 feedforward이다. RNN( Recurrent Neural Network )은 좀 더 발전된 아키텍처이다. RNN 에서 neuron 간의 연결은 시간 순서를 따라 방향성 그래프를 형성한다. 이것은 그물이 시간적 동적 행동을 나타낼 수 있도록 한다. SNN이 recurrent인 경우 동적이며.. 2022. 1. 17.
[Deep Learning] Basic Guide to Spiking Neural Networks for Deep Learning (1) Introduction to Spiking Neural Networks DL은 데이터 과학 커뮤니티 내에서 뜨거운 주제이다. 산업 전반의 다양한 작업에서 매우 효과적임에도 불구하고 DL은 새로운 신경망 (NN) 아키텍처, DL 작업, 그리고 SNN (스파이킹 신경망)과 같은 차세대 NN의 새로운 개념을 제안하면서 끊임없이 진화하고 있다. What is a Spiking Neural Network? 인공 신경망 (ANN)의 일반적인 개념은 생물학에서 비롯된다. 우리는 정보 및 신호 처리, 의사 결정 및 기타 여러 작업에 사용되는 뇌 내부에 생물학적 신경망을 가지고 있다. 생물학적 신경망의 기본 요소는 생물학적 neuron이다. 반면 ANN에서는 인공 neuron이 사용된다. 인공 neuron은 서로 매우 .. 2022. 1. 17.
[PyTorch] 자동 미분 (Automatic differentiation) 자동 미분 (Autimatic differentiation) 신경망을 학습할 때 가장 자주 사용되는 알고리즘은 역전파이다. 이 알고리즘에서, 매개변수 (모델 가중치)는 주어진 매개변수에 대한 손실 함수의 변화도(gradient)에 따라 조정된다. 이러한 변화도를 계산하기 위해 PyTorch에는 torch.autograd라고 불리는 자동 미분 엔진이 내장되어 있다. 이는 모든 계산 그래프에 대한 변화도의 자동 계산을 지원한다. import torch # 입력 x, 매개변수 w와 b , 그리고 일부 손실 함수가 있는 가장 간단한 단일 계층 신경망을 가정 x = torch.ones(5) # input tensor y = torch.zeros(3) # expected output w = torch.randn(5.. 2022. 1. 13.
[PyTorch] 모델 매개변수 (Parameter) 모델 매개변수 (Parameter) 신경망 내부의 많은 계층들은 매개변수화 (parameterize)된다. 즉, 학습 중에 최적화되는 weight와 bias과 연관지어진다. nn.Module 을 상속하면 모델 객체 내부의 모든 필드들이 자동으로 추적 (track)되며, 모델의 parameters() 및 named_parameters() method로 모든 parameter에 접근할 수 있게 된다. 각 매개변수들을 순회하며 (iterate), 매개변수의 크기와 값을 출력한다. print("Model structure: ", model, "\n\n") for name, param in model.named_parameters(): print(f"Layer: {name} | Size: {param.size().. 2022. 1. 13.
728x90
반응형
LIST