FullSearch

Full text search for "propagation"


Search BackLinks only
Display context of search results
Case-sensitive searching
  • 신경망,neural_network . . . . 9 matches
         CNN의 역전파(backpropagation) · ratsgo's blog // [[역전파,backpropagation]]
         [[뉴런,neuron]]들이 [[노드,node]]이고 [[시냅스,synapse]]가 [[edge]]인 [[네트워크,network]]([[그래프,graph]], esp [[유향그래프,directed_graph]])로 model할 수 있고... edge마다 [[가중값,weight]]이 있다. 그래서 [[정보전파,information_propagation]]가 한 방향으로 고정되어 있다. 만약 undirected edge라면 information propagation이 recursive하게 일어나서 복잡해진다 - 이것은 RNN recurrent_neural_network(curr at [[신경망,neural_network#s-3]])
         여기선 가장 간단한 multi layer perceptron (MLP) { directed_simple_graph 구조이며, 같은 layer 안에서는 연결되지 않았다. 이 경우 information_propagation이 forward방향으로만 일어나므로 feedforward_network라고 부른다 } 만 다룬다
         // Backpropagation Algorithm 문단
         parameter를 update하기 위해 [[역전파,backpropagation]](writing) algorithm을 주로 쓴다. 이건 NN에서 [[기울기하강,gradient_descent]]을 [[연쇄법칙,chain_rule]]을 써서 단순화시킨 것에 지나지 않는다. ... 마지막 decision_layer에서 (우리가 실제로 원하는) target output과 (현재 네트워크가 만든) estimated output끼리의 [[손실함수,loss_function]]를 계산하여 그 값을 [[최소화,minimization]]하는 방식을 쓴다.
         [[역전파,backpropagation]]
         [[오차역전파,error_backpropagation]]
  • 파동,wave . . . . 6 matches
          [[파동속도,wave_velocity]] - writing. 뜻이 모호함에 주의. 한 가지 뜻이 아님.. curr see [[WpEn:Wave_propagation#Wave_velocity]] and [[WpEn:Wave_velocity]]
         그리고 이 책은 phase velocity = propagation velocity = the velocity of the wave pattern을 u,,p,,로 나타냄
         파동속도? 위상속도?(phase v.) 전파속도?(propagation v.)
         phase velocity AKA propagation velocity
         propagation n. 전파 (기타: (동식물의) 번식, 증식, (사상의) 선전, 보급)
         [[WpEn:Propagation]] (disambiguation page)
         [[WpEn:Wave_propagation]]
  • 연쇄법칙,chain_rule . . . . 4 matches
         = NN의 backpropagation algorithm에서 나오는 chain rule =
         일단은 http://sanghyukchun.github.io/74/ 글의 "Backpropagation Algorithm" 문단 참조. weight update의 phase 2에서 chain rule을 사용.
         [[전파,propagation]] - 순전파? forward_propagaion and [[역전파,backpropagation]]
  • Class_2022_2 . . . . 3 matches
          propagation delay +
         propagation delay = 전파되는 시간 = 거리 / 속도
         여기선 vulnerable time = propagation time
  • Class_2023_1 . . . . 3 matches
         두 인기있는 테크닉은 [[기울기하강,gradient_descent]] and [[역전파,backpropagation]] - [[반복,interation]]식의.
         “Gradient descent” & “Backpropagation” in an iterative manner
         [[역전파,backpropagation]]
  • 상수,constant . . . . 3 matches
         constant_folding = constant_propagation
         sparse_conditional_constant_propagation (SCCP) { WpEn:Sparse_conditional_constant_propagation }
  • 오차,error . . . . 3 matches
         [[오차역전파,error_backpropagation]] .... [[역전파,backpropagation]]
         rel. (ML에서, ANN에서.) 오차 정정 학습법 = 역전파 [[backpropagation]] ? chk
  • 정보,information . . . . 3 matches
          information_propagation 정보전파? - 신경망(NN)관련해 언급됨. Srch:information_propagation Srch:propagation
  • WikiSandBox . . . . 2 matches
         [[역전파,backpropagation]]
         연결주의자의 마스터 알고리즘은 역전파backpropagation이며
  • 기울기,gradient . . . . 2 matches
         오차역전파 = [[역전파,backpropagation]]
         tmp see [[https://hwi-doc.tistory.com/entry/4-오차역전파propagation를-이용한-gradient-계산]]
  • 부동소수점,floating_point . . . . 2 matches
         오차의 전파? error_propagation? ([[uncertainty_propagation]] 작성중) - 에도 주의해야.
  • 손실함수,loss_function . . . . 2 matches
         문단 "Backpropagation Algorithm"; 매우대충요약, TOCLEANUP or DEL OK
         rel. [[신경망,neural_network]]의 [[가중값,weight]] parameter를 update하는 [[역전파,backpropagation]] 알고리듬에서 used...
  • 심층학습,deep_learning . . . . 2 matches
         forward propagation
         [[역전파,backpropagation]]
  • 파동함수,wave_function . . . . 2 matches
         물질의 파동성 때문에 계''(양자계?)''의 시간에 따른 변화는 파동의 진행''(propagation? [[WpEn:Wave_propagation]] 이거?)''과 비슷하며 [[슈뢰딩거_방정식,Schroedinger_equation]]으로 기술된다.
  • 퍼셉트론,perceptron . . . . 2 matches
          출력층에서 입력층 방향으로 역방향 학습이 일어나는 것이 [[역전파,backpropagation]]?
         다차원 입출력 사이의 관계를 다루는 문제는 간단하지 않음 - [[오차역전파,error_backpropagation]] { 오차역전파 알고리즘 1986년 Nature. 데이비드 러멜하트David Rumelhart, 제프리 힌튼Geoffrey Hinton, 로날드 윌리엄스Ronald Willams } 알고리즘으로 해결. 오차(loss)([[손실함수,loss_function]]?)를 정의하고 [[기울기하강,gradient_descent]]법으로 매개변수를 계산/갱신. [[연쇄법칙,chain_rule]] 등장.
  • 기울기하강,gradient_descent . . . . 1 match
         http://www.aistudy.com/math/gradient_descent.htm 보면 [[역전파,backpropagation]]와 관련.
  • 생성모형,generative_model . . . . 1 match
         즉 RBM에서 $x$ 가 순전파된 기대값 $\mathbb{E}[h_j]$ 가 (지난 연재에서 본) [[퍼셉트론,perceptron]]에서 숨은 뉴런의 활성함수([[활성화함수,activation_function]]) $f(s_j)$ 와 일치함. RBM에선 $x,h$ 가 [[대칭성,symmetry]]적 구조를 가짐. 그래서 [[역전파,backpropagation]]에 해당하는 [[조건부확률]] $P(x_i|h)$ 도 정의 가능.
  • 슈뢰딩거_방정식,Schroedinger_equation . . . . 1 match
          $k$ : [[propagation_constant]] or wavenumber([[파수,wavenumber]])
  • 플립플롭,flip-flop . . . . 1 match
         전파지연시간 propagation delay time
  • 화학반응,chemical_reaction . . . . 1 match
         propagation 전파
Found 20 matching pages out of 1075 total pages

You can also click here to search title.