가중값,weight

BackLinks search for "가중값,weight"


Search BackLinks only
Display context of search results
Case-sensitive searching
  • Class_2022_1
          $\beta_j$ weights, // [[가중값,weight]]
         [[선형결합,linear_combination]] (of vectors) - [[가중값,weight]] 혹은 [[계수,coefficient]]로
  • 가중값,weight
         [[가중값,weight]] [[합,sum]]
  • 그래프,graph
          https://mathworld.wolfram.com/WeightedGraph.html - [[가중값,weight]]이 branch에? branch 가 뭐지? edge 말하는거? - Yes.[* https://mathworld.wolfram.com/GraphEdge.html]
         weight - [[가중값,weight]], 있으면 weighted_graph
         가중그래프 weighted graph - edge에 [[가중값,weight]]이 주어진 그래프.
  • 기수법,numeral_system
         [[가중값,weight]]이 n진법의 경우 1, n, n², n³, … 즉 n^^0^^, n^^1^^, n^^2^^, n^^3^^, …이 되는, [[숫자,digit]]의 위치에 따른 [[가중합,weighted_sum]]으로 볼 수 있다.
  • 기울기하강,gradient_descent
         [[가중값,weight]]
         [[가중값,weight]]
  • 로마자,Latin_alphabet
          [[가중값,weight]]
  • 비용함수,cost_function
         [[가중값,weight]]과 [[편향,bias]]으로 이루어져 있으며 - 정확히 rewrite
  • 선형결합,linear_combination
         is called a '''linear combination''' of $\vec{v_1},\cdots,\vec{v_p}$ with [[가중값,weight|weights]] $c_1,\cdots,c_p.$
  • 선형회귀,linear_regression
         선형회귀모형(linear regression model)은 독립변수 $x$ 에서 종속변수 $y$ 를 예측하는 방법의 하나로, 독립변수벡터 $x$ 와 [[가중값,weight]]벡터 $w$ 의 [[가중합,weighted_sum]]으로 $y$ 에 대한 예측값 $\hat{y}$ 를 계산하는 수식을 말한다.
  • 손실함수,loss_function
         rel. [[신경망,neural_network]]의 [[가중값,weight]] parameter를 update하는 [[역전파,backpropagation]] 알고리듬에서 used...
  • 신경망,neural_network
         ''즉 [[가중합,weighted_sum]]? (curr at [[가중값,weight]])''을 구하여 이것이 ''임의로 정해진''(? chk) threshold_value보다 크면 1을 출력하고 그렇지 않으면 0을 출력하는 회로를 말한다
          TBD: 여기서 말하는 kernel의 pagename? [[커널,kernel]] or [[핵,kernel]] or weight_kernel ?? ... [[가중값,weight]]
         [[뉴런,neuron]]들이 [[노드,node]]이고 [[시냅스,synapse]]가 [[edge]]인 [[네트워크,network]]([[그래프,graph]], esp [[유향그래프,directed_graph]])로 model할 수 있고... edge마다 [[가중값,weight]]이 있다. 그래서 [[정보전파,information_propagation]]가 한 방향으로 고정되어 있다. 만약 undirected edge라면 information propagation이 recursive하게 일어나서 복잡해진다 - 이것은 RNN recurrent_neural_network(curr at [[신경망,neural_network#s-3]])
         그렇다면 [[가중값,weight]] parameter를 어떻게 찾는가? 활성화함수가 nonlinear이고 layer들로 얽혀있어서 이건 non-convex optimization이다(opp. [[볼록최적화,convex_optimization]]? chk) - 그래서 일반적으로 global_optimum을 찾는 것은 불가능하다. 보통 [[기울기하강,gradient_descent]](curr at [[기울기,gradient#s-1]]) 방법을 써서 적당한 값을 찾는다.
  • 심층학습,deep_learning
         [[기계학습,machine_learning]]의 구현 기법(technique) 중 하나로, [[신경망,neural_network]] ( [[심층신경망,deep_neural_network,DNN]] - 페이지를 여기와 따로 만들지 말지 tbd. { '''DNN, Deep Nets''' http://sanghyukchun.github.io/54/ 계층이 두터운 [[신경망,neural_network]]은, [[가중값,weight]]들이 랜덤 보다는 정교하게 [[초기화,initialization]]되면 매우 잘 훈련될 수 있다는 것이 발견됨 (2006-2007년, Hinton and Bengio의 breakthrough.[* https://youtu.be/AByVbUX1PUI?t=232]) } ) 를 사용. thanks to Hinton's DBN = deep_belief_network in 2006.
  • 연쇄법칙,chain_rule
         weight parameter update ''(weight_parameter - [[가중값,weight]] [[parameter]], weight_update, ...이것들중에 pagename TBD? 아님 페이지 따로 없어도 무방할 듯.)''
  • 옌센_부등식,Jensen_inequality
         의 [[가중평균,weighted_mean]](curr see [[가중값,weight]])의 함수값이
         // chk: $s_1,\ldots,s_n$ : 양수 [[가중값,weight]]?
  • 진자,pendulum
          영어 표현 weight: [[가중값,weight]] [[무게,weight]]와 같음.
  • 통계,statistics
          * 층화 표본추출(stratified sampling) - 각 [[층,stratum]](writing) { 몇 개의 동질적인 집단으로 [[모집단,population]]을 구분해 놓은 것. (노부호 p11) } 에 [[가중값,weight]]을 적용하여 모집단 특성에 대한 추정치를 계산하는 방법
  • 퍼셉트론,perceptron
         w,,1,,과 w,,2,,: 가중치(=[[가중값,weight]])
         퍼셉트론에서 가중치([[가중값,weight]])의 양수값은 흥분성 연결,,excitatory connection,,을 나타내고 가중치의 음수값은 억제성 연결,,inhibitory connection,,을 나타낸다. 퍼셉트론은 입력들의 가중치 합([[가중합,weighted_sum]])을 넘으면 1을 출력하고 넘지 않으면 0을 출력한다. ([[boolean-valued_function]]) 우리는 가중치와 한계값을 조절함으로써 퍼셉트론이 수행하는 기능을 바꿀 수 있다. ...... 신경세포 몸체는 가중치가 적용된 입력들을 모두 더하고 축색돌기는 더한 입력에 대해 [[계단함수,step_function]]를 적용한다. ..... (단점) 퍼셉트론은 [[선형경계,linear_boundary]]([[경계,boundary]])만 학습할 수 있기 때문에 배타적 논리합(XOR)은 배울 수 없다.
         가중치를 적용하고 더한([[가중값,weight]] 적용) $w_1 x_1 + w_2 x_2$ 가
  • 평균,mean,average
         [[가중산술평균,weighted_arithmetic_mean]]'' - see [[가중평균,weighted_mean]] - curr see [[가중값,weight]]''
         [[가중기하평균,weighted_geometric_mean]]'' - see [[가중평균,weighted_mean]] - curr see [[가중값,weight]]''
         [[가중조화평균,weighted_harmonic_mean]]'' - see [[가중평균,weighted_mean]] - curr see [[가중값,weight]]''
         Up: mean [[가중값,weight]]
         // 이하 [[가중값,weight]]
  • 푸리에_급수,Fourier_series
         "[[주기함수,periodic_function]]를 [[삼각함수,trigonometric_function]]의 가중치(see [[가중값,weight]])로 [[분해,decomposition]]한 [[급수,series]]다. 함수의 푸리에 [[계수,coefficient]]는 원래 함수보다 다루기 쉽다."
  • 해밍_가중값,Hamming_weight
         Up: [[가중값,weight]]
  • 활성화함수,activation_function
         [[가중값,weight]]
         [[가중값,weight]] $w_1,w_2$ 를 적용시켜(곱해서) (참고로 [[선형결합,linear_combination]]과 매우 비슷) 그 합([[가중합,weighted_sum]])을
Found 21 matching pages out of 1081 total pages

You can also click here to search title.