////현재 평균,mean,average에도 내용 있음. TOMERGE
가중평균 (← 가중평균의 넓은 의미)
수학백과: 가중산술평균
}
{
이것의 계산 방식은 벡터,vector의 내적,inner_product/스칼라곱,scalar_product,dot_product과 rel. 왜인지는 너무 명백하므로 생략. - 잠깐 써보면
{
전체 합이 1이 되는 벡터 .. 예를 들어 와 내적을 하는 것은 전자에 60%, 후자에 40%의 가중치를 ...tbw
}
Ex.
이 때, 다음과 같이 (합하기 / 일정 원소만 뽑아내기 / 노름 구하기)가 가능하다.
가중값,weight 합,sum
}
그래프,graph or 네트워크,network can be 'unweighted or weighted'.
가중평균 (← 가중평균의 넓은 의미)
가중산술평균,weighted_arithmetic_mean (← 가중평균의 좁은 의미) ///QQQ 이게 = weighted_average ??? https://everything2.com/title/weighted average
가중기하평균,weighted_geometric_mean
//이상 세가지 모두 여기에 설명 있음질량중심 무게중심 center_of_mass mass_center weight_center 이 이것의 일종? chk
Weighted_arithmetic_mean
cf. 산술평균,arithmetic_mean
가중조화평균,weighted_harmonic_meanWeighted_arithmetic_mean
cf. 산술평균,arithmetic_mean
가중기하평균,weighted_geometric_mean
수학백과: 가중산술평균
}
{
이것의 계산 방식은 벡터,vector의 내적,inner_product/스칼라곱,scalar_product,dot_product과 rel. 왜인지는 너무 명백하므로 생략. - 잠깐 써보면
{
전체 합이 1이 되는 벡터 .. 예를 들어 와 내적을 하는 것은 전자에 60%, 후자에 40%의 가중치를 ...tbw
}
Ex.
(일벡터) 일 때, 는 벡터의 원소들의 합
일 때, 는
일 때,
....일 때, 는
일 때,
가중값,weight 합,sum
}
그래프,graph or 네트워크,network can be 'unweighted or weighted'.
weighted_graph weighted_network : link(edge)별로 그에 해당하는 weight를 갖는다.[1]
그럼 unweighted_graph unweighted_network : weight가 없음? or 1로 고정? QQQ
최단경로,shortest_path를 찾는 최단경로문제,shortest_path_problem에서
edge_weight - ,edge의 weight
path_weight - 경로,path에 속하는 모든 간선(edge)의 값을 더한 값
그럼 unweighted_graph unweighted_network : weight가 없음? or 1로 고정? QQQ
최단경로,shortest_path를 찾는 최단경로문제,shortest_path_problem에서
edge_weight - ,edge의 weight
path_weight - 경로,path에 속하는 모든 간선(edge)의 값을 더한 값
tmp; (뉴런,neuron/NN/etc.에서)
via http://sanghyukchun.github.io/74/
{
문단 "Model of Neural Network:"
신경망,neural_network에선, 뉴런,neuron들이 node이고, 그 neuron들을 연결하는 시냅스,synapse가 edge이다. Edge마다 weight가 있게 된다.
via http://sanghyukchun.github.io/74/
{
문단 "Model of Neural Network:"
신경망,neural_network에선, 뉴런,neuron들이 node이고, 그 neuron들을 연결하는 시냅스,synapse가 edge이다. Edge마다 weight가 있게 된다.
위치 "다시 일반적인 neural network에 대해 생각해보자"
rel. ,bias 와의 관계 설명 - 활성화함수의 식에서 같이 나타남.
활성화,activation(다음 뉴런,neuron에 뭔가를 전달을 "할지 말지"? boolean_function? threshold가 있고 그에 따라 activate or dectivate? chk)조건을 표현하는 활성화함수,activation_function 설명에서, 일단 편의상
라고 정의. (물론 가 weight) 일반적으로는 weight뿐만 아니라 bias도 고려해야 한다. 그 때 식은
그리고 activation fn 예를 조금 들면 ('활성화함수'에 wrote, del ok)
rel. ,bias 와의 관계 설명 - 활성화함수의 식에서 같이 나타남.
활성화,activation(다음 뉴런,neuron에 뭔가를 전달을 "할지 말지"? boolean_function? threshold가 있고 그에 따라 activate or dectivate? chk)조건을 표현하는 활성화함수,activation_function 설명에서, 일단 편의상
- 시그모이드함수,sigmoid_function
- tanh_function (is-a 쌍곡선함수,hyperbolic_function)
- 절대값함수,absolute_value_function? absolute_function? - curr at 절대값,absolute_value#s-1
- ReLU_function - curr at 함수,function#s-15
이 둘은 일단 tmp see https://velog.io/@cha-suyeon/DL-가중치-초기화Weight-Initialization-
https://mathworld.wolfram.com/Weight.html - 이건 위와 약간 포인트가 다름
----
- [1] Menczer, Network Sci, p15 아래 박스