#noindex 기호 ≈ $\approx$ 등등 QQQ 완전히 정확한 것을 찾을 수 없거나 비용이 많이 들 때, '비슷한 것'을 찾는 것? - 최적의 [[해,solution]]를 구하는 대신 '충분히 좋은 해'를 구하는. 그럼 RNG로 PRNG를 쓰는 것도 근사 비슷한? or 근사에 포함? QQQ 해가 [[closed-form_solution]]이 아니면 즉 [[closed-form_expression]]으로 나타낼 수 없으면 완벽한 해는 구할 수 없고(? 혹시 그게 아니라 '해를 간단히 식 형태로 표현할 수 없을 뿐'?) 그나마 최선의 행동이 가까운 해 (근사해)를 구하는 방법인 '''근사''' 뿐? TODO 수치의 ([[실수,real_number]], [[값,value]]) 근사 , .vs. [[함수,function]]/[[수열,sequence]]의 근사 로 분류해야 함. 또 있는지? MKLINK topic: 실제와 얼마나 같은지 - 정확도 정확성 [[accuracy]] { rel. [[오차,error]] } ... 비슷한 표현은 similarity ? [[유사성,similarity]] [[유사도,similarity]] Sub: [[정적분,definite_integral]]의 구분구적법도 '''근사'''의 일종? Rel: '''근사'''는 [[수치해석,numerical_analysis]]에 밀접. 특히 정적분 값 '''근사''' 방법/algorithm은 esp [[수치적분,numerical_integration]]. <> = 근사법 TOCLEANUP = '''근사법 approximation method''' $a\gg b$ 일 때, $(a+b)^n$ 의 형태의 근사값을 알고자 한다. 그 형태를 $(1+x)^n$ 의 형태로 바꾸기는 간단하다. 여기서 $x=b/a$ 는 차원이 없고 1보다 훨씬 작은 값이다. $(a+b)^n = a^n\left(1+\frac{b}{a}\right)^n = (a^n)(1+x)^n$ 이제 [[이항정리,binomial_theorem]] $(1+x)^n=1+\frac{n}{1!}x+\frac{n(n-1)}{2!}x^2+\cdots$ 를 써서 .. 이하 생략 From Halliday 1권 p170 [[Date(2021-05-28T10:46:53)]] 이것은 [[베르누이_부등식,Bernoulli_inequality]] 참조. curr see [[부등식,inequality#s-2]] [[Date(2023-01-02T05:57:16)]] 이것의 명칭은 [[이항근사,binomial_approximation]] - writing ---- 작은 각 근사 small angle approximation $\theta\ll 1$ 인 경우, $\sin\theta\approx\theta$ [[각,angle]]이 0에 가까우면 $y=\sin x$ 와 $y=x$ 는 거의 같다. 더 정확한 근사를 위해서는 sin의 [[테일러_급수,Taylor_series]] 전개([[테일러_전개,Taylor_expansion]])가 필요. tmp links https://everything2.com/title/small+angle+approximation [[https://terms.naver.com/entry.naver?docId=5668888&cid=60207&categoryId=60207 수학백과: 작은 각도 근사]] "복잡한 것을 간단한 것의 [[섭동,perturbation]]으로 이해하고, 간단한 것에서 얻은 정보를 복잡한 것을 이해하는 데 활용하는 [[방법,method]]을 섭동법 Ggl:섭동법 Ndict:섭동법 이라고 한다." 고딩+일반물리 레벨에선, [[진자,pendulum]]운동(진자운동) 기술을 엄밀하게 하려면 [[타원적분,elliptic_integral]]이 필요한데, 그것까지 끌고 올 수 없으므로 거의 필수적으로 이 근사를 사용하는 듯? ---- 오일러의 방법(Euler's Method): 접선을 이용하여 근삿값을 구하는 방법 tmp goto https://blog.naver.com/dydrogud22/220108163230 ---- Stirling's approximation 스털링 근사: [[계승,factorial]]을 근사 see [[스털링_공식,Stirling_formula]] ---- 근사에 대한 book의 draft The Art of Approximation in Science and Engineering .pdf (mit.edu) https://news.ycombinator.com/item?id=18099596 = 일차근사 first-degree approximation = 선형근사 linear approximation = Sub: [[선형근사,linear_approximation]] = 이차근사 second-degree approximation, quadratic approximation = Sub: [[이차근사,quadratic_approximation]] - writing tmp see [[MIT_Single_Variable_Calculus#s-10]] = n차근사? = [[테일러_다항식,Taylor_polynomial]]이 쓰이는? = successive approximation = 축차근사? 연속근사? 축차근사 via kms - https://www.kms.or.kr/mathdict/list.html?key=kname&keyword=차근사 https://www.google.com/search?q=successive+approximation+method = 근사값 = [[근사값,approximate_value]] { AKA '''근삿값'''(표준어), '''근사치, approximation''' Related: [[근사,approximation]] [[값,value]] [[오차,error]] 오차 = '''근사값''' - 참값 [[오차한계]] [[error_bound]] - writing [[근사오차,approximation_error]] - writing [[https://terms.naver.com/entry.naver?docId=3338071&cid=47324&categoryId=47324 수학백과: 근삿값]] [[WpKo:근삿값]] (내용부족 at [[Date(2022-01-19T14:12:52)]]) } = 근사알고리듬 근사적알고리듬? = [[approximation_algorithm]] - writing; Google:Approximation.algorithm 완벽한/최선의(optimal) 답을 구하는 것을 포기하고 틀릴/오류/오차 가능성을 감수하고 근접한/차선의(suboptimal) 답을 빠르게? ''정확성과 답을 얻기 위한 자원(resource, computing power 등)에 trade-off 관계가 있는 경우?'' ex. TSP traveling_salesman_problem - 최적해를 구하는 연산은 매우 비싸므로, heuristic을 사용. Up: [[알고리듬,algorithm]] = Related = 정확한 근사를 위해서는 [[오차,error]]를 줄이는 것이 중요 점진적으로 '''근사''' - 점근 - asymtotic([[점근선,asymptote]] 등) 이렇게 관련? [[유사도,similarity]] or 유사성? 과 비슷한 느낌? [[모델,model]] [[모형,model]] , [[simulation]] ...이런 것들은 실제로 존재하는 어떤 것을 완벽히 모사하기보다는(할 수 있으면 좋지만 불가능한 경우가 많아서) '''근사'''하여 [[분석,analysis]]하기 위한? = 근사식 및 그 확장? 일반화? esp. 이변수함수의 근사식 and Hessian matrix = 근사식 일차근사식, 이차근사식, ... 일변수함수의 근사식, 이변수함수의 근사식, ... 이런식으로 확장/분류 가능. 점 $x_0$ 에서 일변수함수 $f(x)$ 의 이차근사식: $f(x)\sim f(x_0)+f'(x_0)(x-x_0)+\frac12 f''(x_0)(x-x_0)^2$ 점 $x=x_0$ 에서 함수 $f$ 의 그래프가 위 이차식의 그래프와 유사해진다. ''이 글은 이변수함수는 좀 간단하게 함'' 이변수함수의 경우, 기호를 간단하게 하기 위해 $(x_0,y_0)=(0,0)$ 인 경우의 이차근사식을 봄. $D_1=\frac{\partial}{\partial x},\,D_2=\frac{\partial}{\partial y}$ 이다. $f(x,y)\sim f(0,0)+D_1 f(0,0)x + D_2 f(0,0)y$ $+\frac12\left( D_1^2 f(0,0)x^2 + 2 D_1 D_2 f(0,0) xy + D_2^2 f(0,0) y^2 \right)$ 그래서 원점에서 $f$ 의 헤세 행렬 $H$ 는 $H=\begin{bmatrix} D_1^2 f(0,0) & D_2 D_1 f(0,0) \\ D_1 D_2 f(0,0) & D_2^2 f(0,0) \end{bmatrix}$ 이 행렬을 보면 1행은 $D_1 f$ 의 [[기울기벡터,gradient_vector]], 2행은 $D_2 f$ 의 기울기벡터. from [[https://terms.naver.com/entry.naver?docId=3338325&cid=47324&categoryId=47324 수학백과: 헤세 행렬]] ([[헤세_행렬,Hessian_matrix]]) ---- [[https://terms.naver.com/entry.naver?docId=3404991&cid=47324&categoryId=47324 수학백과: 근사식]] = 근사다항식 = 김홍종 미적1+에선 '테일러 다항식' = '근사다항식'으로 적어놓음. 근데 근사를 위한 [[다항식,polynomial]]이 이것뿐만이 아닐텐데 책이 다루는 범위를 생각해서 그런건지... See [[테일러_다항식,Taylor_polynomial]] KWs: 다항식근사 = 물리: 맥스웰-볼츠만 근사 Maxwell-Boltzmann Approximation = pagename tbd. [[Maxwell-Boltzmann_approximation]] [[Boltzmann_approximation]] ... Google:Boltzmann_approximation = 화학, 물리: 보른-오펜하이머 근사 Born-Oppenheimer approximation = [[Born-Oppenheimer_approximation]] 원자핵이 전자보다 훨씬 무겁다는 것을 이용? via [[분자오비탈,molecular_orbital]] 관련 보다가 ... Google:보른-오펜하이머+근사 Google:Born-Oppenheimer+approximation = Weierstrass approximation theorem = 정리 2.21: Weierstrass의 근사 정리(Weierstrass approximation theorem) 만약 $f(x)$ 가 실수의 값을 가지고 구간 $x\in[a,b]$ 에서 연속이면, 아무리 작다고 하더라도 양의 $\epsilon$ 이 주어질 때, 생각하는 구간 내의 모든 $x$ 들에 대해 $|f(x)-p(x)|<\epsilon$ 인 다항식 $p(x)$ 가 존재한다. (이승준 p46) = CS: tilde approximation = big O와 용도가 비슷한 또 다른 [[표기법,notation]]임. 틸다 근사 (Tilde approximations) - 기계인간 John Grib https://johngrib.github.io/wiki/tilde-approximations/ (Sedgewick) rel. [[big_O_notation]](curr. [[복잡도,complexity#s-1]], Landau 그거), [[복잡도,complexity]], [[complexity_class]] = Misc = Fast Inverse Square Root (2020) https://timmmm.github.io/fast-inverse-square-root/ https://news.ycombinator.com/item?id=24959157 Logarithmic Number System (LNS) 관련임. logarithmic_number_system - 디지털 컴퓨터의 숫자 표현 방식. [[로그,log]]와 어떤관련인지 tbw tmp del ok log2(x) = log10(x) + ln(x) [[https://everything2.com/title/log2%2528x%2529+%253D+log10%2528x%2529+%252B+ln%2528x%2529]] 99.4% 정확 [[제곱근,square_root]], [[테일러_급수,Taylor_series]] https://everything2.com/title/approximating+square+roots+using+first-order+Taylor+series [[신경망,neural_network]](인공신경망 artificial_neural_network ANN)은 거의 모든 것을 '''근사'''할 수 있다 - [[universal_approximation_theorem]]... curr mentioned at [[신경망,neural_network]] ---- [[https://terms.naver.com/entry.naver?docId=3338497&cid=47324&categoryId=47324 수학백과: 근사]] [[WpEn:Approximation]]