Newton's method in optimization (original) (raw)

About DBpedia

In calculus, Newton's method is an iterative method for finding the roots of a differentiable function F, which are solutions to the equation F (x) = 0. As such, Newton's method can be applied to the derivative f ′ of a twice-differentiable function f to find the roots of the derivative (solutions to f ′(x) = 0), also known as the critical points of f. These solutions may be minima, maxima, or saddle points; see section "Several variables" in Critical point (mathematics) and also section in this article. This is relevant in optimization, which aims to find (global) minima of the function f.

thumbnail

Property Value
dbo:abstract In calculus, Newton's method is an iterative method for finding the roots of a differentiable function F, which are solutions to the equation F (x) = 0. As such, Newton's method can be applied to the derivative f ′ of a twice-differentiable function f to find the roots of the derivative (solutions to f ′(x) = 0), also known as the critical points of f. These solutions may be minima, maxima, or saddle points; see section "Several variables" in Critical point (mathematics) and also section in this article. This is relevant in optimization, which aims to find (global) minima of the function f. (en) Metoda Newtona – algorytm numeryczny mający na celu znalezienie minimum zadanej funkcji celu. Metodą Newtona nazywana jest również metoda rozwiązywanie równań nieliniowych. Oba pojęcia pomimo takiej samej nazwy odnoszą się do dwóch różnego rodzaju zadań numerycznych. (pl) В диференціальному численні метод Ньютона — це ітераційний метод пошуку коренів диференційовної функції , які є розв'язками рівняння . В оптимізації метод Ньютона застосовується до похідної подвійно диференційовної функції для пошуку коренів похідної (розв'язки ), також відомих як стаціонарні точки Ці розв'язки можуть бути мінімумами, максимумами або сідловими точками. (uk) 牛頓法是微積分學中, 通過疊代以求解可微函數的零點的一種算法 (即求使得). 而在最佳化中, 牛頓法通常被運用於求解一個二次可微函數的一階導數的零點 (即求使得), 同時也是的駐點. 因此從另一個角度而言,應用於最佳化的牛頓法是搜索函數的最小值或最大值的一種算法。 一維問題的牛頓法主要步驟如下:取一個點為初值, 依如下公式疊代: 直至滿足一定條件 (如或, 其中為一個給定的足夠小的常數) 後, 算法終止。 (zh)
dbo:thumbnail wiki-commons:Special:FilePath/Newton_optimization_vs_grad_descent.svg?width=300
dbo:wikiPageExternalLink https://archive.org/details/practicalmethods0000flet http://bl.ocks.org/dannyko/ffe9653768cb80dfc0da/
dbo:wikiPageID 1244523 (xsd:integer)
dbo:wikiPageInterLanguageLink dbpedia-fr:Méthode_de_Newton
dbo:wikiPageLength 12005 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1097952535 (xsd:integer)
dbo:wikiPageWikiLink dbr:Calculus dbr:Derivative dbr:Levenberg–Marquardt_algorithm dbr:John_Wiley_&_Sons dbr:Multiplicative_inverse dbr:Iterative_methods dbr:Conjugate_gradient_method dbr:Critical_point_(mathematics) dbr:Mathematical_optimization dbr:Saddle_point dbr:Gauss–Newton_algorithm dbr:Nelder–Mead_method dbr:Wolfe_conditions dbr:Quasi-Newton_method dbr:Optimization_(mathematics) dbr:Equation dbr:Gradient dbr:Gradient_descent dbr:Conjugate_residual_method dbr:Constrained_optimization dbr:Smooth_function dbc:Optimization_algorithms_and_methods dbr:Learning_rate dbr:Parabola dbr:Graph_of_a_function dbr:Iteration dbr:Iterative_method dbr:Invertible_matrix dbr:Backtracking_line_search dbr:Cholesky_factorization dbr:Lagrange_multipliers dbr:Hessian_matrix dbr:Zero_of_a_function dbr:Differentiable_function dbr:Mike_Bostock dbr:Newton's_method dbr:Sequence dbr:Trust_region dbr:System_of_linear_equations dbr:Taylor_expansion dbr:File:Newton_optimization_vs_grad_descent.svg
dbp:wikiPageUsesTemplate dbt:= dbt:Cite_arXiv dbt:Cite_book dbt:Cite_web dbt:Em dbt:Math dbt:Reflist dbt:Short_description dbt:Isaac_Newton dbt:Optimization_algorithms
dct:subject dbc:Optimization_algorithms_and_methods
gold:hypernym dbr:Method
rdf:type dbo:Software yago:WikicatOptimizationAlgorithmsAndMethods yago:Abstraction100002137 yago:Act100030358 yago:Activity100407535 yago:Algorithm105847438 yago:Event100029378 yago:Procedure101023820 yago:PsychologicalFeature100023100 yago:YagoPermanentlyLocatedEntity yago:Rule105846932
rdfs:comment In calculus, Newton's method is an iterative method for finding the roots of a differentiable function F, which are solutions to the equation F (x) = 0. As such, Newton's method can be applied to the derivative f ′ of a twice-differentiable function f to find the roots of the derivative (solutions to f ′(x) = 0), also known as the critical points of f. These solutions may be minima, maxima, or saddle points; see section "Several variables" in Critical point (mathematics) and also section in this article. This is relevant in optimization, which aims to find (global) minima of the function f. (en) Metoda Newtona – algorytm numeryczny mający na celu znalezienie minimum zadanej funkcji celu. Metodą Newtona nazywana jest również metoda rozwiązywanie równań nieliniowych. Oba pojęcia pomimo takiej samej nazwy odnoszą się do dwóch różnego rodzaju zadań numerycznych. (pl) В диференціальному численні метод Ньютона — це ітераційний метод пошуку коренів диференційовної функції , які є розв'язками рівняння . В оптимізації метод Ньютона застосовується до похідної подвійно диференційовної функції для пошуку коренів похідної (розв'язки ), також відомих як стаціонарні точки Ці розв'язки можуть бути мінімумами, максимумами або сідловими точками. (uk) 牛頓法是微積分學中, 通過疊代以求解可微函數的零點的一種算法 (即求使得). 而在最佳化中, 牛頓法通常被運用於求解一個二次可微函數的一階導數的零點 (即求使得), 同時也是的駐點. 因此從另一個角度而言,應用於最佳化的牛頓法是搜索函數的最小值或最大值的一種算法。 一維問題的牛頓法主要步驟如下:取一個點為初值, 依如下公式疊代: 直至滿足一定條件 (如或, 其中為一個給定的足夠小的常數) 後, 算法終止。 (zh)
rdfs:label Newton's method in optimization (en) Metoda Newtona (optymalizacja) (pl) 應用於最優化的牛頓法 (zh) Метод Ньютона в оптимізації (uk)
owl:sameAs freebase:Newton's method in optimization yago-res:Newton's method in optimization wikidata:Newton's method in optimization dbpedia-nn:Newton's method in optimization dbpedia-pl:Newton's method in optimization dbpedia-uk:Newton's method in optimization dbpedia-zh:Newton's method in optimization https://global.dbpedia.org/id/fwJy
prov:wasDerivedFrom wikipedia-en:Newton's_method_in_optimization?oldid=1097952535&ns=0
foaf:depiction wiki-commons:Special:FilePath/Newton_optimization_vs_grad_descent.svg
foaf:isPrimaryTopicOf wikipedia-en:Newton's_method_in_optimization
is dbo:wikiPageRedirects of dbr:Newton_method_for_optimization dbr:Newton_method_in_optimization dbr:Newton's_method_in_optimisation
is dbo:wikiPageWikiLink of dbr:Bayesian_optimization dbr:List_of_algorithms dbr:No_free_lunch_in_search_and_optimization dbr:Non-linear_least_squares dbr:Davidon–Fletcher–Powell_formula dbr:List_of_numerical_analysis_topics dbr:Convex_optimization dbr:Coordinate_descent dbr:Mathematical_optimization dbr:Gauss–Newton_algorithm dbr:Generalized_filtering dbr:Generalized_linear_model dbr:Quasi-Newton_method dbr:Gradient_descent dbr:Berndt–Hall–Hall–Hausman_algorithm dbr:Cholesky_decomposition dbr:Broyden's_method dbr:Laplace's_approximation dbr:Learning_rate dbr:Normal_distributions_transform dbr:Backtracking_line_search dbr:Successive_parabolic_interpolation dbr:Lagrange_multiplier dbr:Hessian_matrix dbr:Ternary_search dbr:Platt_scaling dbr:Broyden–Fletcher–Goldfarb–Shanno_algorithm dbr:Newton's_method dbr:XGBoost dbr:Maximum_a_posteriori_estimation dbr:Scientific_programming_language dbr:List_of_things_named_after_Isaac_Newton dbr:Symmetric_rank-one dbr:Sparse_dictionary_learning dbr:Truncated_Newton_method dbr:Newton_method_for_optimization dbr:Newton_method_in_optimization dbr:Newton's_method_in_optimisation
is foaf:primaryTopic of wikipedia-en:Newton's_method_in_optimization