Gradient descent (original) (raw)

About DBpedia

L'algorisme del gradient descendent és un mètode iteratiu d'optimització de primer ordre per a trobar el mínim d'una funció. S'anomena descendent perque el prenen els increments proporcionals al negatiu del gradient de la funció. Si es prenenincrements positius al gradient s'anomena gradient ascendent. Aquest mètode s'empra sovint com una extensió de l'algorime de retropropagació usat en l'entrenament de xarxes neuronals artificials.

thumbnail

Property Value
dbo:abstract L'algorisme del gradient descendent és un mètode iteratiu d'optimització de primer ordre per a trobar el mínim d'una funció. S'anomena descendent perque el prenen els increments proporcionals al negatiu del gradient de la funció. Si es prenenincrements positius al gradient s'anomena gradient ascendent. Aquest mètode s'empra sovint com una extensió de l'algorime de retropropagació usat en l'entrenament de xarxes neuronals artificials. (ca) أصل التدرج هو خوارزمية تحسين تكرارية من الدرجة الأولى للعثور على الحد الأدنى المحلي لدالة قابلة للاشتقاق. للعثور على الحد الأدنى المحلي للدالة باستخدام منحدر التدرج، نتخذ خطوات تتناسب مع سلبية التدرج (أو التدرج التقريبي) للدالة عند النقطة الحالية. ولكن إذا اتخذنا بدلاً من ذلك خطوات تتناسب مع إيجابية التدرج، فإننا نقترب من الحد الأقصى المحلي لهذه الدالة؛ يُعرف الإجراء بعد ذلك بصعود متدرج . تم اقتراح خوارزمية أصل التدرج من قبل العالم الرياضي أوغستين لوي كوشي في عام 1847. (ar) Gradientní sestup (anglicky gradient descent) je iterativní optimalizační algoritmus prvního řádu pro nalezení lokálního minima diferencovatelné funkce. Myšlenkou metody je posouvat se z výchozího bodu po krocích vždy v opačném směru gradientu (nebo přibližného gradientu) funkce v daném bodě, protože to je směr nejstrmějšího klesání její hodnoty. Naopak krokování ve směru gradientu povede k lokálnímu maximu této funkce; postup je pak známý jako gradientní výstup. Algoritmus se přičítá Cauchymu, který ho poprvé zmínil v roce 1847, ale jeho konvergenční vlastnosti pro nelineární optimalizační problémy byly poprvé studovány Haskellem Currym v roce 1944. Gradientní sestup je spojitou analogií metody hill-climbing (gradientní algoritmus). Sám je základem dalších metod, zejména algoritmu zpětného šíření chyby používaného pro učení umělých neuronových sítí. (cs) Das Gradientenverfahren wird inder Numerik eingesetzt, um allgemeine Optimierungsprobleme zu lösen. Dabei schreitet man (am Beispiel eines Minimierungsproblems) von einem Startpunkt aus entlang einer Abstiegsrichtung, bis keine numerische Verbesserung mehr erzielt wird. Wählt man als Abstiegsrichtung den negativen Gradienten, also die Richtung des lokal steilsten Abstiegs, erhält man das Verfahren des steilsten Abstiegs, welches nicht zu verwechseln ist mit einem weiteren Verfahren in der Analysis und asymptotischen Analysis unter demselben Namen Methode des steilsten Abstiegs. Manchmal werden die Begriffe Gradientenverfahren und Verfahren des steilsten Abstiegs synonym verwendet. Im Allgemeinen bezeichnet Gradientenverfahren eine Optimierungsmethode, bei der die Abstiegsrichtung durch Gradienteninformation gewonnen wird, also nicht notwendigerweise auf den negativen Gradienten beschränkt ist. Das Verfahren des steilsten Abstiegs konvergiert oftmals sehr langsam, da es sich dem stationären Punkt mit einem starken Zickzack-Kurs nähert. Andere Verfahren für die Berechnung der Abstiegsrichtung erreichen teils deutlich bessere Konvergenzgeschwindigkeiten, so bietet sich für die Lösung von symmetrisch positiv definiten linearen Gleichungssystemen beispielsweise das Verfahren der konjugierten Gradienten an. Der Gradientenabstieg ist mit dem Bergsteigeralgorithmus (hill climbing) verwandt. (de) In mathematics, gradient descent (also often called steepest descent) is a first-order iterative optimization algorithm for finding a local minimum of a differentiable function. The idea is to take repeated steps in the opposite direction of the gradient (or approximate gradient) of the function at the current point, because this is the direction of steepest descent. Conversely, stepping in the direction of the gradient will lead to a local maximum of that function; the procedure is then known as gradient ascent. Gradient descent is generally attributed to Augustin-Louis Cauchy, who first suggested it in 1847. Jacques Hadamard independently proposed a similar method in 1907. Its convergence properties for non-linear optimization problems were first studied by Haskell Curry in 1944, with the method becoming increasingly well-studied and used in the following decades. (en) L'algorithme du gradient, aussi appelé algorithme de descente de gradient, désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué dans la direction opposée au gradient, de manière à faire décroître la fonction. Le déplacement le long de cette direction est déterminé par la technique numérique connue sous le nom de recherche linéaire. Cette description montre que l'algorithme fait partie de la famille des algorithmes à directions de descente. Les algorithmes d'optimisation sont généralement écrits pour minimiser une fonction. Si l'on désire maximiser une fonction, il suffira de minimiser son opposée. Il est important de garder à l'esprit le fait que le gradient, et donc la direction de déplacement, dépend du produit scalaire qui équipe l'espace hilbertien ; l'efficacité de l'algorithme dépend donc de ce produit scalaire. L'algorithme du gradient est également connu sous le nom d'algorithme de la plus forte pente ou de la plus profonde descente (steepest descent, en anglais) parce que le gradient est la pente de la fonction linéarisée au point courant et est donc, localement, sa plus forte pente (notion qui dépend du produit scalaire). Dans sa version la plus simple, l'algorithme ne permet de trouver ou d'approcher qu'un point stationnaire (i.e., un point en lequel le gradient de la fonction à minimiser est nul) d'un problème d'optimisation sans contrainte. De tels points sont des minima globaux, si la fonction est convexe. Des extensions sont connues pour les problèmes avec contraintes simples, par exemple des . Malgré des résultats de convergence théoriques satisfaisants, cet algorithme est généralement lent si le produit scalaire définissant le gradient ne varie pas avec le point courant de manière convenable, c'est-à-dire si l'espace vectoriel n'est pas muni d'une structure riemannienne appropriée, d'ailleurs difficilement spécifiable a priori. Il est donc franchement à déconseiller, même pour minimiser une fonction quadratique strictement convexe de deux variables[réf. nécessaire]. Toutefois, ses qualités théoriques font que l'algorithme sert de modèle à la famille des algorithmes à directions de descente ou de sauvegarde dans les algorithmes à régions de confiance. Le principe de cet algorithme remonte au moins à Cauchy (1847). (fr) Algoritme penurunan gradien atau gradient descent adalah algoritme yang digunakan untuk mencari nilai minimum lokal yang dapat dihasilkan dari suatu fungsi parametrik. Teknik ini didasarkan pada fakta bahwa nilai gradien dari suatu fungsi pada titik tertentu menyatakan kemiringan lereng dari nilai tersebut terhadap titik di sekitarnya sehingga nilai minimum dapat diraih dengan mengurangi nilai titik tersebut dengan nilai gradien. Algoritme ini dapat dibalik untuk tujuan mencari nilai maksimum dengan cara menambahkan suatu nilai titik dengan gradien fungsinya pada titik tersebut. Algoritme ini sangat umum digunakan pada teknik Regresi maupun Pembelajaran mesin untuk mencari variabel pada fungsi galat sehingga suatu fungsi dapat memodelkan data dengan galat yang minimum (in) In ottimizzazione e analisi numerica il metodo di discesa del gradiente (detto anche metodo del gradiente oppure metodo della massima discesa (anche discesa più ripida); in inglese gradient descent o steepest descent) è una tecnica che consente di determinare i punti di massimo e minimo di una funzione di più variabili. In particolare il metodo va alla ricerca di punti che soddisfano condizioni di ottimalità (condizioni necessarie, sufficienti, necessarie e sufficienti all'ottimo). Il metodo è stato sviluppato, e pubblicato nel 1847, dal matematico francese Augustin-Louis Cauchy nel tentativo di risolvere il problema di determinare l'orbita di un corpo celeste a partire dalle sue equazioni del moto. (it) 경사 하강법(傾斜下降法, Gradient descent)은 1차 근삿값 발견용 최적화 알고리즘이다. 기본 개념은 함수의 기울기(경사)를 구하고 경사의 반대 방향으로 계속 이동시켜 극값에 이를 때까지 반복시키는 것이다. (ko) 最急降下法(さいきゅうこうかほう、英: Gradient descent, steepest descent)は、関数(ポテンシャル面)の傾き(一階微分)のみから、関数の最小値を探索する連続最適化問題の勾配法のアルゴリズムの一つ。勾配法としては最も単純であり、直接・間接にこのアルゴリズムを使用している場合は多い。最急降下法をオンライン学習に改良した物を確率的勾配降下法と呼ぶ。 尚、最急降下法の“最急”とは、最も急な方向に降下することを意味している。すなわち、収束の速さに関して言及しているわけではない(より速いアルゴリズムがあり得る)。 (ja) Metoda gradientu prostego – algorytm numeryczny mający na celu znalezienie minimum lokalnego zadanej funkcji celu. Jest to jedna z prostszych metod optymalizacji. Przykładami innych metod są metoda najszybszego spadku, czy metoda Newtona. (pl) O método do gradiente (ou método do máximo declive) é um método numérico usado em otimização. Para encontrar um mínimo (local) de uma função usa-se um esquema iterativo, onde em cada passo se toma a direção (negativa) do gradiente, que corresponde à direção de declive máximo. Pode ser encarado como o método seguido por um curso da água, na sua descida pela força da gravidade. (pt) Градиентный спуск, метод градиентного спуска — численный метод нахождения локального минимума или максимума функции с помощью движения вдоль градиента, один из основных численных методов современной оптимизации. Активно используется в вычислительной математике не только для непосредственного решения задач оптимизации (минимизации), но и для задач, которые могут быть переписаны на языке оптимизации (решение нелинейных уравнений, поиск равновесий, обратные задачи и т. д.). Метод градиентного спуска можно использовать для задач оптимизации в бесконечномерных пространствах, например, для численного решения задач оптимального управления. Особенно большой интерес к градиентным методам в последние годы связан с тем, что градиентные спуски и их стохастические / рандомизированные варианты лежат в основе почти всех современных алгоритмов обучения, разрабатываемых в анализе данных. (ru) 梯度下降法(英語:Gradient descent)是一个一阶最优化算法,通常也称为最陡下降法,但是不該與近似積分的最陡下降法(英語:Method of steepest descent)混淆。要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。如果相反地向梯度正方向迭代进行搜索,则会接近函数的局部极大值点;这个过程则被称为梯度上升法。 (zh) Градіє́нтний спуск (англ. gradient descent) — це ітераційний алгоритм оптимізації першого порядку, в якому для знаходження локального мінімуму функції здійснюються кроки, пропорційні протилежному значенню градієнту (або наближеного градієнту) функції в поточній точці. Якщо натомість здійснюються кроки пропорційно самому значенню градієнту, то відбувається наближення до локального максимуму цієї функції; і ця процедура тоді відома як градіє́нтний підйо́м (англ. gradient ascent). Градієнтний спуск відомий також як найшви́дший спуск (англ. steepest descent), або ме́тод найшви́дшого спу́ску (англ. method of steepest descent). Градієнтний спуск не слід плутати з для наближення інтегралів. (uk)
dbo:thumbnail wiki-commons:Special:FilePath/Gradient_descent.svg?width=300
dbo:wikiPageExternalLink http://codingplayground.blogspot.it/2013/05/learning-linear-regression-with.html https://web.archive.org/web/20171016173155/https:/www.youtube.com/watch%3Fv=IHZwWFHWa-w https://web.stanford.edu/~boyd/cvxbook/bv_cvxbook.pdf%23page=471 http://neuralnetworksanddeeplearning.com/chap1.html%23learning_with_gradient_descent https://ghostarchive.org/varchive/youtube/20211211/IHZwWFHWa-w https://www.google.com/books/edition/An_Introduction_to_Optimization/iD5s0iKXHP8C%3Fhl=en&gbpv=1&pg=PA131 https://www.youtube.com/watch%3Fv=IHZwWFHWa-w&list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi&index=2 https://www.khanacademy.org/math/multivariable-calculus/multivariable-derivatives/gradient-and-directional-derivatives/v/gradient
dbo:wikiPageID 201489 (xsd:integer)
dbo:wikiPageLength 34717 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1119406164 (xsd:integer)
dbo:wikiPageWikiLink dbr:Monotonic_function dbr:Variational_inequality dbr:Convex_programming dbr:Euler's_method dbr:Nonlinear_equation dbr:Defined_and_undefined dbr:Delta_rule dbr:Algorithm dbr:Viscous dbr:Davidon–Fletcher–Powell_formula dbr:Limited-memory_BFGS dbr:Preconditioner dbr:Conjugate_gradient_method dbr:Mathematical_optimization dbr:Saddle_point dbr:Gauss–Newton_algorithm dbr:Nelder–Mead_method dbr:Orthogonal dbr:Wolfe_conditions dbr:Symmetric_matrix dbr:Gradient dbr:Condition_number dbr:Constraint_(mathematics) dbr:Contour_line dbr:Convergent_series dbr:Convex_function dbr:Lipschitz_continuity dbr:Local_maximum dbr:Local_minimum dbr:Slope dbr:Yurii_Nesterov dbc:First_order_methods dbr:Fréchet_derivative dbr:Function_space dbr:Quantum_annealing dbr:Augustin-Louis_Cauchy dbr:Backpropagation dbc:Optimization_algorithms_and_methods dbr:Learning_rate dbr:Line_search dbr:Linear_combination dbr:Linear_least_squares dbr:Mirror_descent dbr:TFNP dbr:Accuracy dbr:Curvature dbr:Euclidean_norm dbr:Bregman_divergence dbr:Forward–backward_algorithm dbr:Gradient_flow dbr:Hill_climbing dbr:Differentiation_(mathematics) dbr:Stochastic_gradient_descent dbr:Preconditioning dbr:Projection_(linear_algebra) dbr:Haskell_Curry dbr:Jacobian_matrix dbr:Jacques_Hadamard dbr:Backtracking_line_search dbr:Artificial_neural_network dbc:Mathematical_optimization dbr:Big_O_notation dbc:Gradient_methods dbr:Hessian_matrix dbr:Differentiable_function dbr:Philip_Wolfe_(mathematician) dbr:Positive-definite_matrix dbr:Broyden–Fletcher–Goldfarb–Shanno_algorithm dbr:Newton's_method_in_optimization dbr:Newtonian_dynamics dbr:Ordinary_differential_equations dbr:YouTube dbr:Loss_function dbr:Bowl_(vessel) dbr:Cauchy-Schwarz_inequality dbr:Rprop dbr:Proximal_gradient_method dbr:Iterative_algorithm dbr:Eigenvalues dbr:Concentric_circles dbr:Conjugate_gradient dbr:Multi-variable_function dbr:Accelerated_gradient_method dbr:Fast_gradient_method dbr:Fast_proximal_gradient_method dbr:File:Gradient_Descent_Example_Nonlinear_Equations.gif dbr:File:Gradient_Descent_in_2D.webm dbr:File:Gradient_descent.svg dbr:File:Okanogan-Wenatchee_National_Fores...g_fog_shrouds_trees_(37171636495).jpg dbr:File:Steepest_descent.png dbr:Optimized_gradient_method
dbp:wikiPageUsesTemplate dbt:About dbt:Cbignore dbt:Cite_book dbt:Cite_web dbt:Commons_category dbt:Div_col dbt:Div_col_end dbt:NumBlk dbt:Reflist dbt:Short_description dbt:EquationRef dbt:EquationNote dbt:Machine_learning dbt:Differentiable_computing dbt:Optimization_algorithms
dct:subject dbc:First_order_methods dbc:Optimization_algorithms_and_methods dbc:Mathematical_optimization dbc:Gradient_methods
gold:hypernym dbr:Algorithm
rdf:type dbo:Software yago:WikicatOptimizationAlgorithmsAndMethods yago:Ability105616246 yago:Abstraction100002137 yago:Act100030358 yago:Activity100407535 yago:Algorithm105847438 yago:Cognition100023271 yago:Event100029378 yago:Know-how105616786 yago:Method105660268 yago:Procedure101023820 yago:PsychologicalFeature100023100 yago:WikicatGradientMethods yago:YagoPermanentlyLocatedEntity yago:Rule105846932 yago:WikicatFirstOrderMethods
rdfs:comment L'algorisme del gradient descendent és un mètode iteratiu d'optimització de primer ordre per a trobar el mínim d'una funció. S'anomena descendent perque el prenen els increments proporcionals al negatiu del gradient de la funció. Si es prenenincrements positius al gradient s'anomena gradient ascendent. Aquest mètode s'empra sovint com una extensió de l'algorime de retropropagació usat en l'entrenament de xarxes neuronals artificials. (ca) أصل التدرج هو خوارزمية تحسين تكرارية من الدرجة الأولى للعثور على الحد الأدنى المحلي لدالة قابلة للاشتقاق. للعثور على الحد الأدنى المحلي للدالة باستخدام منحدر التدرج، نتخذ خطوات تتناسب مع سلبية التدرج (أو التدرج التقريبي) للدالة عند النقطة الحالية. ولكن إذا اتخذنا بدلاً من ذلك خطوات تتناسب مع إيجابية التدرج، فإننا نقترب من الحد الأقصى المحلي لهذه الدالة؛ يُعرف الإجراء بعد ذلك بصعود متدرج . تم اقتراح خوارزمية أصل التدرج من قبل العالم الرياضي أوغستين لوي كوشي في عام 1847. (ar) Algoritme penurunan gradien atau gradient descent adalah algoritme yang digunakan untuk mencari nilai minimum lokal yang dapat dihasilkan dari suatu fungsi parametrik. Teknik ini didasarkan pada fakta bahwa nilai gradien dari suatu fungsi pada titik tertentu menyatakan kemiringan lereng dari nilai tersebut terhadap titik di sekitarnya sehingga nilai minimum dapat diraih dengan mengurangi nilai titik tersebut dengan nilai gradien. Algoritme ini dapat dibalik untuk tujuan mencari nilai maksimum dengan cara menambahkan suatu nilai titik dengan gradien fungsinya pada titik tersebut. Algoritme ini sangat umum digunakan pada teknik Regresi maupun Pembelajaran mesin untuk mencari variabel pada fungsi galat sehingga suatu fungsi dapat memodelkan data dengan galat yang minimum (in) 경사 하강법(傾斜下降法, Gradient descent)은 1차 근삿값 발견용 최적화 알고리즘이다. 기본 개념은 함수의 기울기(경사)를 구하고 경사의 반대 방향으로 계속 이동시켜 극값에 이를 때까지 반복시키는 것이다. (ko) 最急降下法(さいきゅうこうかほう、英: Gradient descent, steepest descent)は、関数(ポテンシャル面)の傾き(一階微分)のみから、関数の最小値を探索する連続最適化問題の勾配法のアルゴリズムの一つ。勾配法としては最も単純であり、直接・間接にこのアルゴリズムを使用している場合は多い。最急降下法をオンライン学習に改良した物を確率的勾配降下法と呼ぶ。 尚、最急降下法の“最急”とは、最も急な方向に降下することを意味している。すなわち、収束の速さに関して言及しているわけではない(より速いアルゴリズムがあり得る)。 (ja) Metoda gradientu prostego – algorytm numeryczny mający na celu znalezienie minimum lokalnego zadanej funkcji celu. Jest to jedna z prostszych metod optymalizacji. Przykładami innych metod są metoda najszybszego spadku, czy metoda Newtona. (pl) O método do gradiente (ou método do máximo declive) é um método numérico usado em otimização. Para encontrar um mínimo (local) de uma função usa-se um esquema iterativo, onde em cada passo se toma a direção (negativa) do gradiente, que corresponde à direção de declive máximo. Pode ser encarado como o método seguido por um curso da água, na sua descida pela força da gravidade. (pt) 梯度下降法(英語:Gradient descent)是一个一阶最优化算法,通常也称为最陡下降法,但是不該與近似積分的最陡下降法(英語:Method of steepest descent)混淆。要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。如果相反地向梯度正方向迭代进行搜索,则会接近函数的局部极大值点;这个过程则被称为梯度上升法。 (zh) Gradientní sestup (anglicky gradient descent) je iterativní optimalizační algoritmus prvního řádu pro nalezení lokálního minima diferencovatelné funkce. Myšlenkou metody je posouvat se z výchozího bodu po krocích vždy v opačném směru gradientu (nebo přibližného gradientu) funkce v daném bodě, protože to je směr nejstrmějšího klesání její hodnoty. Naopak krokování ve směru gradientu povede k lokálnímu maximu této funkce; postup je pak známý jako gradientní výstup. (cs) Das Gradientenverfahren wird inder Numerik eingesetzt, um allgemeine Optimierungsprobleme zu lösen. Dabei schreitet man (am Beispiel eines Minimierungsproblems) von einem Startpunkt aus entlang einer Abstiegsrichtung, bis keine numerische Verbesserung mehr erzielt wird. Wählt man als Abstiegsrichtung den negativen Gradienten, also die Richtung des lokal steilsten Abstiegs, erhält man das Verfahren des steilsten Abstiegs, welches nicht zu verwechseln ist mit einem weiteren Verfahren in der Analysis und asymptotischen Analysis unter demselben Namen Methode des steilsten Abstiegs. Manchmal werden die Begriffe Gradientenverfahren und Verfahren des steilsten Abstiegs synonym verwendet. (de) In mathematics, gradient descent (also often called steepest descent) is a first-order iterative optimization algorithm for finding a local minimum of a differentiable function. The idea is to take repeated steps in the opposite direction of the gradient (or approximate gradient) of the function at the current point, because this is the direction of steepest descent. Conversely, stepping in the direction of the gradient will lead to a local maximum of that function; the procedure is then known as gradient ascent. (en) L'algorithme du gradient, aussi appelé algorithme de descente de gradient, désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué dans la direction opposée au gradient, de manière à faire décroître la fonction. Le déplacement le long de cette direction est déterminé par la technique numérique connue sous le nom de recherche linéaire. Cette description montre que l'algorithme fait partie de la famille des algorithmes à directions de desce (fr) In ottimizzazione e analisi numerica il metodo di discesa del gradiente (detto anche metodo del gradiente oppure metodo della massima discesa (anche discesa più ripida); in inglese gradient descent o steepest descent) è una tecnica che consente di determinare i punti di massimo e minimo di una funzione di più variabili. In particolare il metodo va alla ricerca di punti che soddisfano condizioni di ottimalità (condizioni necessarie, sufficienti, necessarie e sufficienti all'ottimo). (it) Градиентный спуск, метод градиентного спуска — численный метод нахождения локального минимума или максимума функции с помощью движения вдоль градиента, один из основных численных методов современной оптимизации. Особенно большой интерес к градиентным методам в последние годы связан с тем, что градиентные спуски и их стохастические / рандомизированные варианты лежат в основе почти всех современных алгоритмов обучения, разрабатываемых в анализе данных. (ru) Градіє́нтний спуск (англ. gradient descent) — це ітераційний алгоритм оптимізації першого порядку, в якому для знаходження локального мінімуму функції здійснюються кроки, пропорційні протилежному значенню градієнту (або наближеного градієнту) функції в поточній точці. Якщо натомість здійснюються кроки пропорційно самому значенню градієнту, то відбувається наближення до локального максимуму цієї функції; і ця процедура тоді відома як градіє́нтний підйо́м (англ. gradient ascent). (uk)
rdfs:label خوارزمية أصل التدرج (ar) Algorisme del gradient descendent (ca) Gradientní sestup (cs) Gradientenverfahren (de) Penurunan gradien (in) Gradient descent (en) Algorithme du gradient (fr) Discesa del gradiente (it) 경사 하강법 (ko) 最急降下法 (ja) Metoda gradientu prostego (pl) Método do gradiente (pt) Градиентный спуск (ru) Градієнтний спуск (uk) 梯度下降法 (zh)
owl:sameAs freebase:Gradient descent yago-res:Gradient descent wikidata:Gradient descent dbpedia-ar:Gradient descent dbpedia-ca:Gradient descent dbpedia-cs:Gradient descent dbpedia-de:Gradient descent dbpedia-fa:Gradient descent dbpedia-fr:Gradient descent dbpedia-he:Gradient descent dbpedia-id:Gradient descent dbpedia-it:Gradient descent dbpedia-ja:Gradient descent dbpedia-ko:Gradient descent http://lt.dbpedia.org/resource/Gradientinis_nusileidimas http://ml.dbpedia.org/resource/ഗ്രേഡിയന്റ്_ഡിസെന്റ് dbpedia-pl:Gradient descent dbpedia-pt:Gradient descent dbpedia-ru:Gradient descent dbpedia-sr:Gradient descent dbpedia-th:Gradient descent dbpedia-uk:Gradient descent dbpedia-vi:Gradient descent dbpedia-zh:Gradient descent https://global.dbpedia.org/id/FGLd
prov:wasDerivedFrom wikipedia-en:Gradient_descent?oldid=1119406164&ns=0
foaf:depiction wiki-commons:Special:FilePath/Gradient_Descent_Example_Nonlinear_Equations.gif wiki-commons:Special:FilePath/Gradient_descent.svg wiki-commons:Special:FilePath/Okanogan-Wenatchee_Na...g_fog_shrouds_trees_(37171636495).jpg wiki-commons:Special:FilePath/Steepest_descent.png
foaf:isPrimaryTopicOf wikipedia-en:Gradient_descent
is dbo:knownFor of dbr:Augustin-Louis_Cauchy
is dbo:wikiPageDisambiguates of dbr:Descent dbr:Gradient_(disambiguation)
is dbo:wikiPageRedirects of dbr:Gradient_descent_with_momentum dbr:Gradient_Descent dbr:Steepest_ascent dbr:Steepest_descent dbr:Gradient-based_optimization dbr:Gradient_ascent dbr:Gradient_descent_method dbr:Gradient_descent_optimization
is dbo:wikiPageWikiLink of dbr:List_of_algorithms dbr:Momentum_(disambiguation) dbr:Neural_Turing_machine dbr:Neural_tangent_kernel dbr:Non-negative_matrix_factorization dbr:Memetic_computing dbr:Morphogenesis dbr:Path_of_least_resistance dbr:Bregman_method dbr:Deep_image_prior dbr:Delta_rule dbr:Anisotropic_diffusion dbr:List_of_metaphor-based_metaheuristics dbr:Uzawa_iteration dbr:Vector_field dbr:Deep_belief_network dbr:Descent_direction dbr:Early_stopping dbr:Independent_component_analysis dbr:Index_of_electrical_engineering_articles dbr:Levenberg–Marquardt_algorithm dbr:List_of_numerical_analysis_topics dbr:Powell's_dog_leg_method dbr:Preconditioner dbr:Proximal_gradient_methods_for_learning dbr:Conditional_random_field dbr:Conjugate_gradient_method dbr:Convex_optimization dbr:Coordinate_descent dbr:Cross_entropy dbr:Mathematical_optimization dbr:Maximum_likelihood_estimation dbr:Gauss–Newton_algorithm dbr:Generative_adversarial_network dbr:Nelder–Mead_method dbr:Wolfe_conditions dbr:Poisson_regression dbr:Quantum_clustering dbr:Quasiconvex_function dbr:Radial_basis_function_network dbr:Alex_Waibel dbr:Elastix_(image_registration) dbr:GPT-2 dbr:Glossary_of_artificial_intelligence dbr:Gradient_descent_with_momentum dbr:Möbius_energy dbr:Connectionism dbr:LOBPCG dbr:Molecular_mechanics dbr:Oracle_complexity_(optimization) dbr:Batch_normalization dbr:Simulated_annealing dbr:Comparison_of_Gaussian_process_software dbr:Computer_chess dbr:Yurii_Nesterov dbr:Feature_learning dbr:Feature_scaling dbr:Federated_learning dbr:Feedforward_neural_network dbr:Frank–Wolfe_algorithm dbr:Descent dbr:José_A._Carrillo dbr:Particle_swarm_optimization dbr:T-distributed_stochastic_neighbor_embedding dbr:Mathematics_of_artificial_neural_networks dbr:Matrix_completion dbr:Augustin-Louis_Cauchy dbr:Backpropagation dbr:Active_contour_model dbr:AdaBoost dbr:Adaptive_control dbr:Adaptive_coordinate_descent dbr:Landweber_iteration dbr:Lasso_(statistics) dbr:Learning_curve_(machine_learning) dbr:Learning_rate dbr:Line_search dbr:Linear_classifier dbr:Logistic_regression dbr:Gradient_Descent dbr:Minimum_Population_Search dbr:Mirror_descent dbr:Affine_scaling dbr:AlphaFold dbr:Fairness_(machine_learning) dbr:Bregman_divergence dbr:Non-negative_least_squares dbr:Differentiable_neural_computer dbr:Differentiable_programming dbr:Differential_evolution dbr:Directed_information dbr:Gradient_boosting dbr:Gradient_method dbr:Graph_drawing dbr:Hill_climbing dbr:Knot_energy dbr:Gradient_(disambiguation) dbr:Stochastic_gradient_descent dbr:Recurrent_neural_network dbr:Regularization_(mathematics) dbr:Reinforcement_learning dbr:Restricted_Boltzmann_machine dbr:Attention_(machine_learning) dbr:Backtracking_line_search dbr:Successive_parabolic_interpolation dbr:Rosenbrock_function dbr:Artificial_intelligence dbr:Adversarial_machine_learning dbr:Lagrange_multiplier dbr:Biogeography-based_optimization dbr:Support_vector_machine dbr:Surface_Evolver dbr:Symbolic_artificial_intelligence dbr:Edgeworth_box dbr:Transportation_theory_(mathematics) dbr:Willmore_energy dbr:Mixed-precision_arithmetic dbr:Models_of_neural_computation dbr:Modified_Richardson_iteration dbr:Regularization_by_spectral_filtering dbr:Artificial_neuron dbr:Autoencoder dbr:Automatic_differentiation dbr:Boltzmann_machine dbr:Boosting_(machine_learning) dbr:Point-set_registration dbr:Softmax_function dbr:Spiking_neural_network dbr:Claude_Lemaréchal dbr:Broyden–Fletcher–Goldfarb–Shanno_algorithm dbr:Naum_Z._Shor dbr:Neuroevolution dbr:Newton's_method dbr:Newton's_method_in_optimization dbr:Search_algorithm dbr:Matrix_calculus dbr:Long_short-term_memory dbr:Loss_functions_for_classification dbr:Multiple_kernel_learning dbr:Self-organizing_map dbr:Simplex_algorithm dbr:Neural_gas dbr:Neural_style_transfer dbr:Euler_method dbr:Expectation–maximization_algorithm dbr:Subgradient_method dbr:Training,_validation,_and_test_data_sets dbr:Evolutionary_computation dbr:Sammon_mapping dbr:Multilayer_perceptron dbr:Multiplicative_weight_update_method dbr:Multitask_optimization dbr:Smooth_maximum dbr:Self-supervised_learning dbr:Wasserstein_GAN dbr:Proximal_gradient_method dbr:Outline_of_statistics dbr:Parameter_space dbr:Theta_model dbr:Shape_optimization dbr:Łojasiewicz_inequality dbr:Random_coordinate_descent dbr:Types_of_artificial_neural_networks dbr:Stochastic_gradient_Langevin_dynamics dbr:XPIC dbr:Variational_autoencoder dbr:Variational_quantum_eigensolver dbr:Steepest_ascent dbr:Steepest_descent dbr:Gradient-based_optimization dbr:Gradient_ascent dbr:Gradient_descent_method dbr:Gradient_descent_optimization
is dbp:knownFor of dbr:Augustin-Louis_Cauchy
is foaf:primaryTopic of wikipedia-en:Gradient_descent