Quickprop (original) (raw)

About DBpedia

Quickprop ist ein iteratives Verfahren zur Bestimmung des Minimums der Fehlerfunktion eines künstlichen neuronalen Netzes, das sich an das Newton-Verfahren anlehnt. Der Algorithmus wird manchmal der Gruppe Lernverfahren zweiter Ordnung zugerechnet, da über eine quadratische Approximation aus dem vorhergehenden Gradientenschritt und dem aktuellen Gradienten auf das Minimum der Fehlerfunktion geschlossen wird. Unter der Annahme, dass die Fehlerfunktion lokal näherungsweise quadratisch ist, versucht man sie mit Hilfe einer nach oben geöffneten Parabel zu beschreiben. Das gesuchte Minimum liegt im Scheitel der Parabel.Das Verfahren benötigt ausschließlich lokale Informationen des künstlichen Neurons, auf das es angewendet werden soll.

Property Value
dbo:abstract Quickprop ist ein iteratives Verfahren zur Bestimmung des Minimums der Fehlerfunktion eines künstlichen neuronalen Netzes, das sich an das Newton-Verfahren anlehnt. Der Algorithmus wird manchmal der Gruppe Lernverfahren zweiter Ordnung zugerechnet, da über eine quadratische Approximation aus dem vorhergehenden Gradientenschritt und dem aktuellen Gradienten auf das Minimum der Fehlerfunktion geschlossen wird. Unter der Annahme, dass die Fehlerfunktion lokal näherungsweise quadratisch ist, versucht man sie mit Hilfe einer nach oben geöffneten Parabel zu beschreiben. Das gesuchte Minimum liegt im Scheitel der Parabel.Das Verfahren benötigt ausschließlich lokale Informationen des künstlichen Neurons, auf das es angewendet werden soll. Der k-te Approximationsschritt ist dabei gegeben durch: Dabei ist das Gewicht des Neurons j für den Eingang i und E die Summe der Fehler. Der Quickprop-Algorithmus konvergiert im Allgemeinen schneller als Fehlerrückführung (engl. backpropagation), jedoch kann sich das Netzwerk in der Lernphase aufgrund zu großer Schrittweiten chaotisch verhalten. (de) Quickprop is an iterative method for determining the minimum of the loss function of an artificial neural network, following an algorithm inspired by the Newton's method. Sometimes, the algorithm is classified to the group of the second order learning methods. It follows a quadratic approximation of the previous gradient step and the current gradient, which is expected to be close to the minimum of the loss function, under the assumption that the loss function is locally approximately square, trying to describe it by means of an upwardly open parabola. The minimum is sought in the vertex of the parabola. The procedure requires only local information of the artificial neuron to which it is applied.The -th approximation step is given by: Being the neuron weight of its input and is the loss function. The Quickprop algorithm is an implementation of the error backpropagation algorithm, but the network can behave chaotically during the learning phase due to large step sizes. (en)
dbo:wikiPageExternalLink https://www.cs.cmu.edu/afs/cs.cmu.edu/user/sef/www/publications/qp-tr.ps
dbo:wikiPageID 41575347 (xsd:integer)
dbo:wikiPageLength 1821 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1000317609 (xsd:integer)
dbo:wikiPageWikiLink dbr:Gradient dbr:Backpropagation dbc:Computational_neuroscience dbc:Machine_learning_algorithms dbr:Parabola dbr:Artificial_neural_network dbc:Artificial_neural_networks dbr:Artificial_neuron dbr:Newton's_method dbr:Loss_function
dbp:wikiPageUsesTemplate dbt:Reflist dbt:Short_description
dcterms:subject dbc:Computational_neuroscience dbc:Machine_learning_algorithms dbc:Artificial_neural_networks
rdf:type yago:WikicatArtificialNeuralNetworks yago:Abstraction100002137 yago:Communication100033020 yago:ComputerArchitecture106725249 yago:Description106724763 yago:Message106598915 yago:NeuralNetwork106725467 yago:Specification106725067 yago:Statement106722453
rdfs:comment Quickprop ist ein iteratives Verfahren zur Bestimmung des Minimums der Fehlerfunktion eines künstlichen neuronalen Netzes, das sich an das Newton-Verfahren anlehnt. Der Algorithmus wird manchmal der Gruppe Lernverfahren zweiter Ordnung zugerechnet, da über eine quadratische Approximation aus dem vorhergehenden Gradientenschritt und dem aktuellen Gradienten auf das Minimum der Fehlerfunktion geschlossen wird. Unter der Annahme, dass die Fehlerfunktion lokal näherungsweise quadratisch ist, versucht man sie mit Hilfe einer nach oben geöffneten Parabel zu beschreiben. Das gesuchte Minimum liegt im Scheitel der Parabel.Das Verfahren benötigt ausschließlich lokale Informationen des künstlichen Neurons, auf das es angewendet werden soll. (de) Quickprop is an iterative method for determining the minimum of the loss function of an artificial neural network, following an algorithm inspired by the Newton's method. Sometimes, the algorithm is classified to the group of the second order learning methods. It follows a quadratic approximation of the previous gradient step and the current gradient, which is expected to be close to the minimum of the loss function, under the assumption that the loss function is locally approximately square, trying to describe it by means of an upwardly open parabola. The minimum is sought in the vertex of the parabola. The procedure requires only local information of the artificial neuron to which it is applied.The -th approximation step is given by: (en)
rdfs:label Quickprop (de) Quickprop (en)
owl:sameAs freebase:Quickprop yago-res:Quickprop wikidata:Quickprop dbpedia-de:Quickprop dbpedia-fa:Quickprop https://global.dbpedia.org/id/MVJ4
prov:wasDerivedFrom wikipedia-en:Quickprop?oldid=1000317609&ns=0
foaf:isPrimaryTopicOf wikipedia-en:Quickprop
is dbo:wikiPageWikiLink of dbr:Artificial_neural_network dbr:Outline_of_machine_learning
is foaf:primaryTopic of wikipedia-en:Quickprop