Backpropagation (original) (raw)

About DBpedia

La retropropagació, en l'àmbit de les xarxes neuronals artificials, és un mètode que s'empra per a calcular el gradient que és necessari aplicar als pesos o coeficients dels nodes de la xarxa. La retropropagació s'utilitza molt per a entrenar xarxes d'aprenentatge profund. La retropropagació és un cas especial d'una tècnica més general anomenada derivació automàtica, on s'ajusten els coeficients de les neurones tot calculant amb l'algorisme del gradient descendent.

thumbnail

Property Value
dbo:abstract الانتشار الخلفي (Backpropagation) هي إحدى طرق تعليم الشبكات العصبونية التي تؤمن نقل معلومات بالانتشار العكسي للاتجاه الأصلي لقدوم المعلومات. تعتمد هذه الطريقة على مبدأ وتحتاج في مرحلة التدريب إلى بيانات خاصة تتعلم بها الشبكة حيث تقدم لها بيانات دخل (input) مع بيانات الخرج (output) المرغوب فيها ومن ثم تقوم الشبكة بعمل انتشار امامي (feed forward) لبيانات الدخل للحصول على قيمة خرج الشبكة بعدها تقوم بالمقارنة بين الخرج المحسوب والخرج المرغوب فاذا لم تتطابق النتائج تقوم الشبكة بحساب قيمة الفرق بينهما لكل عصبون من طبقة الخرج والذي يمثل قيمة الخطا (error)، بعدها تاتي مرحلة الانتشار الخلفي للأخطاء (backpropagation) حيث تعيد الشبكة حساب قيمة الخطأ في كل عصبون من الشبكات الخفية. في الأخير تأتي مرحلة تحديث قيمة الأوزان(weight update)حيث تقوم الشبكة بإعادة حساب كل الأوزان وتعوضها بالقيم الجديدة المحسوبة. يشترط في الانتشار الخلفي ان تكون التي تستعملها العصبونات قابلة للاشتقاق. ذلك لانه في مرحلة تحديث الأوزان تستعمل الدالة المشتقة لدالة التنشيط في حساب القيم الجديدة. (ar) La retropropagació, en l'àmbit de les xarxes neuronals artificials, és un mètode que s'empra per a calcular el gradient que és necessari aplicar als pesos o coeficients dels nodes de la xarxa. La retropropagació s'utilitza molt per a entrenar xarxes d'aprenentatge profund. La retropropagació és un cas especial d'una tècnica més general anomenada derivació automàtica, on s'ajusten els coeficients de les neurones tot calculant amb l'algorisme del gradient descendent. (ca) Backpropagation oder auch Backpropagation of Error bzw. auch Fehlerrückführung (auch Rückpropagierung) ist ein verbreitetes Verfahren für das Einlernen von künstlichen neuronalen Netzen. Es gehört zur Gruppe der überwachten Lernverfahren und wird als Verallgemeinerung der Delta-Regel auf mehrschichtige Netze angewandt. Dazu muss ein externer Lehrer existieren, der zu jedem Zeitpunkt der Eingabe die gewünschte Ausgabe, den Zielwert, kennt.Die Rückwärtspropagierung ist ein Spezialfall eines allgemeinen Gradientenverfahrens in der Optimierung, basierend auf dem mittleren quadratischen Fehler. (de) O αλγόριθμος οπισθοδιάδοσης είναι μια οικογένεια μεθόδων που χρησιμοποιούνται για την αποτελεσματική εκπαίδευση των τεχνητών νευρωνικών δικτύων (συντομογραφία ΤΝΔ), ακολουθώντας έναν αλγόριθμο βελτιστοποίησης βασιζόμενο στην κλίση που εκμεταλλεύεται τον κανόνα της αλυσίδας . Το κύριο χαρακτηριστικό της οπισθοδιάδοσης είναι η επαναληπτική, αναδρομική και αποδοτική μέθοδος για τον υπολογισμό των ανανεώσεων των βαρών για τη βελτίωση του δικτύου έως ότου είναι σε θέση να εκτελέσει το έργο για το οποίο εκπαιδεύεται. Είναι στενά συνδεδεμένη με τον αλγόριθμο Gauss-Newton . Η οπισθοδιάδοση απαιτεί ότι οι παράγωγοι των συναρτήσεων ενεργοποίησης κατά το σχεδιασμό του δικτύου είναι γνωστοί. Η αυτόματη διαφοροποίηση είναι μια τεχνική που παρέχει αυτόματα και αναλυτικά τις παραγώγους των συναρτήσεων στον αλγόριθμο εκπαίδευσης. Στο πλαίσιο της μάθησης, η οπισθοδιάδοση χρησιμοποιείται συνήθως από τον αλγόριθμο βελτιστοποίησης μείωσης κλίσης ώστε να ρυθμίσει το βάρος των νευρώνων υπολογίζοντας την κλίση της συνάρτησης απώλειας. Η οπίσθοδιάδοση υπολογίζει τις κλίσεις, ενώ η (στοχαστική) μείωση της κλίσης χρησιμοποιεί τις κλίσεις για την εκπαίδευση του μοντέλου (μέσω βελτιστοποίησης). (el) In machine learning, backpropagation (backprop, BP) is a widely used algorithm for training feedforward artificial neural networks. Generalizations of backpropagation exist for other artificial neural networks (ANNs), and for functions generally. These classes of algorithms are all referred to generically as "backpropagation". In fitting a neural network, backpropagation computes the gradient of the loss function with respect to the weights of the network for a single input–output example, and does so efficiently, unlike a naive direct computation of the gradient with respect to each weight individually. This efficiency makes it feasible to use gradient methods for training multilayer networks, updating weights to minimize loss; gradient descent, or variants such as stochastic gradient descent, are commonly used. The backpropagation algorithm works by computing the gradient of the loss function with respect to each weight by the chain rule, computing the gradient one layer at a time, iterating backward from the last layer to avoid redundant calculations of intermediate terms in the chain rule; this is an example of dynamic programming. The term backpropagation strictly refers only to the algorithm for computing the gradient, not how the gradient is used; however, the term is often used loosely to refer to the entire learning algorithm, including how the gradient is used, such as by stochastic gradient descent. Backpropagation generalizes the gradient computation in the delta rule, which is the single-layer version of backpropagation, and is in turn generalized by automatic differentiation, where backpropagation is a special case of reverse accumulation (or "reverse mode"). The term backpropagation and its general use in neural networks was announced in , then elaborated and popularized in , but the technique was independently rediscovered many times, and had many predecessors dating to the 1960s; see . A modern overview is given in the deep learning textbook by . (en) En aprendizaje de máquina, la propagación hacia atrás de errores o retropropagación (del inglés backpropagation) es un algoritmo de aprendizaje supervisado utilizado para entrenar redes neuronales prealimentadas. Dado que es un método de cálculo del gradiente el algoritmo generalmente se puede usar en otros tipos de redes neuronales artificiales y en general para funciones. ​ El método emplea un ciclo de propagación–adaptación de dos fases, en resumen permite que la información del costo fluya hacia atrás a través de la red para calcular el gradiente.​ Una vez que se ha aplicado un patrón a la entrada de la red como estímulo, este se propaga desde la primera capa a través de las capas siguientes de la red, hasta generar una salida. La señal de salida se compara con la salida deseada y se calcula una señal de error para cada una de las salidas. Las salidas de error entonces se propagan hacia atrás, partiendo de la capa de salida, hacia todas las neuronas de la capa oculta que contribuyen directamente a la salida. Sin embargo las neuronas de la capa oculta solo reciben una fracción de la señal total del error, basándose aproximadamente en la contribución relativa que haya aportado cada neurona a la salida original. Este proceso se repite, capa por capa, hasta que todas las neuronas de la red hayan recibido una señal de error que describa su contribución relativa al error total. La importancia de este proceso consiste en que, a medida que se entrena la red, las neuronas de las capas intermedias se organizan a sí mismas de tal modo que las distintas neuronas aprenden a reconocer distintas características del espacio total de entrada. Después del entrenamiento, cuando se les presente un patrón arbitrario de entrada que contenga ruido o que esté incompleto, las neuronas de la capa oculta de la red responderán con una salida activa si la nueva entrada contiene un patrón que se asemeje a aquella característica que las neuronas individuales hayan aprendido a reconocer durante su entrenamiento. (es) En machine learning, la rétropropagation du gradient est une méthode pour entraîner un réseau de neurones, consistant à mettre à jour les poids de chaque neurone de la dernière couche vers la première. Elle vise à corriger les erreurs selon l'importance de la contribution de chaque élément à celles-ci. Dans le cas des réseaux de neurones, les poids synaptiques qui contribuent plus à une erreur seront modifiés de manière plus importante que les poids qui provoquent une erreur marginale. De façon abusive, on appelle souvent « technique de rétropropagation du gradient » l'algorithme classique de correction des erreurs reposant sur le calcul du gradient grâce à la rétropropagation. C'est cette méthode qui est présentée ici. La correction des erreurs peut se faire selon d'autres méthodes, par exemple le calcul de la dérivée seconde. Ce principe fonde les méthodes de type algorithme du gradient, qui sont utilisées dans des réseaux de neurones multicouches comme les perceptrons multicouches. L'algorithme du gradient a pour but de converger de manière itérative vers une configuration optimale des poids synaptiques. Cet état peut être un minimum local de la fonction, ou, idéalement, le minimum global de cette fonction (dite fonction de coût). Normalement, la fonction de coût est non linéaire au regard des poids synaptiques. Elle dispose également d'une borne inférieure et moyennant quelques précautions lors de l'apprentissage, les procédures d'optimisation finissent par aboutir à une configuration stable au sein du réseau de neurones. (fr) Algoritme Perambatan Mundur atau backpropagation merupakan algoritme untuk melakukan proses pembelajaran terarah (supervised learning) pada jaringan saraf tiruan (JST) untuk mencari beban (weight) pada setiap neuron yang menghasilkan nilai kesalahan seminimal mungkin melalui data pembelajaran (training data) yang diberikan. Metode ini memanfaatkan teknik optimasi berdasarkan penurunan gradien. Metode ini dilakukan setelah proses perambatan maju yang merambatkan data dari data masukan ke keluaran melalui koleksi neuron dan lapisan JST untuk kemudian dirambatkan balik ke belakang dari lapis keluaran ke lapis masukan untuk menghitung nilai kesalahan pada masing-masing neuron dibandingkan dengan nilai keluaran yang seharusnya (nilai target). * l * * s (in) 역전파(逆傳播), 오차 역전파법(영어: Backpropagation 백프로퍼게이션[*]) 또는 오류 역전파 알고리즘은 다층 퍼셉트론 학습에 사용되는 통계적 기법을 의미한다. 기계 학습에서 사용되는 학습 구조로 다층 퍼셉트론이 있다. 일반적인 다층 퍼셉트론의 형태는 입력층 - 은닉층 - 은닉층 - ... - 출력층으로 구성되며, 각 층은 서로 교차되는 가중치 값으로 연결되어 있다. 출력층에서 제시한 값이 실제 원하는 값에 가까워지도록 학습하기 위해 통계적 방법에 의한 오차역전법을 사용한다. 오차역전법은 동일 입력층에 대해 원하는 값이 출력되도록 개개의 가중치를 조정하는 방법으로 사용되며, 속도는 느리지만 안정적인 결과를 얻을 수 있는 장점이 있어 기계 학습에 널리 사용되고 있다. (ko) La retropropagazione dell'errore (in inglese backpropagation) è un algoritmo per l'addestramento delle reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la discesa stocastica del gradiente. La retropropagazione richiede un'uscita desiderata per ogni valore in ingresso per poter calcolare il gradiente della funzione di perdita (funzione di costo). Viene considerato quindi un metodo di apprendimento supervisionato, sebbene venga usato anche in reti non supervisionate come gli autocodificatori o . È una generalizzazione della regola delta di reti feed-forward multistrato, resa possibile usando la regola di catena che iterativamente calcola i gradienti per ogni strato.La retropropagazione richiede che la funzione d'attivazione usata dai neuroni artificiali (o "nodi") sia differenziabile. Una delle principali difficoltà nell'uso della retropropagazione dell'errore è il cosiddetto problema della scomparsa del gradiente, dovuto all'uso di funzioni di attivazione non lineari che causano una diminuzione esponenziale del valore del gradiente all'aumentare della profondità della rete neurale. (it) バックプロパゲーション(英: Backpropagation)または誤差逆伝播法(ごさぎゃくでんぱほう)はニューラルネットワークの学習アルゴリズムである。 (ja) Propagacja wsteczna (ang. Backpropagation lub Backward Propagation of Errors) – podstawowy algorytm uczenia nadzorowanego wielowarstwowych, jednokierunkowych sieci neuronowych. Podaje on przepis na zmianę wag dowolnych połączeń elementów przetwarzających rozmieszczonych w sąsiednich warstwach sieci. Oparty jest on na minimalizacji sumy kwadratów błędów (lub innej funkcji błędu) uczenia z wykorzystaniem optymalizacyjnej metody największego spadku. Dzięki zastosowaniu specyficznego sposobu propagowania błędów uczenia sieci powstałych na jej wyjściu, tj. przesyłania ich od warstwy wyjściowej do wejściowej, algorytm propagacji wstecznej stał się jednym z najskuteczniejszych algorytmów uczenia sieci. Algorytm uczenia wyznacza kierunek, w którym w danej iteracji należy zmodyfikować wagi w celu zmniejszenia błędu popełnianego przez sieć. Tempo modyfikacji wag określone jest natomiast za pomocą współczynnika uczenia. (pl) Метод обратного распространения ошибки (англ. backpropagation) — метод вычисления градиента, который используется при обновлении весов многослойного перцептрона. Впервые метод был описан в 1974 г. А. И. Галушкиным, а также независимо и одновременно Полом Дж. Вербосом. Далее существенно развит в 1986 г. Дэвидом И. Румельхартом, Дж. Е. Хинтоном и Рональдом Дж. Вильямсом и независимо и одновременно и (Красноярская группа). Это , который используется с целью минимизации ошибки работы многослойного перцептрона и получения желаемого выхода. Основная идея этого метода состоит в распространении сигналов ошибки от выходов сети к её входам, в направлении обратном прямому распространению сигналов в обычном режиме работы. Барцев и Охонин предложили обобщающий метод («принцип двойственности»), применимый к более широкому классу систем, включая , распределённые системы, и т. п. Для возможности применения метода обратного распространения ошибки передаточная функция нейронов должна быть дифференцируема. Метод используется для аналитического вычисления градиента в методе градиентного спуска. (ru) Метод зворотного поширення помилки (англ. backpropagation) — метод навчання багатошарового перцептрону. Це ітеративний градієнтний алгоритм, який використовується з метою мінімізації помилки роботи багатошарового перцептрону та отримання бажаного виходу. Основна ідея цього методу полягає в поширенні сигналів помилки від виходів мережі до її входів, в напрямку, зворотному прямому поширенню сигналів у звичайному режимі роботи. Барц і Охонін запропонували відразу загальний метод («принцип подвійності»), який можна застосувати до ширшого класу систем, включаючи , , тощо .Для можливості застосування методу зворотного поширення помилки функція активації нейронів повинна бути диференційовною. (uk) 反向传播(英語:Backpropagation,意為误差反向传播,缩写为BP)是對多層人工神经网络進行梯度下降的算法,也就是用链式法则以网络每层的权重為變數计算损失函数的梯度,以更新权重來最小化损失函数。 (zh)
dbo:thumbnail wiki-commons:Special:FilePath/A_simple_neural_netwo...its_and_one_output_unit.png?width=300
dbo:wikiPageExternalLink http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html http://neuralnetworksanddeeplearning.com/chap2.html https://page.mi.fu-berlin.de/rojas/neural/chapter/K7.pdf https://sudeepraja.github.io/BackpropAdjoints/ https://www.deeplearningbook.org/contents/mlp.html%23pf25 https://docs.microsoft.com/en-us/archive/msdn-magazine/2012/october/test-run-neural-network-back-propagation-for-programmers https://www.deeplearningbook.org/contents/mlp.html%23pf33 http://neuralnetworksanddeeplearning.com http://www.deeplearningbook.org https://ghostarchive.org/varchive/youtube/20211212/Ilg3gGewQ5U%7C https://ghostarchive.org/varchive/youtube/20211212/i94OvYb6noo%7C https://www.youtube.com/watch%3Fv=Ilg3gGewQ5U&list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi&index=3 https://www.youtube.com/watch%3Fv=i94OvYb6noo&list=PLkt2uSq6rBVctENoVBg1TpCC7OQi31AlC&index=4
dbo:wikiPageID 1360091 (xsd:integer)
dbo:wikiPageLength 50623 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1124381939 (xsd:integer)
dbo:wikiPageWikiLink dbr:Ensemble_learning dbr:Natural_language_processing dbr:Delta_rule dbr:Algorithm dbr:Algorithmic_efficiency dbr:Paul_Werbos dbr:Deep_learning dbr:Dummy_variable_(statistics) dbr:GPU dbr:Convex_optimization dbr:Cross_entropy dbr:Matrix_multiplication dbr:Maxima_and_minima dbr:Function_composition dbr:Glossary_of_graph_theory_terms dbr:Gradient dbr:Gradient_descent dbr:Monte_Carlo_tree_search dbr:Control_theory dbr:Total_derivative dbr:Log_loss dbr:Logistic_function dbr:MSDN_Magazine dbr:Machine_learning dbr:Yu-Chi_Ho dbr:Feedforward_neural_network dbr:Partial_derivative dbr:Plateau_(mathematics) dbr:Machine_vision dbr:Swish_function dbr:One-hot dbc:Articles_with_example_pseudocode dbr:Activation_function dbr:AdaBoost dbc:Machine_learning_algorithms dbr:Training_set dbr:Transpose dbr:Tuple dbr:Hadamard_product_(matrices) dbr:Dynamic_programming dbr:Event-related_potential dbr:Parabola dbr:Parameter dbr:Diagonal_matrix dbr:Gradient_method dbr:Iteration dbr:Stochastic_gradient_descent dbr:Ramp_function dbr:Rectifier_(neural_networks) dbr:Regression_analysis dbr:Speech_recognition dbr:Backpropagation_through_time dbr:Arthur_E._Bryson dbr:Artificial_neural_network dbc:Artificial_neural_networks dbr:Chain_rule dbr:AlexNet dbr:Henry_J._Kelley dbr:Hessian_matrix dbr:Differentiable_function dbr:Artificial_neuron dbr:Automatic_differentiation dbr:Softmax_function dbr:Optimization_problem dbr:Catastrophic_interference dbr:Real_number dbr:Yann_LeCun dbr:YouTube dbr:Loss_function dbr:Sigmoid_function dbr:Neural_backpropagation dbr:Neural_circuit dbr:Statistical_classification dbr:Non-linear dbr:Euclidean_distance dbr:Ronald_J._Williams dbr:Fisher_information dbr:N400_(neuroscience) dbr:Seppo_Linnainmaa dbr:Overfitting dbr:P600_(neuroscience) dbr:Parameter_space dbr:Stuart_Dreyfus dbr:Supervised_learning dbr:Levenberg-Marquardt_algorithm dbr:Reverse_accumulation dbr:Squared_error_loss dbr:Scalar-valued_function dbr:Covector dbr:David_E._Rumelhart dbr:ReLU dbr:Geoffrey_E._Hinton dbr:File:A_simple_neural_network_with_two_input_units_and_one_output_unit.png dbr:File:ArtificialNeuronModel_english.png dbr:File:Error_surface_of_a_linear_neuron_for_a_single_training_case.png dbr:File:Extrema_example.svg dbr:Wikiversity:Learning_and_Neural_Networks
dbp:date August 2022 (en)
dbp:reason Inconsistent use of variable names and terminology without images to match. (en)
dbp:wikiPageUsesTemplate dbt:About dbt:Authority_control dbt:Cbignore dbt:Cite_book dbt:Cite_web dbt:Cleanup_reorganize dbt:Cn dbt:Efn dbt:Expand_section dbt:Further dbt:Harvtxt dbt:Hatnote dbt:Mvar dbt:Notelist dbt:NumBlk dbt:Reflist dbt:See_also dbt:Sfn dbt:Short_description dbt:Slink dbt:EquationRef dbt:EquationNote dbt:Machine_learning_bar dbt:Differentiable_computing
dct:subject dbc:Articles_with_example_pseudocode dbc:Machine_learning_algorithms dbc:Artificial_neural_networks
gold:hypernym dbr:Method
rdf:type owl:Thing dbo:Software yago:WikicatArtificialNeuralNetworks yago:WikicatNeuralNetworks yago:Abstraction100002137 yago:Act100030358 yago:Activity100407535 yago:Algorithm105847438 yago:Communication100033020 yago:ComputerArchitecture106725249 yago:Description106724763 yago:Event100029378 yago:Message106598915 yago:NeuralNetwork106725467 yago:Procedure101023820 yago:PsychologicalFeature100023100 yago:YagoPermanentlyLocatedEntity yago:Rule105846932 yago:Specification106725067 yago:Statement106722453 yago:WikicatAlgorithms
rdfs:comment La retropropagació, en l'àmbit de les xarxes neuronals artificials, és un mètode que s'empra per a calcular el gradient que és necessari aplicar als pesos o coeficients dels nodes de la xarxa. La retropropagació s'utilitza molt per a entrenar xarxes d'aprenentatge profund. La retropropagació és un cas especial d'una tècnica més general anomenada derivació automàtica, on s'ajusten els coeficients de les neurones tot calculant amb l'algorisme del gradient descendent. (ca) Backpropagation oder auch Backpropagation of Error bzw. auch Fehlerrückführung (auch Rückpropagierung) ist ein verbreitetes Verfahren für das Einlernen von künstlichen neuronalen Netzen. Es gehört zur Gruppe der überwachten Lernverfahren und wird als Verallgemeinerung der Delta-Regel auf mehrschichtige Netze angewandt. Dazu muss ein externer Lehrer existieren, der zu jedem Zeitpunkt der Eingabe die gewünschte Ausgabe, den Zielwert, kennt.Die Rückwärtspropagierung ist ein Spezialfall eines allgemeinen Gradientenverfahrens in der Optimierung, basierend auf dem mittleren quadratischen Fehler. (de) 역전파(逆傳播), 오차 역전파법(영어: Backpropagation 백프로퍼게이션[*]) 또는 오류 역전파 알고리즘은 다층 퍼셉트론 학습에 사용되는 통계적 기법을 의미한다. 기계 학습에서 사용되는 학습 구조로 다층 퍼셉트론이 있다. 일반적인 다층 퍼셉트론의 형태는 입력층 - 은닉층 - 은닉층 - ... - 출력층으로 구성되며, 각 층은 서로 교차되는 가중치 값으로 연결되어 있다. 출력층에서 제시한 값이 실제 원하는 값에 가까워지도록 학습하기 위해 통계적 방법에 의한 오차역전법을 사용한다. 오차역전법은 동일 입력층에 대해 원하는 값이 출력되도록 개개의 가중치를 조정하는 방법으로 사용되며, 속도는 느리지만 안정적인 결과를 얻을 수 있는 장점이 있어 기계 학습에 널리 사용되고 있다. (ko) バックプロパゲーション(英: Backpropagation)または誤差逆伝播法(ごさぎゃくでんぱほう)はニューラルネットワークの学習アルゴリズムである。 (ja) Метод зворотного поширення помилки (англ. backpropagation) — метод навчання багатошарового перцептрону. Це ітеративний градієнтний алгоритм, який використовується з метою мінімізації помилки роботи багатошарового перцептрону та отримання бажаного виходу. Основна ідея цього методу полягає в поширенні сигналів помилки від виходів мережі до її входів, в напрямку, зворотному прямому поширенню сигналів у звичайному режимі роботи. Барц і Охонін запропонували відразу загальний метод («принцип подвійності»), який можна застосувати до ширшого класу систем, включаючи , , тощо .Для можливості застосування методу зворотного поширення помилки функція активації нейронів повинна бути диференційовною. (uk) 反向传播(英語:Backpropagation,意為误差反向传播,缩写为BP)是對多層人工神经网络進行梯度下降的算法,也就是用链式法则以网络每层的权重為變數计算损失函数的梯度,以更新权重來最小化损失函数。 (zh) الانتشار الخلفي (Backpropagation) هي إحدى طرق تعليم الشبكات العصبونية التي تؤمن نقل معلومات بالانتشار العكسي للاتجاه الأصلي لقدوم المعلومات. تعتمد هذه الطريقة على مبدأ وتحتاج في مرحلة التدريب إلى بيانات خاصة تتعلم بها الشبكة حيث تقدم لها بيانات دخل (input) مع بيانات الخرج (output) المرغوب فيها ومن ثم تقوم الشبكة بعمل انتشار امامي (feed forward) لبيانات الدخل للحصول على قيمة خرج الشبكة بعدها تقوم بالمقارنة بين الخرج المحسوب والخرج المرغوب فاذا لم تتطابق النتائج تقوم الشبكة بحساب قيمة الفرق بينهما لكل عصبون من طبقة الخرج والذي يمثل قيمة الخطا (error)، بعدها تاتي مرحلة الانتشار الخلفي للأخطاء (backpropagation) حيث تعيد الشبكة حساب قيمة الخطأ في كل عصبون من الشبكات الخفية. في الأخير تأتي مرحلة تحديث قيمة الأوزان(weight update)حيث تقوم الشبكة بإعادة حساب كل الأوزان وتعوضها بالقيم الجديدة المحس (ar) In machine learning, backpropagation (backprop, BP) is a widely used algorithm for training feedforward artificial neural networks. Generalizations of backpropagation exist for other artificial neural networks (ANNs), and for functions generally. These classes of algorithms are all referred to generically as "backpropagation". In fitting a neural network, backpropagation computes the gradient of the loss function with respect to the weights of the network for a single input–output example, and does so efficiently, unlike a naive direct computation of the gradient with respect to each weight individually. This efficiency makes it feasible to use gradient methods for training multilayer networks, updating weights to minimize loss; gradient descent, or variants such as stochastic gradient des (en) O αλγόριθμος οπισθοδιάδοσης είναι μια οικογένεια μεθόδων που χρησιμοποιούνται για την αποτελεσματική εκπαίδευση των τεχνητών νευρωνικών δικτύων (συντομογραφία ΤΝΔ), ακολουθώντας έναν αλγόριθμο βελτιστοποίησης βασιζόμενο στην κλίση που εκμεταλλεύεται τον κανόνα της αλυσίδας . Το κύριο χαρακτηριστικό της οπισθοδιάδοσης είναι η επαναληπτική, αναδρομική και αποδοτική μέθοδος για τον υπολογισμό των ανανεώσεων των βαρών για τη βελτίωση του δικτύου έως ότου είναι σε θέση να εκτελέσει το έργο για το οποίο εκπαιδεύεται. Είναι στενά συνδεδεμένη με τον αλγόριθμο Gauss-Newton . (el) En aprendizaje de máquina, la propagación hacia atrás de errores o retropropagación (del inglés backpropagation) es un algoritmo de aprendizaje supervisado utilizado para entrenar redes neuronales prealimentadas. Dado que es un método de cálculo del gradiente el algoritmo generalmente se puede usar en otros tipos de redes neuronales artificiales y en general para funciones. ​ (es) Algoritme Perambatan Mundur atau backpropagation merupakan algoritme untuk melakukan proses pembelajaran terarah (supervised learning) pada jaringan saraf tiruan (JST) untuk mencari beban (weight) pada setiap neuron yang menghasilkan nilai kesalahan seminimal mungkin melalui data pembelajaran (training data) yang diberikan. Metode ini memanfaatkan teknik optimasi berdasarkan penurunan gradien. Metode ini dilakukan setelah proses perambatan maju yang merambatkan data dari data masukan ke keluaran melalui koleksi neuron dan lapisan JST untuk kemudian dirambatkan balik ke belakang dari lapis keluaran ke lapis masukan untuk menghitung nilai kesalahan pada masing-masing neuron dibandingkan dengan nilai keluaran yang seharusnya (nilai target). (in) En machine learning, la rétropropagation du gradient est une méthode pour entraîner un réseau de neurones, consistant à mettre à jour les poids de chaque neurone de la dernière couche vers la première. Elle vise à corriger les erreurs selon l'importance de la contribution de chaque élément à celles-ci. Dans le cas des réseaux de neurones, les poids synaptiques qui contribuent plus à une erreur seront modifiés de manière plus importante que les poids qui provoquent une erreur marginale. (fr) La retropropagazione dell'errore (in inglese backpropagation) è un algoritmo per l'addestramento delle reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la discesa stocastica del gradiente. Una delle principali difficoltà nell'uso della retropropagazione dell'errore è il cosiddetto problema della scomparsa del gradiente, dovuto all'uso di funzioni di attivazione non lineari che causano una diminuzione esponenziale del valore del gradiente all'aumentare della profondità della rete neurale. (it) Propagacja wsteczna (ang. Backpropagation lub Backward Propagation of Errors) – podstawowy algorytm uczenia nadzorowanego wielowarstwowych, jednokierunkowych sieci neuronowych. Podaje on przepis na zmianę wag dowolnych połączeń elementów przetwarzających rozmieszczonych w sąsiednich warstwach sieci. Oparty jest on na minimalizacji sumy kwadratów błędów (lub innej funkcji błędu) uczenia z wykorzystaniem optymalizacyjnej metody największego spadku. Dzięki zastosowaniu specyficznego sposobu propagowania błędów uczenia sieci powstałych na jej wyjściu, tj. przesyłania ich od warstwy wyjściowej do wejściowej, algorytm propagacji wstecznej stał się jednym z najskuteczniejszych algorytmów uczenia sieci. (pl) Метод обратного распространения ошибки (англ. backpropagation) — метод вычисления градиента, который используется при обновлении весов многослойного перцептрона. Впервые метод был описан в 1974 г. А. И. Галушкиным, а также независимо и одновременно Полом Дж. Вербосом. Далее существенно развит в 1986 г. Дэвидом И. Румельхартом, Дж. Е. Хинтоном и Рональдом Дж. Вильямсом и независимо и одновременно и (Красноярская группа). Это , который используется с целью минимизации ошибки работы многослойного перцептрона и получения желаемого выхода. (ru)
rdfs:label انتشار خلفي (ar) Retropropagació (ca) Algoritmus zpětného šíření chyby (cs) Backpropagation (de) Οπισθοδιάδοση (el) Backpropagation (en) Propagación hacia atrás (es) Rétropropagation du gradient (fr) Algoritma perambatan mundur (in) Retropropagazione dell'errore (it) 역전파 (ko) バックプロパゲーション (ja) Propagacja wsteczna (pl) Метод обратного распространения ошибки (ru) Метод зворотного поширення помилки (uk) 反向传播算法 (zh)
rdfs:seeAlso dbr:Perceptron
owl:sameAs freebase:Backpropagation yago-res:Backpropagation wikidata:Backpropagation dbpedia-ar:Backpropagation dbpedia-ca:Backpropagation dbpedia-cs:Backpropagation dbpedia-de:Backpropagation dbpedia-el:Backpropagation dbpedia-es:Backpropagation dbpedia-fa:Backpropagation dbpedia-fr:Backpropagation dbpedia-id:Backpropagation dbpedia-it:Backpropagation dbpedia-ja:Backpropagation dbpedia-ka:Backpropagation dbpedia-ko:Backpropagation dbpedia-pl:Backpropagation dbpedia-ru:Backpropagation dbpedia-simple:Backpropagation dbpedia-sl:Backpropagation dbpedia-sr:Backpropagation dbpedia-uk:Backpropagation dbpedia-vi:Backpropagation dbpedia-zh:Backpropagation https://global.dbpedia.org/id/4xPEm
prov:wasDerivedFrom wikipedia-en:Backpropagation?oldid=1124381939&ns=0
foaf:depiction wiki-commons:Special:FilePath/A_simple_neural_netwo...o_input_units_and_one_output_unit.png wiki-commons:Special:FilePath/ArtificialNeuronModel_english.png wiki-commons:Special:FilePath/Error_surface_of_a_linear_neuron_for_a_single_training_case.png wiki-commons:Special:FilePath/Extrema_example.svg
foaf:isPrimaryTopicOf wikipedia-en:Backpropagation
is dbo:knownFor of dbr:David_Rumelhart dbr:Paul_Werbos dbr:Geoffrey_Hinton
is dbo:wikiPageRedirects of dbr:BP_algorithm dbr:Back-Propagation dbr:Back-propagation dbr:Back_prop dbr:Back_propagation dbr:Backprop dbr:Backpropogation dbr:Error_back-propagation
is dbo:wikiPageWikiLink of dbr:Q-learning dbr:Rumelhart_Prize dbr:Elastic_map dbr:List_of_University_of_Toronto_faculty dbr:List_of_algorithms dbr:Neural_network dbr:MRI_artifact dbr:Meta-learning_(computer_science) dbr:Stylometry dbr:Bernard_Widrow dbr:Brain.js dbr:David_Rumelhart dbr:David_Spivak dbr:Delta_rule dbr:Almeida–Pineda_recurrent_backpropagation dbr:Apical_dendrite dbr:History_of_artificial_intelligence dbr:Paul_Werbos dbr:Perceptron dbr:Vanishing_gradient_problem dbr:Decision_boundary dbr:DeepDream dbr:Deep_learning dbr:Prefrontal_cortex_basal_ganglia_working_memory dbr:Quickprop dbr:Timeline_of_artificial_intelligence dbr:General_regression_neural_network dbr:Generative_adversarial_network dbr:Online_machine_learning dbr:Radial_basis_function_network dbr:Timeline_of_machine_learning dbr:Alex_Waibel dbr:Encog dbr:GPT-2 dbr:Gekko_(optimization_software) dbr:Generalized_Hebbian_algorithm dbr:Geoffrey_Hinton dbr:Glossary_of_artificial_intelligence dbr:Gradient_descent dbr:Mitchell,_South_Dakota dbr:Connectionism dbr:Contrastive_Hebbian_learning dbr:Convolutional_neural_network dbr:Logistic_function dbr:Machine_learning dbr:Fault_detection_and_isolation dbr:Feedforward_neural_network dbr:Helmholtz_machine dbr:John_K._Kruschke dbr:Joseph_Sgro dbr:Kunihiko_Fukushima dbr:Swish_function dbr:Adjoint_state_method dbr:Torch_(machine_learning) dbr:Jürgen_Schmidhuber dbr:Land_cover_maps dbr:Language_model dbr:LeNet dbr:Learning_rate dbr:Learning_rule dbr:Linear_classifier dbr:Logistic_regression dbr:Eta dbr:Fast_Artificial_Neural_Network dbr:PAQ dbr:Capsule_neural_network dbr:Diagonal_matrix dbr:Dimensionality_reduction dbr:Graph_neural_network dbr:History_of_artificial_neural_networks dbr:Spin_glass dbr:Stochastic_gradient_descent dbr:Quantum_neural_network dbr:Recurrent_neural_network dbr:Restricted_Boltzmann_machine dbr:JOONE dbr:Backpropagation_through_time dbr:TensorFlow dbr:Hybrid_Kohonen_self-organizing_map dbr:Arthur_E._Bryson dbr:Artificial_intelligence dbr:Artificial_neural_network dbr:ADALINE dbr:AI_winter dbr:ALOPEX dbr:AlexNet dbr:Symbolic_artificial_intelligence dbr:Code_stylometry dbr:Henry_J._Kelley dbr:Holographic_associative_memory dbr:Models_of_neural_computation dbr:Artificial_neuron dbr:Autoencoder dbr:Automatic_differentiation dbr:Boltzmann_machine dbr:Softmax_function dbr:Spiking_neural_network dbr:Neuroevolution dbr:Neuroph dbr:Catastrophic_interference dbr:Metadynamics dbr:Self-organizing_map dbr:Neural_backpropagation dbr:Neural_cryptography dbr:Neural_network_quantum_states dbr:Neural_style_transfer dbr:Neurogammon dbr:Extreme_learning_machine dbr:Unsupervised_learning dbr:Ronald_J._Williams dbr:Rprop dbr:Stock_market_prediction dbr:First_break_picking dbr:Natural_computing dbr:Visual_temporal_attention dbr:Synaptic_weight dbr:Multi-surface_method dbr:Multilayer_perceptron dbr:Seppo_Linnainmaa dbr:Nonlinear_dimensionality_reduction dbr:Time_delay_neural_network dbr:Residual_neural_network dbr:Outline_of_artificial_intelligence dbr:Outline_of_machine_learning dbr:Stuart_Dreyfus dbr:Supervised_learning dbr:Types_of_artificial_neural_networks dbr:Variational_autoencoder dbr:BP_algorithm dbr:Back-Propagation dbr:Back-propagation dbr:Back_prop dbr:Back_propagation dbr:Backprop dbr:Backpropogation dbr:Error_back-propagation
is dbp:knownFor of dbr:Paul_Werbos
is owl:differentFrom of dbr:Backward_induction
is foaf:primaryTopic of wikipedia-en:Backpropagation