Reservoir computing (original) (raw)
Reservoir computing is a framework for computation derived from recurrent neural network theory that maps input signals into higher dimensional computational spaces through the dynamics of a fixed, non-linear system called a reservoir. After the input signal is fed into the reservoir, which is treated as a "black box," a simple readout mechanism is trained to read the state of the reservoir and map it to the desired output. The first key benefit of this framework is that training is performed only at the readout stage, as the reservoir dynamics are fixed. The second is that the computational power of naturally available systems, both classical and quantum mechanical, can be used to reduce the effective computational cost.
Property | Value |
---|---|
dbo:abstract | Le calcul par réservoir (de l'anglais reservoir computing) est un cadre de calcul dérivé de la théorie des réseaux de neurones récurrents qui mappe un ou plusieurs signaux d'entrée dans des espaces de calcul de dimension supérieure grâce à la dynamique d'un système fixe et non linéaire appelé réservoir . Une fois que le signal d'entrée est introduit dans le réservoir, qui est traité comme une « boîte noire », un simple mécanisme de lecture est entraîné pour lire l'état du réservoir et le mapper à la sortie souhaitée. Le premier avantage clé de ce cadre est que l'entraînement n'est effectué qu'à la lecture, car le réservoir reste fixe. Le second est que la puissance de calcul de systèmes naturellement disponibles (c'est-à-dire physique) peut être utilisée pour réduire le coût de calcul effectif. (fr) Reservoir computing is a framework for computation derived from recurrent neural network theory that maps input signals into higher dimensional computational spaces through the dynamics of a fixed, non-linear system called a reservoir. After the input signal is fed into the reservoir, which is treated as a "black box," a simple readout mechanism is trained to read the state of the reservoir and map it to the desired output. The first key benefit of this framework is that training is performed only at the readout stage, as the reservoir dynamics are fixed. The second is that the computational power of naturally available systems, both classical and quantum mechanical, can be used to reduce the effective computational cost. (en) Con reservoir computing ci si riferisce ad un insieme di metodologie per la progettazione e l'allenamento di reti neurali ricorrenti, nel cui ambito sono ricompresi Echo State Network, Liquid State Machine e l'algoritmo Backpropagation-Decorrelation. Il termine è stato introdotto nel 2007 per sottolineare come queste metodologie condividano la stessa idea fondamentale di base, la separazione fra la parte ricorrente (dinamica) della rete, il reservoir, dalla parte non-ricorrente, il readout. Questo permette di separare l'allenamento complessivo della rete ricorrente in due fasi distinte. In particolare, una volta fissato il reservoir (ad esempio con una generazione casuale delle sue connessioni interne), la scelta più comune è quella di allenare il readout tramite una regressione lineare (in modalità batch) o tramite un approccio basato sulla discesa al gradiente, nel caso online. Questo evita il ricorso a tecniche di error backpropagation sull'intera rete ricorrente, come la . (it) Резервуа́рне обчи́слення (англ. reservoir computing) — це система обчислення, яку можна розглядати як розширення нейронних мереж. Як правило, входовий сигнал подається до незмінної (випадкової) динамічної системи, що називають резервуаром (англ. reservoir), і динаміка резервуара відображує вхід до вищого виміру. Потім простий механізм зчитування (англ. readout) тренують читати стан резервуару й відображувати його на бажаний вихід. Головна перевага полягає в тім, що тренування виконується лише на стадії зчитування, а резервуар є незмінним. Двома основними типами резервуарних обчислень є рідкі скінченні автомати та мережі з відлунням стану. (uk) |
dbo:wikiPageExternalLink | http://www.mitpressjournals.org/doi/10.1162/NECO_a_00694%23.WL4P9iHyvIo http://www.nature.com/ncomms/journal/v2/n9/full/ncomms1476.html%3FWT.ec_id=NCOMMS-20110913 http://www.nature.com/ncomms/journal/v4/n1/full/ncomms2368.html http://www.nature.com/srep/2012/120227/srep00287/full/srep00287.html https://arxiv.org/abs/1406.2210 http://www.opticsinfobase.org/oe/abstract.cfm%3Furi=oe-20-3-3241 |
dbo:wikiPageID | 10667750 (xsd:integer) |
dbo:wikiPageLength | 23930 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID | 1122138620 (xsd:integer) |
dbo:wikiPageWikiLink | dbr:Quantum_harmonic_oscillator dbr:Neural_network dbr:Morphogenesis dbr:Time_series dbr:Perceptron dbr:Resonance dbr:Ridge_regression dbr:Deep_learning dbr:Quantum_computing dbr:Measurement_in_quantum_mechanics dbr:Network_theory dbr:Optical_parametric_oscillator dbr:Quantum_decoherence dbr:Electromagnetic_radiation dbr:NISQ_era dbr:Continuous-variable_quantum_information dbr:Linear_regression dbr:Liquid_state_machine dbr:Alan_Turing dbr:Recurrent_neural_network dbr:Reverberation dbr:Molecular_solid dbc:Artificial_neural_networks dbr:Chaos_theory dbr:Echo_state_network dbr:Spin_(physics) dbr:Optical_field dbr:Reaction–diffusion_system dbr:Extreme_learning_machine dbr:Quantum_neural_networks dbr:Random_kitchen_sink |
dbp:wikiPageUsesTemplate | dbt:Main dbt:Reflist dbt:Short_description |
dcterms:subject | dbc:Artificial_neural_networks |
gold:hypernym | dbr:Framework |
rdf:type | dbo:Software yago:WikicatArtificialNeuralNetworks yago:Abstraction100002137 yago:Communication100033020 yago:ComputerArchitecture106725249 yago:Description106724763 yago:Message106598915 yago:NeuralNetwork106725467 yago:Specification106725067 yago:Statement106722453 |
rdfs:comment | Reservoir computing is a framework for computation derived from recurrent neural network theory that maps input signals into higher dimensional computational spaces through the dynamics of a fixed, non-linear system called a reservoir. After the input signal is fed into the reservoir, which is treated as a "black box," a simple readout mechanism is trained to read the state of the reservoir and map it to the desired output. The first key benefit of this framework is that training is performed only at the readout stage, as the reservoir dynamics are fixed. The second is that the computational power of naturally available systems, both classical and quantum mechanical, can be used to reduce the effective computational cost. (en) Резервуа́рне обчи́слення (англ. reservoir computing) — це система обчислення, яку можна розглядати як розширення нейронних мереж. Як правило, входовий сигнал подається до незмінної (випадкової) динамічної системи, що називають резервуаром (англ. reservoir), і динаміка резервуара відображує вхід до вищого виміру. Потім простий механізм зчитування (англ. readout) тренують читати стан резервуару й відображувати його на бажаний вихід. Головна перевага полягає в тім, що тренування виконується лише на стадії зчитування, а резервуар є незмінним. Двома основними типами резервуарних обчислень є рідкі скінченні автомати та мережі з відлунням стану. (uk) Le calcul par réservoir (de l'anglais reservoir computing) est un cadre de calcul dérivé de la théorie des réseaux de neurones récurrents qui mappe un ou plusieurs signaux d'entrée dans des espaces de calcul de dimension supérieure grâce à la dynamique d'un système fixe et non linéaire appelé réservoir . Une fois que le signal d'entrée est introduit dans le réservoir, qui est traité comme une « boîte noire », un simple mécanisme de lecture est entraîné pour lire l'état du réservoir et le mapper à la sortie souhaitée. Le premier avantage clé de ce cadre est que l'entraînement n'est effectué qu'à la lecture, car le réservoir reste fixe. Le second est que la puissance de calcul de systèmes naturellement disponibles (c'est-à-dire physique) peut être utilisée pour réduire le coût de calcul eff (fr) Con reservoir computing ci si riferisce ad un insieme di metodologie per la progettazione e l'allenamento di reti neurali ricorrenti, nel cui ambito sono ricompresi Echo State Network, Liquid State Machine e l'algoritmo Backpropagation-Decorrelation. Il termine è stato introdotto nel 2007 per sottolineare come queste metodologie condividano la stessa idea fondamentale di base, la separazione fra la parte ricorrente (dinamica) della rete, il reservoir, dalla parte non-ricorrente, il readout. Questo permette di separare l'allenamento complessivo della rete ricorrente in due fasi distinte. In particolare, una volta fissato il reservoir (ad esempio con una generazione casuale delle sue connessioni interne), la scelta più comune è quella di allenare il readout tramite una regressione lineare (i (it) |
rdfs:label | Calcul par réservoir (fr) Reservoir computing (it) Reservoir computing (en) Резервуарне обчислення (uk) |
owl:sameAs | freebase:Reservoir computing yago-res:Reservoir computing wikidata:Reservoir computing dbpedia-fa:Reservoir computing dbpedia-fr:Reservoir computing dbpedia-it:Reservoir computing dbpedia-uk:Reservoir computing https://global.dbpedia.org/id/4u3dv |
prov:wasDerivedFrom | wikipedia-en:Reservoir_computing?oldid=1122138620&ns=0 |
foaf:isPrimaryTopicOf | wikipedia-en:Reservoir_computing |
is dbo:wikiPageRedirects of | dbr:Quantum_reservoir_computing dbr:Physical_reservoir_computing |
is dbo:wikiPageWikiLink of | dbr:Quantum_reservoir_computing dbr:Dean_Buonomano dbr:Deep_learning dbr:Glossary_of_artificial_intelligence dbr:Liquid_state_machine dbr:Quantum_neural_network dbr:Recursive_neural_network dbr:Echo_state_network dbr:Physical_reservoir_computing dbr:Extreme_learning_machine dbr:Unconventional_computing |
is foaf:primaryTopic of | wikipedia-en:Reservoir_computing |