Variational autoencoder (original) (raw)

About DBpedia

変分オートエンコーダー(Variational Auto-Encoder: VAE)とは、ニューラルネットワークを使ったのひとつである。ではまず、確率分布に対するパラメーター最適化アルゴリズムであるオートエンコーディング変分ベイズアルゴリズム(Auto-Encoding Variational Bayes (AEVB) algorithm)を導入し、その応用例として変分オートエンコーダーを導入しているので、本項でもこれにならい、まずはオートエンコーディング変分ベイズアルゴリズムから説明する。

thumbnail

Property Value
dbo:abstract En apprentissage automatique, un auto-encodeur variationnel (ou VAE de l'anglais variational auto encoder), est une architecture de réseau de neurones artificiels introduite en 2013 par D. Kingma et M. Welling, appartenant aux familles des modèles graphiques probabilistes et des méthodes bayésiennes variationnelles. Les VAE sont souvent rapprochés des autoencodeurs en raison de leur architectures similaires. Leur utilisation et leur formulation mathématiques sont cependant différents. Les auto-encodeurs variationnels permettent de formuler un problème d'inférence statistique (par exemple, déduire la valeur d'une variable aléatoire à partir d'une autre variable aléatoire) en un problème d'optimisation statistique (c'est-à-dire trouver les valeurs de paramètres qui minimisent une fonction objectif). Ils représentent une fonction associant à une valeur d'entrée une distribution latente multivariée, qui n'est pas directement observée mais déduite depuis un modèle mathématique à partir de la distribution d'autres variables. Bien que ce type de modèle ait été initialement conçu pour l'apprentissage non supervisé, son efficacité a été prouvée pour l'apprentissage semi-supervisé et l'apprentissage supervisé . (fr) In machine learning, a variational autoencoder (VAE), is an artificial neural network architecture introduced by Diederik P. Kingma and Max Welling, belonging to the families of probabilistic graphical models and variational Bayesian methods. Variational autoencoders are often associated with the autoencoder model because of its architectural affinity, but with significant differences in the goal and mathematical formulation. Variational autoencoders are probabilistic generative models that require neural networks as only a part of their overall structure, as e.g. in VQ-VAE. The neural network components are typically referred to as the encoder and decoder for the first and second component respectively. The first neural network maps the input variable to a latent space that corresponds to the parameters of a variational distribution. In this way, the encoder can produce multiple different samples that all come from the same distribution. The decoder has the opposite function, which is to map from the latent space to the input space, in order to produce or generate data points. Both networks are typically trained together with the usage of the reparameterization trick, although the variance of the noise model can be learned separately. Although this type of model was initially designed for unsupervised learning, its effectiveness has been proven for semi-supervised learning and supervised learning. (en) 変分オートエンコーダー(Variational Auto-Encoder: VAE)とは、ニューラルネットワークを使ったのひとつである。ではまず、確率分布に対するパラメーター最適化アルゴリズムであるオートエンコーディング変分ベイズアルゴリズム(Auto-Encoding Variational Bayes (AEVB) algorithm)を導入し、その応用例として変分オートエンコーダーを導入しているので、本項でもこれにならい、まずはオートエンコーディング変分ベイズアルゴリズムから説明する。 (ja) У машинному навчанні варіаційний автокодувальник (англ. variational autoencoder), відомий також як ВАК (англ. VAE), — це архітектура штучної нейронної мережі, запроваджена та , що належить до сімейств імовірнісних графових моделей та . Її часто асоціюють із моделлю автокодувальника через її архітектурну спорідненість, але між ними є значні відмінності як у цілі, так і в математичному формулюванні. Варіаційні автокодувальники призначено для стискання інформації входу до обмеженого багатовимірного латентного розподілу (кодування), щоби відбудовувати її якомога точніше (декодування). Хоча первинно цей тип моделі було розроблено для спонтанного навчання, його дієвість було доведено й в інших областях машинного навчання, таких як напівавтоматичне та кероване навчання. (uk)
dbo:thumbnail wiki-commons:Special:FilePath/VAE_Basic.png?width=300
dbo:wikiPageID 62078649 (xsd:integer)
dbo:wikiPageLength 20819 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1123281523 (xsd:integer)
dbo:wikiPageWikiLink dbr:Deep_learning dbr:Cross_entropy dbc:Graphical_models dbr:Max_Welling dbr:Generative_adversarial_network dbr:Gradient_descent dbr:Machine_learning dbr:Cholesky_decomposition dbr:Backpropagation dbr:Data_augmentation dbr:Graphical_model dbr:Gaussian_distribution dbr:Stochastic_gradient_descent dbr:Artificial_neural_network dbc:Bayesian_statistics dbc:Supervised_learning dbr:Autoencoder dbc:Dimension_reduction dbc:Neural_network_architectures dbc:Unsupervised_learning dbr:Marginal_distribution dbr:Kullback–Leibler_divergence dbr:Chain_rule_(probability) dbr:Mean_squared_error dbr:Semi-supervised_learning dbr:Variational_Bayesian_methods dbr:Unsupervised_learning dbr:Evidence_lower_bound dbr:Random_number_generation dbr:Supervised_learning dbr:Sparse_dictionary_learning dbr:Joint_distribution dbr:Representation_learning dbr:File:Reparameterization_Trick.png dbr:File:Reparameterized_Variational_Autoencoder.png dbr:File:VAE_Basic.png
dbp:cs1Dates y (en)
dbp:date June 2021 (en)
dbp:wikiPageUsesTemplate dbt:Div_col dbt:Div_col_end dbt:Main dbt:Reflist dbt:Short_description dbt:Use_dmy_dates dbt:Machine_learning_bar dbt:Differentiable_computing
dct:subject dbc:Graphical_models dbc:Bayesian_statistics dbc:Supervised_learning dbc:Dimension_reduction dbc:Neural_network_architectures dbc:Unsupervised_learning
rdfs:comment 変分オートエンコーダー(Variational Auto-Encoder: VAE)とは、ニューラルネットワークを使ったのひとつである。ではまず、確率分布に対するパラメーター最適化アルゴリズムであるオートエンコーディング変分ベイズアルゴリズム(Auto-Encoding Variational Bayes (AEVB) algorithm)を導入し、その応用例として変分オートエンコーダーを導入しているので、本項でもこれにならい、まずはオートエンコーディング変分ベイズアルゴリズムから説明する。 (ja) En apprentissage automatique, un auto-encodeur variationnel (ou VAE de l'anglais variational auto encoder), est une architecture de réseau de neurones artificiels introduite en 2013 par D. Kingma et M. Welling, appartenant aux familles des modèles graphiques probabilistes et des méthodes bayésiennes variationnelles. Les VAE sont souvent rapprochés des autoencodeurs en raison de leur architectures similaires. Leur utilisation et leur formulation mathématiques sont cependant différents. (fr) In machine learning, a variational autoencoder (VAE), is an artificial neural network architecture introduced by Diederik P. Kingma and Max Welling, belonging to the families of probabilistic graphical models and variational Bayesian methods. Although this type of model was initially designed for unsupervised learning, its effectiveness has been proven for semi-supervised learning and supervised learning. (en) У машинному навчанні варіаційний автокодувальник (англ. variational autoencoder), відомий також як ВАК (англ. VAE), — це архітектура штучної нейронної мережі, запроваджена та , що належить до сімейств імовірнісних графових моделей та . (uk)
rdfs:label Auto-encodeur variationnel (fr) 変分オートエンコーダー (ja) Variational autoencoder (en) Варіаційний автокодувальник (uk)
owl:sameAs wikidata:Variational autoencoder dbpedia-fr:Variational autoencoder dbpedia-ja:Variational autoencoder dbpedia-simple:Variational autoencoder dbpedia-uk:Variational autoencoder https://global.dbpedia.org/id/DBZzs
prov:wasDerivedFrom wikipedia-en:Variational_autoencoder?oldid=1123281523&ns=0
foaf:depiction wiki-commons:Special:FilePath/Reparameterization_Trick.png wiki-commons:Special:FilePath/Reparameterized_Variational_Autoencoder.png wiki-commons:Special:FilePath/VAE_Basic.png
foaf:isPrimaryTopicOf wikipedia-en:Variational_autoencoder
is dbo:wikiPageRedirects of dbr:Variational_autoencoders
is dbo:wikiPageWikiLink of dbr:Max_Welling dbr:Generative_adversarial_network dbr:Energy_based_model dbr:Continuous_Bernoulli_distribution dbr:Feature_learning dbr:Population_structure_(genetics) dbr:Text-to-image_model dbr:Data_augmentation dbr:Diffusion_model dbr:Text-to-Video_model dbr:Autoencoder dbr:Vae dbr:Unsupervised_learning dbr:Stable_Diffusion dbr:Variational_autoencoders
is foaf:primaryTopic of wikipedia-en:Variational_autoencoder