Struktura uczenia się o strukturze neuronowej (original) (raw)

Przejdź do głównej treści

Struktura uczenia się o strukturze neuronowej

Zadbaj o dobrą organizację dzięki kolekcji Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.

Neural Structured Learning (NSL) koncentruje się na szkoleniu głębokich sieci neuronowych poprzez wykorzystanie sygnałów strukturalnych (jeśli są dostępne) wraz z danymi wejściowymi dotyczącymi funkcji. Jak wprowadzili Bui i in. (WSDM'18) te ustrukturyzowane sygnały służą do regularyzacji uczenia sieci neuronowej, zmuszając model do uczenia się dokładnych przewidywań (poprzez minimalizację nadzorowanych strat), przy jednoczesnym zachowaniu podobieństwa strukturalnego wejścia (poprzez minimalizację utraty sąsiada , patrz rysunek poniżej). Technika ta ma charakter ogólny i można ją zastosować w dowolnych architekturach neuronowych (takich jak sieci NN ze sprzężeniem zwrotnym, sieci konwolucyjne i sieci rekurencyjne).

Koncepcja NSL

Należy zauważyć, że uogólnione równanie straty sąsiada jest elastyczne i może mieć inne formy oprócz tej zilustrowanej powyżej. Na przykład możemy również wybrać\(\sum_{x_j \in \mathcal{N}(x_i)}\mathcal{E}(y_i,g_\theta(x_j))\) być stratą sąsiada, która oblicza odległość między prawdą podstawową \(y_i\)i przepowiednia sąsiada \(g_\theta(x_j)\). Jest to powszechnie stosowane w uczeniu się kontradyktoryjnym (Goodfellow i in., ICLR'15) . Dlatego NSL uogólnia uczenie się za pomocą grafów neuronowych, jeśli sąsiedzi są wyraźnie reprezentowani przez wykres, oraz uczenie się kontradyktoryjne , jeśli sąsiedzi są pośrednio indukowani przez perturbacje kontradyktoryjne.

Poniżej zilustrowano ogólny przebieg procesu uczenia się o strukturze neuronowej. Czarne strzałki przedstawiają konwencjonalny przebieg szkolenia, a czerwone strzałki przedstawiają nowy przebieg pracy wprowadzony przez NSL w celu wykorzystania sygnałów strukturalnych. Po pierwsze, próbki szkoleniowe są uzupełniane w celu uwzględnienia sygnałów strukturalnych. Jeżeli sygnały strukturalne nie są wyraźnie dostarczone, można je skonstruować lub indukować (to drugie dotyczy uczenia się kontradyktoryjnego). Następnie rozszerzone próbki szkoleniowe (w tym zarówno próbki oryginalne, jak i odpowiadające im sąsiadki) są podawane do sieci neuronowej w celu obliczenia ich osadzania. Obliczana jest odległość pomiędzy osadzeniem próbki a osadzeniem jej sąsiada i wykorzystana jako strata sąsiada, która jest traktowana jako składnik regularyzacyjny i dodawana do straty końcowej. W przypadku jawnej regularyzacji opartej na sąsiadach zazwyczaj obliczamy stratę sąsiada jako odległość między osadzeniem próbki a osadzeniem sąsiada. Jednakże do obliczenia straty sąsiada można zastosować dowolną warstwę sieci neuronowej. Z drugiej strony, w przypadku indukowanej regularyzacji opartej na sąsiadach (kontradykcyjnej) obliczamy stratę sąsiada jako odległość między prognozą wyjściową indukowanego kontradyktoryjnego sąsiada a etykietą prawdy podstawowej.

Przepływ pracy NSL

Dlaczego warto używać NSL?

NSL przynosi następujące korzyści:

Samouczki krok po kroku

Aby zdobyć praktyczne doświadczenie w nauczaniu strukturalnym neuronowym, przygotowaliśmy samouczki obejmujące różne scenariusze, w których sygnały strukturalne mogą być jawnie podawane, konstruowane lub indukowane. Oto kilka:

Więcej przykładów i tutoriali znajdziesz w katalogu przykładów w naszym repozytorium GitHub.

,

Neural Structured Learning (NSL) koncentruje się na szkoleniu głębokich sieci neuronowych poprzez wykorzystanie sygnałów strukturalnych (jeśli są dostępne) wraz z danymi wejściowymi dotyczącymi funkcji. Jak wprowadzili Bui i in. (WSDM'18) te ustrukturyzowane sygnały służą do regularyzacji uczenia sieci neuronowej, zmuszając model do uczenia się dokładnych przewidywań (poprzez minimalizację nadzorowanych strat), przy jednoczesnym zachowaniu podobieństwa strukturalnego wejścia (poprzez minimalizację utraty sąsiada , patrz rysunek poniżej). Technika ta ma charakter ogólny i można ją zastosować w dowolnych architekturach neuronowych (takich jak sieci NN ze sprzężeniem zwrotnym, sieci konwolucyjne i sieci rekurencyjne).

Koncepcja NSL

Należy zauważyć, że uogólnione równanie straty sąsiada jest elastyczne i może mieć inne formy oprócz tej zilustrowanej powyżej. Na przykład możemy również wybrać\(\sum_{x_j \in \mathcal{N}(x_i)}\mathcal{E}(y_i,g_\theta(x_j))\) być stratą sąsiada, która oblicza odległość między prawdą podstawową \(y_i\)i przepowiednia sąsiada \(g_\theta(x_j)\). Jest to powszechnie stosowane w uczeniu się kontradyktoryjnym (Goodfellow i in., ICLR'15) . Dlatego NSL uogólnia uczenie się za pomocą grafów neuronowych, jeśli sąsiedzi są wyraźnie reprezentowani przez wykres, oraz uczenie się kontradyktoryjne , jeśli sąsiedzi są pośrednio indukowani przez perturbacje kontradyktoryjne.

Poniżej zilustrowano ogólny przebieg procesu uczenia się o strukturze neuronowej. Czarne strzałki przedstawiają konwencjonalny przebieg szkolenia, a czerwone strzałki przedstawiają nowy przebieg pracy wprowadzony przez NSL w celu wykorzystania sygnałów strukturalnych. Po pierwsze, próbki szkoleniowe są uzupełniane w celu uwzględnienia sygnałów strukturalnych. Jeżeli sygnały strukturalne nie są wyraźnie dostarczone, można je skonstruować lub indukować (to drugie dotyczy uczenia się kontradyktoryjnego). Następnie rozszerzone próbki szkoleniowe (w tym zarówno próbki oryginalne, jak i odpowiadające im sąsiadki) są podawane do sieci neuronowej w celu obliczenia ich osadzania. Obliczana jest odległość pomiędzy osadzeniem próbki a osadzeniem jej sąsiada i wykorzystana jako strata sąsiada, która jest traktowana jako składnik regularyzacyjny i dodawana do straty końcowej. W przypadku jawnej regularyzacji opartej na sąsiadach zazwyczaj obliczamy stratę sąsiada jako odległość między osadzeniem próbki a osadzeniem sąsiada. Jednakże do obliczenia straty sąsiada można zastosować dowolną warstwę sieci neuronowej. Z drugiej strony, w przypadku indukowanej regularyzacji opartej na sąsiadach (kontradykcyjnej) obliczamy stratę sąsiada jako odległość między prognozą wyjściową indukowanego kontradyktoryjnego sąsiada a etykietą prawdy podstawowej.

Przepływ pracy NSL

Dlaczego warto używać NSL?

NSL przynosi następujące korzyści:

Samouczki krok po kroku

Aby zdobyć praktyczne doświadczenie w nauczaniu strukturalnym neuronowym, przygotowaliśmy samouczki obejmujące różne scenariusze, w których sygnały strukturalne mogą być jawnie podawane, konstruowane lub indukowane. Oto kilka:

Więcej przykładów i tutoriali znajdziesz w katalogu przykładów w naszym repozytorium GitHub.

,

Neural Structured Learning (NSL) koncentruje się na szkoleniu głębokich sieci neuronowych poprzez wykorzystanie sygnałów strukturalnych (jeśli są dostępne) wraz z danymi wejściowymi dotyczącymi funkcji. Jak wprowadzili Bui i in. (WSDM'18) te ustrukturyzowane sygnały służą do regularyzacji uczenia sieci neuronowej, zmuszając model do uczenia się dokładnych przewidywań (poprzez minimalizację nadzorowanych strat), przy jednoczesnym zachowaniu podobieństwa strukturalnego wejścia (poprzez minimalizację utraty sąsiada , patrz rysunek poniżej). Technika ta ma charakter ogólny i można ją zastosować w dowolnych architekturach neuronowych (takich jak sieci NN ze sprzężeniem zwrotnym, sieci konwolucyjne i sieci rekurencyjne).

Koncepcja NSL

Należy zauważyć, że uogólnione równanie straty sąsiada jest elastyczne i może mieć inne formy oprócz tej zilustrowanej powyżej. Na przykład możemy również wybrać\(\sum_{x_j \in \mathcal{N}(x_i)}\mathcal{E}(y_i,g_\theta(x_j))\) być stratą sąsiada, która oblicza odległość między prawdą podstawową \(y_i\)i przepowiednia sąsiada \(g_\theta(x_j)\). Jest to powszechnie stosowane w uczeniu się kontradyktoryjnym (Goodfellow i in., ICLR'15) . Dlatego NSL uogólnia uczenie się za pomocą grafów neuronowych, jeśli sąsiedzi są wyraźnie reprezentowani przez wykres, oraz uczenie się kontradyktoryjne , jeśli sąsiedzi są pośrednio indukowani przez perturbacje kontradyktoryjne.

Poniżej zilustrowano ogólny przebieg procesu uczenia się o strukturze neuronowej. Czarne strzałki przedstawiają konwencjonalny przebieg szkolenia, a czerwone strzałki przedstawiają nowy przebieg pracy wprowadzony przez NSL w celu wykorzystania sygnałów strukturalnych. Po pierwsze, próbki szkoleniowe są uzupełniane w celu uwzględnienia sygnałów strukturalnych. Jeżeli sygnały strukturalne nie są wyraźnie dostarczone, można je skonstruować lub indukować (to drugie dotyczy uczenia się kontradyktoryjnego). Następnie rozszerzone próbki szkoleniowe (w tym zarówno próbki oryginalne, jak i odpowiadające im sąsiadki) są podawane do sieci neuronowej w celu obliczenia ich osadzania. Obliczana jest odległość pomiędzy osadzeniem próbki a osadzeniem jej sąsiada i wykorzystana jako strata sąsiada, która jest traktowana jako składnik regularyzacyjny i dodawana do straty końcowej. W przypadku jawnej regularyzacji opartej na sąsiadach zazwyczaj obliczamy stratę sąsiada jako odległość między osadzeniem próbki a osadzeniem sąsiada. Jednakże do obliczenia straty sąsiada można zastosować dowolną warstwę sieci neuronowej. Z drugiej strony, w przypadku indukowanej regularyzacji opartej na sąsiadach (kontradykcyjnej) obliczamy stratę sąsiada jako odległość między prognozą wyjściową indukowanego kontradyktoryjnego sąsiada a etykietą prawdy podstawowej.

Przepływ pracy NSL

Dlaczego warto używać NSL?

NSL przynosi następujące korzyści:

Samouczki krok po kroku

Aby zdobyć praktyczne doświadczenie w nauczaniu strukturalnym neuronowym, przygotowaliśmy samouczki obejmujące różne scenariusze, w których sygnały strukturalne mogą być jawnie podawane, konstruowane lub indukowane. Oto kilka:

Więcej przykładów i tutoriali znajdziesz w katalogu przykładów w naszym repozytorium GitHub.

O ile nie stwierdzono inaczej, treść tej strony jest objęta licencją Creative Commons – uznanie autorstwa 4.0, a fragmenty kodu są dostępne na licencji Apache 2.0. Szczegółowe informacje na ten temat zawierają zasady dotyczące witryny Google Developers. Java jest zastrzeżonym znakiem towarowym firmy Oracle i jej podmiotów stowarzyszonych.

Ostatnia aktualizacja: 2024-11-04 UTC.