Ocena:
Obecnie brak opinii czytelników. Ocena opiera się na 3 głosach.
Embeddings in Natural Language Processing: Theory and Advances in Vector Representations of Meaning
Embeddings to bez wątpienia jeden z najbardziej wpływowych obszarów badawczych w dziedzinie przetwarzania języka naturalnego (NLP). Kodowanie informacji do niskowymiarowej reprezentacji wektorowej, którą można łatwo zintegrować z nowoczesnymi modelami uczenia maszynowego, odegrało kluczową rolę w rozwoju NLP. Techniki osadzania początkowo koncentrowały się na słowach, ale wkrótce zaczęto zwracać uwagę na inne formy: od struktur grafowych, takich jak bazy wiedzy, po inne typy treści tekstowych, takie jak zdania i dokumenty.
Niniejsza książka stanowi wysokopoziomową syntezę głównych technik osadzania w NLP, w szerokim tego słowa znaczeniu. Książka rozpoczyna się od wyjaśnienia konwencjonalnych modeli przestrzeni wektorowej słów i osadzania słów (np. Word2Vec i GloVe), a następnie przechodzi do innych typów osadzania, takich jak sens słów, zdania i dokumenty oraz osadzanie grafów. Książka zawiera również przegląd najnowszych osiągnięć w zakresie reprezentacji kontekstowych (np. ELMo i BERT) i wyjaśnia ich potencjał w NLP.
W całej książce czytelnik może znaleźć zarówno informacje niezbędne do zrozumienia danego tematu od podstaw, jak i szeroki przegląd najbardziej udanych technik opracowanych w literaturze.
© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)