Vorliegende Sprache |
ger |
ISBN |
978-3-96009-202-5 |
Name |
Tunstall, Lewis ¬[VerfasserIn]¬ |
Werra, Leandro ¬von¬ ¬[MitwirkendeR]¬ |
ANZEIGE DER KETTE |
Werra, Leandro ¬von¬ ¬[MitwirkendeR]¬ |
Name |
Wolf, Thomas ¬[MitwirkendeR]¬ |
Fraaß, Marcus ¬[MitwirkendeR]¬ |
Géron, Aurélien ¬[VerfasserIn eines Vorworts]¬ |
Fraaß, Marcus ¬[ÜbersetzerIn]¬ |
T I T E L |
Natural language processing mit transformern |
Zusatz zum Titel |
Sprachanwendungen mit Hugging Face erstellen |
Auflage |
1. Auflage |
Verlagsort |
Heidelberg |
Verlag |
O'Reilly |
Erscheinungsjahr |
2023 |
2023 |
Umfang |
1 Online-Ressource (430 Seiten) |
Reihe |
Animals |
Notiz / Fußnoten |
Description based on publisher supplied metadata and other sources. |
Titelhinweis |
Erscheint auch als (Druck-Ausgabe)ISBN: 978-3-96009-202-5 |
ISBN |
ISBN 978-3-96010-712-5 |
Kurzbeschreibung |
Intro -- Titel -- Inhalt -- Vorwort -- Einführung -- An wen richtet sich dieses Buch? -- Was Sie lernen werden -- Software- und Hardwareanforderungen -- In diesem Buch verwendete Konventionen -- Verwenden von Codebeispielen -- Danksagungen -- Lewis -- Leandro -- Thomas -- Kapitel 1: Hallo Transformer -- Das Encoder-Decoder-Framework -- Der Attention-Mechanismus -- Einsatz von Transfer Learning im NLP -- Die Transformers-Bibliothek von Hugging Face: die Lücke schließen -- Die Anwendungsmöglichkeiten von Transformern im Überblick -- Textklassifizierung -- Named Entity Recognition -- Question Answering -- Automatische Textzusammenfassung (Summarization) -- Maschinelle Übersetzung (Translation) -- Textgenerierung -- Das Ökosystem von Hugging Face -- Der Hugging Face Hub -- Die Tokenizers-Bibliothek von Hugging Face -- Die Datasets-Bibliothek von Hugging Face -- Die Accelerate-Bibliothek von Hugging Face -- Die größten Herausforderungen im Zusammenhang mit Transformer-Modellen -- Zusammenfassung -- Kapitel 2: Textklassifizierung -- Der Datensatz -- Ein erster Blick auf die Datasets-Bibliothek von Hugging Face -- Dataset-Objekte in DataFrames überführen -- Ein Blick auf die Verteilung der Kategorien -- Wie lang sind unsere Tweets? -- Vom Text zu Tokens -- Tokenisierung auf der Ebene von Zeichen (Character Tokenization) -- Tokenisierung auf der Ebene von Wörtern (Word Tokenization) -- Tokenisierung auf der Ebene von Teilwörtern (Subword Tokenization) -- Den gesamten Datensatz tokenisieren -- Trainieren eines Textklassifikators -- Transformer-Modelle als Feature-Extraktoren -- Feintuning von Transformer-Modellen -- Zusammenfassung -- Kapitel 3: Die Anatomie von Transformer-Modellen -- Die Transformer-Architektur -- Der Encoder -- Self-Attention -- Die Feed-Forward-Schicht -- Layer Normalization integrieren -- Positional-Embeddings. |
1. Schlagwortkette |
Deep learning |
Text Mining |
Künstliche Intelligenz |
Automatische Sprachanalyse |
Chatbot |
ANZEIGE DER KETTE |
Deep learning -- Text Mining -- Künstliche Intelligenz -- Automatische Sprachanalyse -- Chatbot |
SWB-Titel-Idn |
1837007748 |
Signatur |
E-Book ProQuest |
Bemerkungen |
Elektronischer Volltext - Campuslizenz |
Elektronische Adresse |
$uhttps://ebookcentral.proquest.com/lib/fhzwickau/detail.action?docID=7194380 |
Internetseite / Link |
Aggregator |