Shortcuts
Bitte warten Sie, bis die Seite geladen ist.
 
PageMenu- Hauptmenü-
Page content

Katalogdatenanzeige

Natural Language Processing mit Transformern: Sprachanwendungen mit Hugging Face erstellen

Natural Language Processing mit Transformern: Sprachanwendungen mit Hugging Face erstellen
Kataloginformation
Feldname Details
Vorliegende Sprache ger
Sprache d. Originals eng
Hinweise auf parallele Ausgaben 1815559381 Erscheint auch als (Online-Ausgabe): ‡Tunstall, Lewis: Natural Language Processing mit Transformers
Name Tunstall, Lewis ¬[VerfasserIn]¬
Werra, Leandro ¬von¬ ¬[VerfasserIn]¬
ANZEIGE DER KETTE Werra, Leandro ¬von¬ ¬[VerfasserIn]¬
Name Wolf, Thomas ¬[VerfasserIn]¬
Fraaß, Marcus ¬[ÜbersetzerIn]¬
Géron, Aurélien ¬[VerfasserIn eines Vorworts]¬
Einheitssachtitel Natural language processing with transformers
T I T E L Natural Language Processing mit Transformern
Zusatz zum Titel Sprachanwendungen mit Hugging Face erstellen
Auflage 1. Auflage, Deutsche Ausgabe
Verlagsort Heidelberg
Verlag O'Reilly
Erscheinungsjahr 2023
2023
Umfang 430 Seiten : Illustrationen, Diagramme
Format 24 cm x 16.5 cm
Reihe Animals
Titelhinweis Erscheint auch als (Online-Ausgabe): ‡Tunstall, Lewis: Natural Language Processing mit Transformers
Übersetzung von: ‡Tunstall, Lewis: Natural language processing with transformers
ISBN ISBN 978-3-96009-202-5 Broschur : circa EUR 44.90 (DE), circa EUR 46.20 (AT)
ISBN 3-96009-202-4 Broschur
Klassifikation 004
ST 300
ST 306
Kurzbeschreibung Transformer haben die NLP-Welt im Sturm erobert: Erhalten Sie einen fundierten und praxisnahen Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLP Das Buch wurde von den Gründern von Hugging Face, der Plattform für vortrainierte Transformer-Modelle für TensorFlow und PyTorch, verfasst Hands-On: Jeder Programmierschritt kann in Jupyter Notebooks nachvollzogen werdenTransformer liefern hervorragende Ergebnisse bei der maschinellen Sprachverarbeitung und haben sich in den letzten Jahren zur vorherrschenden Architektur im Natural Language Processing (NLP) entwickelt. Dieses Praxisbuch zeigt Data Scientists und Programmierer_innen, wie sie NLP-Modelle mit Hugging Face Transformers, einer Python-basierten Deep-Learning-Bibliothek, trainieren und skalieren. Transformer kommen beispielsweise beim maschinellen Schreiben von Nachrichtenartikeln, bei der Verbesserung von Google-Suchanfragen oder bei Chatbots zum Einsatz.Lewis Tunstall, Leandro von Werra und Thomas Wolf, die die Transformers-Bibliothek von Hugging Face mitentwickelt haben, erklären in diesem Buch, wie Transformer-basierte Modelle funktionieren und wie Sie sie in Ihre Anwendungen integrieren. Sie erfahren, wie Transformer für eine Vielzahl von Aufgaben erfolgreich eingesetzt werden können.Erstellen, debuggen und optimieren Sie Transformer-Modelle für zentrale NLP-Aufgaben wie Textklassifizierung, Named Entity Recognition oder Question Answering Lernen Sie, wie Transformer für sprachenübergreifendes Transfer Learning verwendet werden Wenden Sie Transformer auf reale Anwendungsfälle an, bei denen nur auf wenige gelabelte Daten zurückgegriffen werden kann Optimieren Sie Transformer-Modelle für das Deployment mit Techniken wie Distillation, Pruning und Quantisierung Trainieren Sie Transformer von Grund auf und lernen Sie, wie sie auf mehreren GPUs und verteilten Umgebungen skalieren
1. Schlagwortkette Deep learning
Text Mining
Künstliche Intelligenz
Automatische Sprachanalyse
Chatbot
Data Mining
ANZEIGE DER KETTE Deep learning -- Text Mining -- Künstliche Intelligenz -- Automatische Sprachanalyse -- Chatbot -- Data Mining
SWB-Titel-Idn 1807110133
Signatur 208 994
Internetseite / Link Inhaltstext
Siehe auch Cover
Siehe auch Inhaltsverzeichnis
Kataloginformation500445532 Datensatzanfang . Kataloginformation500445532 Seitenanfang .
Exemplarinformationen
Barcode Regalstandort Literaturabteilung Bandzählg. Zweigstelle Status Fälligkeitsdat.
00419193 ST 306 T927
Freihand   Hauptbibliothek . . Ausgeliehen . 22 Aug 2024
00419194 ST 306 T927
Freihand   Hauptbibliothek . . Verfügbar .  
. Katalogdatensatz500445532 ItemInfo Datensatzanfang . Katalogdatensatz500445532 ItemInfo Seitenanfang .
Vollanzeige Katalogdaten 

Auf diesem Bildschirm erhalten Sie Katalog- und Exemplarinformationen zum ausgewählten Titel.

Im Bereich Kataloginformation werden die bibliographischen Details angezeigt. Per Klick auf Hyperlink-Begriffe wie Schlagwörter, Autoren, Reihen, Körperschaften und Klassifikationen können Sie sich weitere Titel des gewählten Begriffes anzeigen lassen.

Der Bereich Exemplarinformationen enthält zum einen Angaben über den Standort und die Verfügbarkeit der Exemplare. Zum anderen haben Sie die Möglichkeit, ausgeliehene Exemplare vorzumerken oder Exemplare aus dem Magazin zu bestellen.
Schnellsuche