Vorliegende Sprache |
ger |
Hinweise auf parallele Ausgaben |
1671794346 Erscheint auch als (Druck-Ausgabe): ‡Trask, Andrew W.: Neuronale Netze und Deep Learning kapieren |
ISBN |
978-3-7475-0015-6 |
Name |
Trask, Andrew W. ¬[VerfasserIn]¬ |
Lorenzen, Knut ¬[ÜbersetzerIn]¬ |
ANZEIGE DER KETTE |
Lorenzen, Knut ¬[ÜbersetzerIn]¬ |
Einheitssachtitel |
Grokking deep learning |
T I T E L |
Neuronale Netze und Deep Learning kapieren |
Zusatz zum Titel |
der einfache Praxiseinstieg mit Beispielen in Python |
Auflage |
1. Auflage |
Verlagsort |
Frechen |
Verlag |
mitp |
Erscheinungsjahr |
2020 |
2020 |
Umfang |
1 Online-Ressource (354 Seiten) : Illustrationen |
Reihe |
mitp Professional |
Notiz / Fußnoten |
Description based on publisher supplied metadata and other sources. |
Titelhinweis |
Erscheint auch als (Druck-Ausgabe): ‡Trask, Andrew W.: Neuronale Netze und Deep Learning kapieren |
ISBN |
ISBN 978-3-7475-0016-3 |
ISBN 978-3-7475-0017-0 |
Klassifikation |
006.31 |
6.31 |
004 |
ST 301 |
Kurzbeschreibung |
Von den Grundlagen Neuronaler Netze über Machine Learning bis hin zu Deep-Learning-Algorithmen Anschauliche Diagramme, Anwendungsbeispiele in Python und der Einsatz von NumPy Keine Vorkenntnisse in Machine Learning oder höherer Mathematik erforderlich Deep Learning muss nicht kompliziert sein. Mit diesem Buch lernst du anhand vieler Beispiele alle Grundlagen, die du brauchst, um Deep-Learning-Algorithmen zu verstehen und anzuwenden. Dafür brauchst du nichts weiter als Schulmathematik und Kenntnisse der Programmiersprache Python. Alle Codebeispiele werden ausführlich erläutert und mathematische Hintergründe anhand von Analogien veranschaulicht. Der Autor erklärt leicht verständlich, wie Neuronale Netze lernen und wie sie mit Machine-Learning-Verfahren trainiert werden können. Du erfährst, wie du dein erstes Neuronales Netz erstellst und wie es mit Deep-Learning-Algorithmen Bilder erkennen sowie natürliche Sprache verarbeiten und modellieren kann. Hierbei kommen Netze mit mehreren Schichten wie CNNs und RNNs zum Einsatz. Fokus des Buches ist es, Neuronale Netze zu trainieren, ohne auf vorgefertigte Python-Frameworks zurückzugreifen. So verstehst du Deep Learning von Grund auf und kannst in Zukunft auch komplexe Frameworks erfolgreich für deine Projekte einsetzen. Aus dem Inhalt: Parametrische und nichtparametrische Modelle Überwachtes und unüberwachtes Lernen Vorhersagen mit mehreren Ein- und Ausgaben Fehler messen und verringern Hot und Cold Learning Batch- und stochastischer Gradientenabstieg Überanpassung vermeiden Generalisierung Dropout-Verfahren Backpropagation und Forward Propagation Bilderkennung Verarbeitung natürlicher Sprache (NLP) Sprachmodellierung Aktivierungsfunktionen Sigmoid-Funktion Tangens hyperbolicus Softmax Convolutional Neural Networks (CNNs) Recurrent Neural Networks (RNNs) Long Short-Term Memory (LSTM) Deep-Learning-Framework erstellen Biographische Informationen Andrew W. Trask ist Doktorand an der Oxford University und als Research Scientist für DeepMind tätig. Zuvor war er Researcher und Analytics Product Manager bei Digital Reasoning, wo er u.a. das größte künstliche Neuronale Netz der Welt trainierte. |
2. Kurzbeschreibung |
Cover -- Titel -- Impressum -- Inhaltsverzeichnis -- Vorwort -- Einleitung -- Über den Autor -- Danksagung -- Kapitel 1: Deep Learning: Weshalb man sich damit befassen sollte -- 1.1 Willkommen bei »Deep Learning kapieren« -- 1.2 Weshalb du dich mit Deep Learning befassen solltest -- 1.3 Ist es schwierig, Deep Learning zu verstehen? -- 1.4 Warum du dieses Buch lesen solltest -- 1.5 Was du brauchst, um loszulegen -- 1.6 Python-Kenntnisse sind nützlich -- 1.7 Zusammenfassung -- Kapitel 2: Grundlegende Konzepte: Wie lernen Maschinen? -- 2.1 Was ist Deep Learning? -- 2.2 Was ist Machine Learning? -- 2.3 Überwachtes Machine Learning -- 2.4 Unüberwachtes Machine Learning -- 2.5 Parametrisches und nichtparametrisches Lernen -- 2.6 Überwachtes parametrisches Lernen -- 2.7 Unüberwachtes parametrisches Lernen -- 2.8 Nichtparametrisches Lernen -- 2.9 Zusammenfassung -- Kapitel 3: Vorhersage mit neuronalen Netzen: Forward Propagation -- 3.1 Vorhersage -- 3.2 Ein einfaches neuronales Netz trifft eine Vorhersage -- 3.3 Was ist ein neuronales Netz? -- 3.4 Wie funktioniert das neuronale Netz? -- 3.5 Eine Vorhersage mit mehreren Eingaben treffen -- 3.6 Mehrere Eingaben: Wie verhält sich das neuronale Netz? -- 3.7 Mehrere Eingaben: vollständiger ausführbarer Code -- 3.8 Eine Vorhersage mit mehreren Ausgaben treffen -- 3.9 Vorhersagen mit mehreren Eingaben und mehreren Ausgaben treffen -- 3.10 Mehrere Ein- und Ausgaben: Wie funktioniert das? -- 3.11 Vorhersagen über Vorhersagen -- 3.12 Kurzeinführung in NumPy -- 3.13 Zusammenfassung -- Kapitel 4: Lernen in neuronalen Netzen: Gradientenabstieg -- 4.1 Vorhersagen, Vergleichen und Erlernen -- 4.2 Vergleichen -- 4.3 Erlernen -- 4.4 Vergleichen: Trifft das Netz gute Vorhersagen? -- 4.5 Warum Fehler messen? -- 4.6 Was ist die einfachste Form des Lernens in neuronalen Netzen? -- 4.7 Hot und Cold Learning. |
1. Schlagwortkette |
Deep learning |
1. Schlagwortkette ANZEIGE DER KETTE |
Deep learning |
2. Schlagwortkette |
Neuronales Netz |
Python <Programmiersprache> |
ANZEIGE DER KETTE |
Neuronales Netz -- Python |
SWB-Titel-Idn |
1686229550 |
Signatur |
E-Book ProQuest |
Bemerkungen |
Elektronischer Volltext - Campuslizenz |
Elektronische Adresse |
$uhttps://ebookcentral.proquest.com/lib/fhzwickau/detail.action?docID=5987795&query=9783747500163 |
Internetseite / Link |
Volltext |