Vorliegende Sprache |
ger |
Hinweise auf parallele Ausgaben |
49992505X Erscheint auch als (Druck-Ausgabe): ‡Goodfellow, Ian, 1987 - : Deep Learning |
ISBN |
978-3-95845-700-3 |
3-95845-701-0 |
978-3-95845-701-0 |
Name |
Goodfellow, Ian ¬[VerfasserIn]¬ |
Bengio, Yoshua ¬[VerfasserIn]¬ |
ANZEIGE DER KETTE |
Bengio, Yoshua ¬[VerfasserIn]¬ |
Name |
Courville, Aaron ¬[VerfasserIn]¬ |
T I T E L |
Deep Learning |
Zusatz zum Titel |
das umfassende Handbuch : Grundlagen, aktuelle Verfahren und Algorithmen, neue Forschungsansätze |
Auflage |
1. Auflage |
Verlagsort |
Frechen |
Verlag |
Verlags GmbH & Co. KG |
Erscheinungsjahr |
2018 |
2018 |
Umfang |
1 Online-Ressource (XXII, 883 Seiten) |
Reihe |
mitp Business |
Notiz / Fußnoten |
Includes bibliographical references and index |
Original English language edition published by The MIT Press |
Titelhinweis |
Erscheint auch als (Druck-Ausgabe): ‡Goodfellow, Ian, 1987 - : Deep Learning |
ISBN |
ISBN 978-3-95845-701-0 |
Klassifikation |
COM 000000 |
006.3/1 |
006.31 |
Q325.5 |
ST 300 |
ST 302 |
Kurzbeschreibung |
Intro -- Impressum -- Website zum Buch -- Danksagung -- Über die Fachkorrektoren zur deutschen Ausgabe -- Notation -- Einleitung -- Für wen ist dieses Buch gedacht? -- Historische Entwicklungen im Deep Learning -- I Angewandte Mathematik und Grundlagen für das Machine Learning -- Lineare Algebra -- Skalare, Vektoren, Matrizen und Tensoren -- Multiplizieren von Matrizen und Vektoren -- Einheits- und Umkehrmatrizen -- Lineare Abhängigkeit und lineare Hülle -- Normen -- Spezielle Matrizen und Vektoren -- Eigenwertzerlegung -- Singulärwertzerlegung -- Die Moore-Penrose-Pseudoinverse -- Der Spuroperator -- Die Determinante -- Beispiel: Hauptkomponentenanalyse -- Wahrscheinlichkeits- und Informationstheorie -- Warum Wahrscheinlichkeit? -- Zufallsvariablen -- Wahrscheinlichkeitsverteilungen -- Randwahrscheinlichkeit -- Bedingte Wahrscheinlichkeit -- Die Produktregel der bedingten Wahrscheinlichkeiten -- Unabhängigkeit und bedingte Unabhängigkeit -- Erwartungswert, Varianz und Kovarianz -- Häufig genutzte Wahrscheinlichkeitsverteilungen -- Nützliche Eigenschaften häufig verwendeter Funktionen -- Satz von Bayes -- Technische Einzelheiten stetiger Variablen -- Informationstheorie -- Strukturierte probabilistische Modelle -- Numerische Berechnung -- Überlauf und Unterlauf -- Schlechte Konditionierung -- Optimierung auf Gradientenbasis -- Optimierung unter Nebenbedingungen -- Beispiel: Lineare kleinste Quadrate -- Grundlagen für das Machine Learning -- Lernalgorithmen -- Kapazität, Überanpassung und Unteranpassung -- Hyperparameter und Validierungsdaten -- Schätzer, Verzerrung und Varianz -- Maximum-Likelihood-Schätzung -- Bayessche Statistik -- Algorithmen für überwachtes Lernen -- Algorithmen für unüberwachtes Lernen -- Stochastisches Gradientenabstiegsverfahren -- Entwickeln eines Machine-Learning-Algorithmus -- Probleme, an denen Deep Learning wächst. |
1. Schlagwortkette |
Deep learning |
Maschinelles Lernen |
Deep learning |
ANZEIGE DER KETTE |
Deep learning -- Maschinelles Lernen -- Deep learning |
SWB-Titel-Idn |
513833528 |
Signatur |
E-Book ProQuest |
Bemerkungen |
Elektronischer Volltext - Campuslizenz |
Elektronische Adresse |
$uhttps://ebookcentral.proquest.com/lib/fhzwickau/detail.action?docID=5598176 |
Internetseite / Link |
Volltext |
Siehe auch |
Aggregator |