Shortcuts
Bitte warten Sie, bis die Seite geladen ist.
 
PageMenu- Hauptmenü-
Page content

Katalogdatenanzeige

Deep Reinforcement Learning: das umfassende Praxis-Handbuch

Deep Reinforcement Learning: das umfassende Praxis-Handbuch
Kataloginformation
Feldname Details
Vorliegende Sprache ger
Hinweise auf parallele Ausgaben 167730183X Erscheint auch als (Druck-Ausgabe): ‡Lapan, Maxim: Deep Reinforcement Learning
ISBN 978-3-7475-0036-1
Name Lapan, Maxim ¬[VerfasserIn]¬
T I T E L Deep Reinforcement Learning
Zusatz zum Titel das umfassende Praxis-Handbuch
Auflage 1. Auflage
Verlagsort Frechen
Verlag mitp
Erscheinungsjahr 2020
2020
Umfang 1 Online-Ressource (770 Seiten)
Notiz / Fußnoten Zusatzangaben auf dem Cover: Moderne Algorithmen für Chatbots, Robotik, diskrete Optimierung und Web-Automatisierung inkl. Multiagenten-Methoden
Description based on publisher supplied metadata and other sources.
Titelhinweis Erscheint auch als (Druck-Ausgabe): ‡Lapan, Maxim: Deep Reinforcement Learning
ISBN ISBN 978-3-7475-0037-8
Klassifikation 006.31
ST 301
ST 300
Kurzbeschreibung Cover -- Titel -- Impressum -- Inhaltsverzeichnis -- Über den Autor -- Über die Korrektoren -- Über den Fachkorrektor der deutschen Ausgabe -- Einleitung -- Teil I: Grundlagen des Reinforcement Learnings -- Kapitel 1: Was ist Reinforcement Learning? -- 1.1 Überwachtes Lernen -- 1.2 Unüberwachtes Lernen -- 1.3 Reinforcement Learning -- 1.4 Herausforderungen beim Reinforcement Learning -- 1.5 RL-Formalismen -- 1.5.1 Belohnung -- 1.5.2 Der Agent -- 1.5.3 Die Umgebung -- 1.5.4 Aktionen -- 1.5.5 Beobachtungen -- 1.6 Die theoretischen Grundlagen des Reinforcement Learnings -- 1.6.1 Markov-Entscheidungsprozesse -- 1.6.2 Markov-Prozess -- 1.6.3 Markov-Belohnungsprozess -- 1.6.4 Aktionen hinzufügen -- 1.6.5 Policy -- 1.7 Zusammenfassung -- Kapitel 2: OpenAI Gym -- 2.1 Aufbau des Agenten -- 2.2 Anforderungen an Hard- und Software -- 2.3 OpenAI-Gym-API -- 2.3.1 Aktionsraum -- 2.3.2 Beobachtungsraum -- 2.3.3 Die Umgebung -- 2.3.4 Erzeugen der Umgebung -- 2.3.5 Die CartPole-Sitzung -- 2.4 Ein CartPole-Agent nach dem Zufallsprinzip -- 2.5 Zusätzliche Gym-Funktionalität: Wrapper und Monitor -- 2.5.1 Wrapper -- 2.5.2 Monitor -- 2.6 Zusammenfassung -- Kapitel 3: Deep Learning mit PyTorch -- 3.1 Tensoren -- 3.1.1 Tensoren erzeugen -- 3.1.2 Skalare Tensoren -- 3.1.3 Tensor-Operationen -- 3.1.4 GPU-Tensoren -- 3.2 Gradienten -- 3.2.1 Tensoren und Gradienten -- 3.3 NN-Bausteine -- 3.4 Benutzerdefinierte Schichten -- 3.5 Verlustfunktionen und Optimierer -- 3.5.1 Verlustfunktionen -- 3.5.2 Optimierer -- 3.6 Monitoring mit TensorBoard -- 3.6.1 Einführung in TensorBoard -- 3.6.2 Plotten -- 3.7 Beispiel: GAN für Bilder von Atari-Spielen -- 3.8 PyTorch Ignite -- 3.8.1 Konzepte -- 3.9 Zusammenfassung -- Kapitel 4: Das Kreuzentropie-Verfahren -- 4.1 Klassifikation von RL-Verfahren -- 4.2 Kreuzentropie in der Praxis -- 4.3 Kreuzentropie beim CartPole.
1. Schlagwortkette Deep learning
Bestärkendes Lernen <Künstliche Intelligenz>
ANZEIGE DER KETTE Deep learning -- Bestärkendes Lernen
2. Schlagwortkette Deep learning
ANZEIGE DER KETTE Deep learning
SWB-Titel-Idn 1800122381
Signatur E-Book ProQuest
Bemerkungen Elektronischer Volltext - Campuslizenz
Elektronische Adresse $uhttps://ebookcentral.proquest.com/lib/fhzwickau/detail.action?docID=6947779
Internetseite / Link Aggregator
Kataloginformation500367911 Datensatzanfang . Kataloginformation500367911 Seitenanfang .
Vollanzeige Katalogdaten 

Auf diesem Bildschirm erhalten Sie Katalog- und Exemplarinformationen zum ausgewählten Titel.

Im Bereich Kataloginformation werden die bibliographischen Details angezeigt. Per Klick auf Hyperlink-Begriffe wie Schlagwörter, Autoren, Reihen, Körperschaften und Klassifikationen können Sie sich weitere Titel des gewählten Begriffes anzeigen lassen.

Der Bereich Exemplarinformationen enthält zum einen Angaben über den Standort und die Verfügbarkeit der Exemplare. Zum anderen haben Sie die Möglichkeit, ausgeliehene Exemplare vorzumerken oder Exemplare aus dem Magazin zu bestellen.
Schnellsuche