banner-tegeler-buecherstube-hdneu.jpg

banner-buchhandlung-menger-hdneu.jpg

banner-buchhandlung-haberland-hdneu.jpg

banner-buchhandlung-anagramm-hd_1.jpg

0

Neuronale Netze und Deep Learning kapieren

eBook - Der einfache Praxiseinstieg mit Beispielen in Python

Erschienen am 01.01.2019, 1. Auflage 2019
25,99 €
(inkl. MwSt.)

Download

E-Book Download
Bibliografische Daten
ISBN/EAN: 9783747500163
Sprache: Deutsch
Umfang: 360 S., 35.58 MB
E-Book
Format: PDF
DRM: Nicht vorhanden

Beschreibung

Von den Grundlagen Neuronaler Netze über Machine Learning bis hin zu Deep-Learning-AlgorithmenAnschauliche Diagramme, Anwendungsbeispiele in Python und der Einsatz von NumPyKeine Vorkenntnisse in Machine Learning oder höherer Mathematik erforderlich

Deep Learning muss nicht kompliziert sein. Mit diesem Buch lernst du anhand vieler Beispiele alle Grundlagen, die du brauchst, um Deep-Learning-Algorithmen zu verstehen und anzuwenden. Dafür brauchst du nichts weiter als Schulmathematik und Kenntnisse der Programmiersprache Python. Alle Codebeispiele werden ausführlich erläutert und mathematische Hintergründe anhand von Analogien veranschaulicht.

Der Autor erklärt leicht verständlich, wie Neuronale Netze lernen und wie sie mit Machine-Learning-Verfahren trainiert werden können. Du erfährst, wie du dein erstes Neuronales Netz erstellst und wie es mit Deep-Learning-Algorithmen Bilder erkennen sowie natürliche Sprache verarbeiten und modellieren kann. Hierbei kommen Netze mit mehreren Schichten wie CNNs und RNNs zum Einsatz.

Fokus des Buches ist es, Neuronale Netze zu trainieren, ohne auf vorgefertigte Python-Frameworks zurückzugreifen. So verstehst du Deep Learning von Grund auf und kannst in Zukunft auch komplexe Frameworks erfolgreich für deine Projekte einsetzen.

Aus dem Inhalt:Parametrische und nichtparametrische ModelleÜberwachtes und unüberwachtes LernenVorhersagen mit mehreren Ein- und AusgabenFehler messen und verringernHot und Cold LearningBatch- und stochastischer GradientenabstiegÜberanpassung vermeidenGeneralisierungDropout-VerfahrenBackpropagation und Forward PropagationBilderkennungVerarbeitung natürlicher Sprache (NLP)SprachmodellierungAktivierungsfunktionenSigmoid-FunktionTangens hyperbolicusSoftmaxConvolutional Neural Networks (CNNs)Recurrent Neural Networks (RNNs)Long Short-Term Memory (LSTM)Deep-Learning-Framework erstellen

Andrew W. Trask ist Doktorand an der Oxford University und als Research Scientist für DeepMind tätig. Zuvor war er Researcher und Analytics Product Manager bei Digital Reasoning, wo er u.a. das größte künstliche Neuronale Netz der Welt trainierte.

Autorenportrait

Andrew W. Trask ist Doktorand an der Oxford University und als Research Scientist für DeepMind tätig. Zuvor war er Researcher und Analytics Product Manager bei Digital Reasoning, wo er u.a. das größte künstliche Neuronale Netz der Welt trainierte.

Informationen zu E-Books

Individuelle Erläuterung zu E-Books

Weitere Artikel aus der Kategorie "Informatik, EDV/Datenkommunikation, Netzwerke"

Alle Artikel anzeigen