Deep Learning illustriert (eBook)

Eine anschauliche Einführung in Machine Vision, Natural Language Processing und Bilderzeugung für Programmierer und Datenanalysten
eBook Download: EPUB
2020 | 1. Auflage
472 Seiten
dpunkt (Verlag)
978-3-96088-752-2 (ISBN)

Lese- und Medienproben

Deep Learning illustriert -  Jon Krohn,  Grant Beyleveld,  Aglaé Bassens
Systemvoraussetzungen
39,90 inkl. MwSt
  • Download sofort lieferbar
  • Zahlungsarten anzeigen

Deep Learning begreifen und einsetzen

  • Einführung in verwandte Themen wie Künstliche Intelligenz, Machine Learning und Neuronale Netze
  • viele Illustrationen, verständlich erklärt
  • begleitendes online-Material zum Ausprobieren der Erläuterungen aus dem Buch (Jupyter-Notebooks)
  • Vorstellung von Bibliotheken (Tensor Flow/Keras, PyTorch)

Deep Learning verändert unseren Alltag. Dieser Ansatz für maschinelles Lernen erzielt bahnbrechende Ergebnisse in einigen der bekanntesten Anwendungen von heute, in Unternehmen von Google bis Tesla, Facebook bis Apple. Tausende von technischen Fachkräften und Studenten wollen seine Möglichkeiten einsetzen, aber frühere Bücher über Deep Learning waren oft nicht intuitiv, unzugänglich und trocken. John Krohn, Grant Beylefeld und Aglaé Bassens bieten Ihnen eine einzigartige visuelle, intuitive und verständliche Einführung in Techniken und Anwendungen von Deep Learning. Mit den farbenfrohen Illustrationen und eingängigen Erläuterungen von 'Deep Learning illustriert' gelingt Ihnen ein einfacher Zugang zum Aufbau von Deep-Learning-Modellen, und bringt ihnen beim Lernen mehr Spaß.

Der erste Teil des Buches erklärt, was Deep Learning ist, warum es so allgegenwärtig geworden ist und wie es mit Konzepten und Terminologien wie künstlicher Intelligenz, Machine Learning oder künstlichen neuronalen Netzen interagiert. Dabei verwenden die Autoren leicht verständliche Analogien, lebendige Grafiken und viele Beispiele.

Auf dieser Grundlage präsentieren die Autoren eine praktische Referenz und ein Tutorial zur Anwendung eines breiten Spektrums bewährter Techniken des Deep Learning. Die wesentliche Theorie wird mit so wenig Mathematik wie möglich behandelt und mit praktischem Python-Code beleuchtet. Praktische Beispiele zum Ausprobieren, die kostenfrei online verfügbar sind (Jupyter-Notebooks), machen Ihnen die Theorie begreiflich. So erlangen Sie ein pragmatisches Verständnis aller wichtigen Deep-Learning-Ansätze und ihrer Anwendungen: Machine Vision, Natural Language Processing, Bilderzeugung und Spielalgorithmen.

Um Ihnen zu helfen, mehr in kürzerer Zeit zu erreichen, stellen die Autoren mehrere der heute am weitesten verbreiteten und innovativsten Deep-Learning-Bibliotheken vor, darunter:
- TensorFlow und seine High-Level-API, Keras
- PyTorch
- High-Level-Coach, eine TensorFlow-API, die die Komplexität, die typischerweise mit der Entwicklung von Deep Reinforcement Learning-Algorithmen verbunden ist, abstrahiert.



Jon Krohn ist leitender Data-Scientist bei untapt, einem Startup-Unternehmen in New York, das sich auf Machine Learning spezialisert. Er leitet eine florierende Deep Learning Study Group, präsentiert das gefeierte Deep Learning mit TensorFlow LiveLessons in Safari und unterrichtet seinen Deep Learning Kurs an der NYC Data Science Academy. Jon ist Doktor der Neurowissenschaften der Universität Oxford und veröffentlicht seit 2010 in führenden akademischen Zeitschriften über maschinelles Lernen.   Grant Beyleveld ist Doktorand an der Icahn School of Medicine am New Yorker Mount Sinai Hospital und untersucht den Zusammenhang zwischen Viren und ihren Wirten. Als Gründungsmitglied der Deep Learning Study Group hat er einen Master in Molekularmedizin und medizinischer Biochemie von der University of Witwatersrand. Aglaé Bassens ist eine belgische Künstlerin mit Sitz in Brooklyn. Sie studierte Bildende Kunst an der Ruskin School of Drawing and Fine Art, Oxford University, und an der Slade School of Fine Arts des University College London. Neben ihrer Arbeit als Illustratorin umfasst ihre Praxis auch Stilllebenmalerei und Wandmalerei.

Jon Krohn ist leitender Data-Scientist bei untapt, einem Startup-Unternehmen in New York, das sich auf Machine Learning spezialisert. Er leitet eine florierende Deep Learning Study Group, präsentiert das gefeierte Deep Learning mit TensorFlow LiveLessons in Safari und unterrichtet seinen Deep Learning Kurs an der NYC Data Science Academy. Jon ist Doktor der Neurowissenschaften der Universität Oxford und veröffentlicht seit 2010 in führenden akademischen Zeitschriften über maschinelles Lernen.   Grant Beyleveld ist Doktorand an der Icahn School of Medicine am New Yorker Mount Sinai Hospital und untersucht den Zusammenhang zwischen Viren und ihren Wirten. Als Gründungsmitglied der Deep Learning Study Group hat er einen Master in Molekularmedizin und medizinischer Biochemie von der University of Witwatersrand. Aglaé Bassens ist eine belgische Künstlerin mit Sitz in Brooklyn. Sie studierte Bildende Kunst an der Ruskin School of Drawing and Fine Art, Oxford University, und an der Slade School of Fine Arts des University College London. Neben ihrer Arbeit als Illustratorin umfasst ihre Praxis auch Stilllebenmalerei und Wandmalerei.

1Biologisches und maschinelles Sehen


In diesem Kapitel und auch im Laufe dieses Buches dient uns das visuelle System biologischer Organismen als Analogie, um das Deep Learning »zum Leben zu erwecken«. Diese Analogie vermittelt nicht nur ein tiefgreifendes Verständnis für das, was Deep Learning ausmacht, sondern verdeutlicht auch, weshalb Deep-Learning-Ansätze so machtvoll und so überaus vielfältig einsetzbar sind.

1.1Das biologische Sehen

Vor 550 Millionen Jahren, in der prähistorischen Periode des Kambrium, stieg die Anzahl der Arten auf unserem Planeten schlagartig an (Abbildung 1–1). Aus den Fossilienfunden lässt sich ablesen,1 dass diese explosionsartige Zunahme (die auch tatsächlich als Kambrische Explosion bezeichnet wird) durch die Entwicklung von Lichtdetektoren bei Trilobiten gefördert wurde, einem kleinen Meereslebewesen, das mit den heutigen Krebsen verwandt ist (Abbildung 1–2). Ein visuelles System, selbst wenn es nur primitiv ausgebildet ist, bringt eine wunderbare Vielfalt neuer Fähigkeiten mit sich. Man kann beispielsweise bereits aus einiger Entfernung Nahrung, Feinde und freundlich aussehende Gefährten ausmachen. Auch andere Sinne, wie der Geruchssinn, erlauben es Tieren, diese Dinge wahrzunehmen, allerdings nicht mit der Genauigkeit und Schnelligkeit des Sehvermögens. Die Hypothese besagt, dass mit dem Sehvermögen der Trilobiten ein Wettrüsten einsetzte, dessen Ergebnis die Kambrische Explosion war: Die Beutetiere und auch die Feinde der Trilobiten mussten sich weiterentwickeln, um zu überleben.

Abb. 1–1Die Anzahl der Arten auf unserem Planeten begann vor 550 Millionen Jahren, während der Periode des Kambrium, schlagartig anzusteigen. »Gattungen« sind Kategorien miteinander verwandter Arten.

Abb. 1–2Ein Trilobit mit Brille

In den mehr als eine halbe Milliarde Jahren, seit die Trilobiten das Sehen entwickelten, hat die Komplexität dieses Sinnes ungemein zugenommen. So ist bei heutigen Säugetieren ein Großteil der Großhirnrinde – das ist die äußere graue Masse des Gehirns – der visuellen Wahrnehmung vorbehalten.2 Ende der 1950er-Jahre begannen die Physiologen David Hubel und Torsten Wiesel (Abbildung 1–3) an der John Hopkins University mit ihren bahnbrechenden Forschungen darüber, wie visuelle Informationen in der Großhirnrinde von Säugetieren verarbeitet werden,3 für die sie später mit dem Nobelpreis4 ausgezeichnet wurden. Wie in Abbildung 1–4 dargestellt wird, führten Hubel und Wiesel ihre Forschungen durch, indem sie narkotisierten Katzen Bilder zeigten, während sie gleichzeitig die Aktivität einzelner Neuronen aus dem primären visuellen Cortex aufzeichneten, also dem ersten Teil der Großhirnrinde, der visuellen Input von den Augen erhält.

Hubel und Wiesel zeigten den Katzen mithilfe von Dias, die sie auf eine Leinwand projizierten, einfache Formen, wie den Punkt aus Abbildung 1–4. Ihre ersten Ergebnisse waren entmutigend: Ihre Bemühungen lösten keine Reaktion der Neuronen des primären visuellen Cortex aus. Sie waren frustriert, weil diese Zellen, die anatomisch das Eingangstor für die visuellen Informationen in die restliche Großhirnrinde zu sein schienen, nicht auf visuelle Stimuli reagierten. Verzweifelt versuchten Hubel und Wiesel vergeblich, die Neuronen anzuregen, indem sie vor der Katze auf und ab sprangen und mit den Armen fuchtelten. Nichts. Und dann, wie bei vielen der großen Entdeckungen, von Röntgen-Strahlen über das Penicillin bis zum Mikrowellenofen, machten Hubel und Wiesel eine unverhoffte Beobachtung: Als sie eines der Dias aus dem Projektor entfernten, löste dessen gerader Rahmen das unverkennbare Knistern ihres Aufzeichnungsgerätes aus, das damit signalisierte, dass ein Neuron des primären visuellen Cortex feuerte. Voller Freude feierten sie dies auf den Korridoren der Labors ihrer Universität.

Abb. 1–3Die Neurophysiologen und Nobelpreis-Gewinner Torsten Wiesel (links) und David Hubel

Abb. 1–4Hubel und Wiesel nutzten einen Lichtprojektor, um narkotisierten Katzen Dias zu zeigen, während sie die Aktivitäten im primären visuellen Cortex aufzeichneten. Für diese Experimente waren den Katzen elektrische Aufzeichnungsvorrichtungen in den Schädel implantiert worden. Wir schätzen, dass es angenehmer ist, die Aktivierung der Neuronen durch eine Glühlampe zu versinnbildlichen, statt die eigentliche Versuchsanordnung darzustellen. Gezeigt wird in diesem Bild ein Neuron aus dem primären visuellen Cortex, das zum Glück durch die gerade Kante eines Dias aktiviert wurde.

Die glückliche Zufallsentdeckung des feuernden Neurons zeigte keine Anomalie. Durch weitere Experimente entdeckten Hubel und Wiesel, dass die Neuronen, die einen visuellen Input vom Auge empfingen, im Allgemeinen am empfänglichsten für einfache, gerade Kanten waren. Passenderweise nannten sie diese Zellen einfache Neuronen.

Wie Abbildung 1–5 zeigt, stellten Hubel und Wiesel fest, dass ein bestimmtes einfaches Neuron optimal auf eine Kante mit einer jeweils speziellen Ausrichtung reagiert. Eine große Gruppe aus Neuronen, die jeweils darauf spezialisiert sind, eine bestimmte Kantenausrichtung zu entdecken, kann gemeinsam die insgesamt möglichen 360 Grad an Ausrichtung darstellen. Diese einfachen Zellen für die Erkennung der Kantenausrichtung übergeben die Informationen dann weiter an eine große Zahl sogenannter komplexer Neuronen. Ein bestimmtes komplexes Neuron empfängt visuelle Informationen, die bereits durch mehrere einfache Zellen verarbeitet wurden, sodass es in der Lage ist, mehrere Linienausrichtungen zu einer komplexeren Form zu kombinieren, wie etwa zu einer Ecke oder einer Kurve.

Abb. 1–5Eine einfache Zelle im primären visuellen Cortex einer Katze feuert in unterschiedlichen Raten, die von der Ausrichtung einer Linie abhängig sind, die der Katze gezeigt wird. Die Ausrichtung der Linie ist in der linken Spalte zu sehen, während die rechte Spalte das Feuern (die elektrische Aktivität) der Zelle über eine bestimmte Zeitspanne (eine Sekunde) zeigt. Eine senkrechte Linie (in der fünften Zeile von oben) verursacht die stärkste elektrische Aktivität für diese spezielle einfache Zelle. Linien, die nicht ganz senkrecht stehen (in den Zwischenzeilen) verursachen eine geringere Aktivität in der Zelle, während Linien, die nahezu waagerecht sind (in der obersten und untersten Zeile) kaum bis gar keine Aktivität auslösen.

Abb. 1–6Diese Zeichnung zeigt, wie aufeinanderfolgende Ebenen aus biologischen Neuronen visuelle Informationen im Gehirn etwa einer Katze oder eines Menschen darstellen.

Abbildung 1–6 illustriert, wie über viele hierarchisch organisierte Ebenen aus Neuronen, die Informationen an zunehmend übergeordnete Neuronen weiterreichen, schrittweise immer komplexere visuelle Stimuli durch das Gehirn dargestellt werden können. Die Augen sind auf das Bild eines Mäusekopfes gerichtet. Lichtphotonen stimulieren Neuronen in der Retina der einzelnen Augen. Diese visuellen Rohinformationen werden von den Augen in den primären visuellen Cortex des Gehirns übertragen. Die erste Schicht der Neuronen des primären visuellen Cortex, die diesen Input empfangen – Hubel und Wiesels einfache Zellen –, ist darauf spezialisiert, Kanten (gerade Linien) mit bestimmten Ausrichtungen zu erkennen. Es gibt viele Tausend solcher Neuronen; aus Gründen der Einfachheit zeigen wir in Abbildung 1–6 nur vier von ihnen. Diese einfachen Neuronen übermitteln Informationen über das Vorhandensein oder Fehlen von Linien einer bestimmten Ausrichtung an eine nachfolgende Ebene komplexer Zellen, die die Informationen aufnehmen und neu kombinieren, um auf diese Weise die Darstellung komplexerer visueller Stimuli, wie etwa der Wölbung des Mäusekopfes, zu ermöglichen. Während die Informationen mehrere aufeinanderfolgende Schichten durchlaufen, können die Darstellungen visueller Stimuli schrittweise immer komplexer und abstrakter werden. Wie durch die ganz rechte Schicht der Neuronen gezeigt wird, ist das Gehirn nach vielen Schichten dieser hierarchischen Verarbeitung (der gestrichelte Pfeil soll andeuten, dass viele weitere Verarbeitungsschichten vorhanden sind, aber nicht gezeigt werden) schließlich in der Lage, visuelle Konzepte darzustellen, die so komplex sind wie eine Maus, eine Katze, ein Vogel oder ein Hund.

Heute haben Neurowissenschaftler mithilfe zahlloser weiterer Aufzeichnungen aus den kortikalen Neuronen von Gehirnchirurgie-Patienten sowie aus nichtinvasiven Techniken wie der Magnetresonanztomographie (MRT)5 eine ziemlich hoch aufgelöste Karte der Regionen zusammengestellt, die sich auf die Verarbeitung bestimmter visueller Stimuli spezialisiert haben, wie etwa Farbe, Bewegung und Gesichter (siehe Abbildung 1–7).

Abb. 1–7Regionen des visuellen Cortex. Die Region V1 empfängt Input von den Augen und enthält die einfachen Zellen, die die...

Erscheint lt. Verlag 8.9.2020
Übersetzer Kathrin Lichtenberg
Verlagsort Heidelberg
Sprache deutsch
Themenwelt Mathematik / Informatik Informatik Programmiersprachen / -werkzeuge
Schlagworte AI • Artificial Intelligence • Computervision • Keras • KI • Künstliche Intelligenz • Künstliche Neuronale Netze • machine learning • tensorflow
ISBN-10 3-96088-752-3 / 3960887523
ISBN-13 978-3-96088-752-2 / 9783960887522
Haben Sie eine Frage zum Produkt?
Wie bewerten Sie den Artikel?
Bitte geben Sie Ihre Bewertung ein:
Bitte geben Sie Daten ein:
EPUBEPUB (Wasserzeichen)
Größe: 30,5 MB

DRM: Digitales Wasserzeichen
Dieses eBook enthält ein digitales Wasser­zeichen und ist damit für Sie persona­lisiert. Bei einer missbräuch­lichen Weiter­gabe des eBooks an Dritte ist eine Rück­ver­folgung an die Quelle möglich.

Dateiformat: EPUB (Electronic Publication)
EPUB ist ein offener Standard für eBooks und eignet sich besonders zur Darstellung von Belle­tristik und Sach­büchern. Der Fließ­text wird dynamisch an die Display- und Schrift­größe ange­passt. Auch für mobile Lese­geräte ist EPUB daher gut geeignet.

Systemvoraussetzungen:
PC/Mac: Mit einem PC oder Mac können Sie dieses eBook lesen. Sie benötigen dafür die kostenlose Software Adobe Digital Editions.
eReader: Dieses eBook kann mit (fast) allen eBook-Readern gelesen werden. Mit dem amazon-Kindle ist es aber nicht kompatibel.
Smartphone/Tablet: Egal ob Apple oder Android, dieses eBook können Sie lesen. Sie benötigen dafür eine kostenlose App.
Geräteliste und zusätzliche Hinweise

Buying eBooks from abroad
For tax law reasons we can sell eBooks just within Germany and Switzerland. Regrettably we cannot fulfill eBook-orders from other countries.

Mehr entdecken
aus dem Bereich
Entwicklung von GUIs für verschiedene Betriebssysteme

von Achim Lingott

eBook Download (2023)
Carl Hanser Verlag GmbH & Co. KG
39,99
Das Handbuch für Webentwickler

von Philip Ackermann

eBook Download (2023)
Rheinwerk Computing (Verlag)
49,90