Alles überall auf einmal (eBook)
400 Seiten
Rowohlt Verlag GmbH
978-3-644-02104-4 (ISBN)
Miriam Meckel ist Professorin für Kommunikationsmanagement an der Universität St. Gallen, als Gastprofessorin lehrte sie an der Universität Harvard, in Singapur, New York und in Wien. Sie war Chefredakteurin und Herausgeberin der «Wirtschaftswoche», zudem Staatssekretärin für Medien und Internationales in Nordrhein-Westfalen. Ihr Buch «Brief an mein Leben» (Rowohlt 2010) wurde zum Bestseller. Seit 2018 ist Meckel Co-Gründerin und CEO von ada Learning, einem Weiterbildungsprogramm für Zukunftskompetenzen.
- Spiegel Bestseller: Wirtschaftsbücher (November/2024) — Platz 12
- Spiegel Bestseller: Wirtschaftsbücher (Oktober/2024) — Platz 7
- Spiegel Bestseller: Wirtschaftsbücher (September/2024) — Platz 9
- Spiegel Bestseller: Wirtschaftsbücher (August/2024) — Platz 6
- Spiegel Bestseller: Wirtschaftsbücher (Juli/2024) — Platz 6
- Spiegel Bestseller: Wirtschaftsbücher (Juni/2024) — Platz 4
- Spiegel Bestseller: Wirtschaftsbücher (Mai/2024) — Platz 1
- Spiegel Bestseller: Wirtschaftsbücher (April/2024) — Platz 2
- Spiegel Bestseller: Wirtschaftsbücher (März/2024) — Platz 5
- Spiegel Bestseller: Sachbuch / Hardcover (Nr. 10/2024) — Platz 13
- Spiegel Bestseller: Sachbuch / Hardcover (Nr. 09/2024) — Platz 13
Miriam Meckel ist Professorin für Kommunikationsmanagement an der Universität St. Gallen, als Gastprofessorin lehrte sie an der Universität Harvard, in Singapur, New York und in Wien. Sie war Chefredakteurin und Herausgeberin der «Wirtschaftswoche», zudem Staatssekretärin für Medien und Internationales in Nordrhein-Westfalen. Ihr Buch «Brief an mein Leben» (Rowohlt 2010) wurde zum Bestseller. Seit 2018 ist Meckel Co-Gründerin und CEO von ada Learning, einem Weiterbildungsprogramm für Zukunftskompetenzen. Léa Steinacker ist Sozialwissenschaftlerin und Unternehmerin, studierte in Princeton und Harvard und promovierte an der Universität St. Gallen über die sozialen Auswirkungen von künstlicher Intelligenz. Als Journalistin schrieb sie u.a. für die «Wirtschaftswoche». Das «Medium Magazin» zeichnete sie als eine der «Top 30 bis 30»-Journalist:innen des Jahres 2018 aus, das US-Magazin «Forbes» nahm sie in die Liste der «Top 30 Under 30»-Führungskräfte der Medienwelt Europas auf. Zusammen mit Miriam Meckel gründete sie 2018 ada Learning.
Symbolik versus Vernetzung
Während die Briten einen ihrer genialsten Mathematiker aufgrund von institutionalisierter Homophobie verloren, herrschte in den USA Aufbruchsstimmung im neu entstehenden Feld der Computerwissenschaften. Eine Maschine, die uns Menschen nachahmt, schien in greifbare Nähe gerückt zu sein. Doch sehr schnell wurde deutlich: Es führt nicht nur ein Weg nach Rom. Insbesondere eine Weggabelung wurde auf der Entwicklungsreise zur perfekten Maschine sichtbar. Die einen wollten erkunden, wie unser Gehirn funktioniert, um das Geheimnis unserer kognitiven Fähigkeiten zu entschlüsseln. Die anderen entschieden sich für den Weg des «Was»: Was tut ein Gehirn genau, und wie lässt sich das in der Maschine nachbauen? An beide Fragen anschließend: Basiert Intelligenz auf klaren Regeln oder auf der Verbindung von unzähligen Informationspunkten?
In den Computerwissenschaften der Fünfzigerjahre haben sich entsprechend zwei Herangehensweisen herausgebildet. Die eine Schule konzentrierte sich auf die Symbolische KI. Diese beruht auf explizit programmierten Regeln und einer systemischen Logik mit dem Ziel, Wissen zu repräsentieren und daraus Schlussfolgerungen zu ziehen. Ganz ähnlich wie schon in den Überlegungen von Aristoteles, Leibniz und Boole werden dabei symbolische Stellvertreter eingesetzt, um Konzepte und deren Beziehungen untereinander darzustellen. Die Grundannahme klingt einfach: Sobald wir ein reales Problem durch die Programmierung von Symbolen und ihren Beziehungen darstellen können, sollte die Maschine in der Lage sein, das Problem zu analysieren und die beste Lösung zu finden.
Die zweite Schule konzentrierte sich auf die schon erwähnten neuronalen Netze. Inspiriert durch die biologische Vernetzung des menschlichen Gehirns, sollen diese Netze Lernprozesse simulieren, indem sie Verbindungen zwischen künstlichen Neuronen nutzen. Dabei entwickeln sie sich fort (und man könnte auch sagen, sie lernen), indem sie ihre internen Parameter während eines Trainings immer wieder anpassen, um Vorhersagen oder Entscheidungen zu treffen, ohne explizit programmierte Instruktionen für die jeweilige Aufgabe zu benötigen.
Die Methode der neuronalen Netzwerke stützt sich auf datengetriebenes, oft weniger interpretierbares Lernen, um Muster und Zusammenhänge direkt in den Daten zu finden, während Symbolische KI den Fokus auf klare, verständliche Regeln und Logik legt. Dabei schien es zunächst, als sei die Symbolische Logik der vielversprechendere Ansatz. Im Jahr 1956 gelang es den Forschern Allen Newell, Herbert Simon und Cliff Shaw, auf der Grundlage von Booles Logikgesetzen ein Programm zu entwickeln, das mehrere komplizierte mathematische Theoreme beweisen konnte. Die Lösung bestand darin, das komplexe Problem über eine Baumstruktur in zahlreiche einfache Schritte zu zerlegen.
Newell, Simon und Shaw bezeichneten das Programm als «Logik-Theoretiker» («Logic Theorist»), und es schien so vielversprechend, dass die drei es weiterentwickelten. Aus dem «Logik-Theoretiker» wurde der «Allgemeine Problemlöser» («General Problem Solver»). Das Programm war nun in der Lage, theoretische Aufgaben zu lösen, indem es einen aktuellen Zustand mit einem gewünschten Zielzustand verglich und ihn so lange optimierte, bis die Ausführung gefunden war, die den Unterschied zwischen beiden Zuständen am weitesten verringerte. Das ist eine Methode der Fehlerreduktion, und man kann sie sich, sehr vereinfacht, wie das Trainieren des perfekten Aufschlags beim Tennis vorstellen. Bei den ersten Versuchen wird man von einem professionellen Aufschlag noch weit entfernt sein. Je öfter man jedoch die notwendigen Bewegungen in verschiedenen Positionen wiederholt, desto mehr werden sich (hoffentlich) das aktuelle und das gewünschte Ergebnis annähern. Der «Allgemeine Problemlöser» war ein klarer Beweis dafür, dass ein System Informationen verarbeiten kann, um eine Aufgabe zu lösen – eine Leistung, die bisher nur dem Menschen zugetraut wurde.
Kurz nach diesen frühen Erfolgen veranstaltete eine Gruppe von Forschern im Sommer 1956 eine inzwischen legendäre Konferenz, die Wissenschaftler aus verschiedenen Disziplinen zusammenbrachte. In diesem Fall waren es tatsächlich nur Männer – Frauen, also Wissenschaftlerinnen und Mathematikerinnen, wurden schlicht nicht eingeladen. Mit dem «Dartmouth Sommer-Forschungsprojekt» etablierten die Initiatoren um John McCarthy, Marvin Minsky, Nathaniel Rochester und Claude Shannon einen Oberbegriff für vielfältige Methoden der Informatik, die Forschungsbestrebungen der Linguistik, Psychologie, Philosophie und Neurowissenschaften verbanden: den der Künstlichen Intelligenz. Im Forschungsantrag für die Konferenz skizzierte die Gruppe ihre zugrunde liegende Hypothese: «Jeder Aspekt des Lernens oder jeder andere Aspekt der Intelligenz kann im Prinzip so präzise beschrieben werden, dass eine Maschine ihn simulieren kann.»[21] Das zeugt von einigem Selbstbewusstsein, war doch der Begriff der menschlichen Intelligenz, wie wir in Kapitel 10 sehen werden, damals ebenso vage definiert, wie er es noch heute ist. Während neuronale Netze im Forschungsplan immerhin erwähnt wurden, waren John McCarthy und seine Kollegen besonders begeistert von der Symbolischen KI. Ihr Ziel war, «herauszufinden, wie man Maschinen dazu bringt, Sprache zu verwenden, Abstraktionen und Konzepte zu bilden, verschiedene Arten von Problemen zu lösen, deren Lösung bisher Menschen vorbehalten war, und sich selbst zu verbessern».[22]
Die Zusammenkunft in New Hampshire war eine Art Klassentreffen der frühen Schlüsselfiguren in der KI-Forschung. In diesen acht Wochen setzte sich der zentrale Begriff fest, der schließlich zum Programm werden sollte. Die eigentliche Konferenz und ihre sonstigen Erträge aber verwehten wie ein laues Sommerlüftchen.
Ein echter Durchbruch kam derweil von einem Forscher, der nicht in Dartmouth dabei war. Frank Rosenblatt, Psychologe am Cornell Aeronautical Laboratory, war kein Anhänger der Symbolischen KI. Stattdessen interessierte er sich für die physikalische Struktur und die chemischen Prozesse des menschlichen Gehirns. Unser wichtigstes Organ ist ein enormes Netzwerk aus Nervenzellen. Etwa 86 Milliarden Neuronen feuern elektrische Signale über Synapsen als Verbindungsstellen, um Informationen zu verarbeiten. Schon im späten 19. Jahrhundert entstand die Theorie, dass diese Vernetzung sozusagen die natürliche Rechenkraft des Menschen ausmache. Fasziniert vom Potenzial unseres Gehirns, konstruierte Frank Rosenblatt eine Maschine, die über Jahrzehnte die Gemüter der KI-Forschung in Wallung versetzen sollte.
Rosenblatt entwickelte das erste neuronale Netz, und das brisanterweise genau zu dem Zeitpunkt, als viele der Befürworter von Symbolischer KI in Dartmouth tagten. Er nannte es das «Perzeptron» (nach engl. perception, Wahrnehmung). Sein Programm war mit einer Kamera verbunden und darauf trainiert, Muster zu erkennen, genauer gesagt, zwischen grundlegenden Formen in einem 20×20-Eingabegitter zu unterscheiden. Die Hauptaufgabe bestand darin, den Unterschied zwischen einfachen geometrischen Formen, wie Dreiecken und Quadraten, in Form eines visuellen Bildes zu erkennen.
Der Trainingsprozess, der dafür notwendig ist, hat einen sehr technischen Namen: stochastisches Gradientenverfahren. Dahinter verbirgt sich ein weitaus weniger kompliziertes Prinzip, das seitdem in vielen KI-Anwendungen zu finden ist. Zufällig ausgewählte («stochastische») Trainingsdaten werden in das Model eingegeben. Wenn die Maschine die Daten zuordnen kann, also etwa das gegebene Muster richtig erkennt, lernt sie dadurch weiter. Wenn es jedoch einen Fehler gibt, müssen die Parameter in der Software in eine bestimmte Richtung («Gradient») verändert werden, um die künftige Fehlerwahrscheinlichkeit zu reduzieren. Dieser Vorgang wird mit unterschiedlichen Daten unzählige Male wiederholt.[23]
Rosenblatt habe «den Embryo eines elektronischen Computers» enthüllt, schwärmte am 8. Juli 1958 ein Journalist der «New York Times», nachdem er eine Demonstration des Perzeptrons miterlebt hatte. Von dieser Maschine dürfe man erwarten, dass sie «laufen, sprechen, sehen, schreiben, sich selbst reproduzieren und sich ihrer Existenz bewusst sein kann».[24] Das war ein bisschen voreilig, und doch waren die Prinzipien des maschinellen Lernens in Rosenblatts Maschine angelegt. Rosenblatt selbst behauptete damals, eine zukünftige Weiterentwicklung seiner Erfindung, die «Perzeptron-Denkmaschine», werde das erste Gerät sein, «das wie das menschliche Gehirn denkt».[25]
Einstweilen war es an Rosenblatt selbst weiterzudenken, denn das frühe Perzeptron hatte seine Grenzen. Auch ein Mensch wird nicht weit kommen, wenn er nur Dreiecke von Vierecken unterscheiden kann. Rosenblatts System arbeitete mit einem Netzwerk, das nur über eine Ebene an Neuronen verfügte. Das wiederum bedeutete: Informationen konnten nur eine einzige Stufe der Verarbeitung durchlaufen, bevor ein Ergebnis produziert wurde. Stellen wir uns einen Menschen vor, der Post sortieren soll, dabei aber immer nur die Adressierung jedes einzelnen Briefes liest. Er kann auf dieser Grundlage entscheiden, wohin die Briefe gehören. Letztlich aber wird jeder Brief zur eigenen Kategorie, weil die Vergleichsebene fehlt. Für komplexere Aufgaben benötigt man ein mehrschichtiges neuronales...
Erscheint lt. Verlag | 13.2.2024 |
---|---|
Zusatzinfo | Mit 17 s/w-Abb. |
Verlagsort | Hamburg |
Sprache | deutsch |
Themenwelt | Sachbuch/Ratgeber ► Geschichte / Politik ► Politik / Gesellschaft |
Sozialwissenschaften ► Politik / Verwaltung | |
Schlagworte | Alghorithmen • Arbeitsmarkt • augmented reality • Big Data • Blockchain • Chatbots • Chat GPT • Cloud Computing • Data Science • Datenbanken • deepfake • Deep learning • Desinformation • Digitales Zeitalter • Digitale Überwachung • Digitalisierung • Ethik • Gefahren der Technik • Informationstechnik • Internet • KI • Künstliche Intelligenz • Mustafa Suleyman • Neue Technologien • Quantencomputing • Roboter • Sozialleben • Technologie • The Coming Wave • Zukunft |
ISBN-10 | 3-644-02104-X / 364402104X |
ISBN-13 | 978-3-644-02104-4 / 9783644021044 |
Haben Sie eine Frage zum Produkt? |
Größe: 11,8 MB
DRM: Digitales Wasserzeichen
Dieses eBook enthält ein digitales Wasserzeichen und ist damit für Sie personalisiert. Bei einer missbräuchlichen Weitergabe des eBooks an Dritte ist eine Rückverfolgung an die Quelle möglich.
Dateiformat: EPUB (Electronic Publication)
EPUB ist ein offener Standard für eBooks und eignet sich besonders zur Darstellung von Belletristik und Sachbüchern. Der Fließtext wird dynamisch an die Display- und Schriftgröße angepasst. Auch für mobile Lesegeräte ist EPUB daher gut geeignet.
Systemvoraussetzungen:
PC/Mac: Mit einem PC oder Mac können Sie dieses eBook lesen. Sie benötigen dafür die kostenlose Software Adobe Digital Editions.
eReader: Dieses eBook kann mit (fast) allen eBook-Readern gelesen werden. Mit dem amazon-Kindle ist es aber nicht kompatibel.
Smartphone/Tablet: Egal ob Apple oder Android, dieses eBook können Sie lesen. Sie benötigen dafür eine kostenlose App.
Geräteliste und zusätzliche Hinweise
Buying eBooks from abroad
For tax law reasons we can sell eBooks just within Germany and Switzerland. Regrettably we cannot fulfill eBook-orders from other countries.
aus dem Bereich