Anwendungen mit GPT-4 und ChatGPT entwickeln -  Olivier Caelen,  Marie-Alice Blete

Anwendungen mit GPT-4 und ChatGPT entwickeln (eBook)

Intelligente Chatbots, Content-Generatoren und mehr erstellen
eBook Download: EPUB
2024 | 1. Auflage
158 Seiten
O'Reilly Verlag
978-3-96010-806-1 (ISBN)
Systemvoraussetzungen
32,90 inkl. MwSt
  • Download sofort lieferbar
  • Zahlungsarten anzeigen
Nutzen Sie die Leistungsfähigkeit von Large Language Models für wirklich innovative Anwendungen! - Dieses Buch vermittelt Ihnen Schritt für Schritt das notwendige Wissen, um GPT-4 und ChatGPT in Ihre eigenen Projekte zu integrieren - Es verbindet nahtlos Theorie und Praxis und macht die Komplexität von GPT-4 und ChatGPT für Programmierer:innen verständlich - Die Themen reichen von den grundlegenden Prinzipien der LLMs und der API-Integration bis hin zu Prompt Engineering und Feintuning - Inklusive Codebeispielen auf GitHub und GlossarDiese kompakte Einführung zeigt Python-Entwicklerinnen und -Entwicklern, wie sie Anwendungen mit Large Language Models erstellen. Olivier Caelen und Marie-Alice Blete erklären die wichtigsten Features von GPT-4 und ChatGPT und beschreiben, wie sie für eigene NLP-Aufgaben eingesetzt werden können. In nachvollziehbaren Schritten wird erläutert, wie Sie Applikationen zur Textgenerierung, Inhaltszusammenfassung oder für das Question Answering entwickeln. Anschauliche Beispielprojekte und klare und detaillierte Erklärungen unterstützen Sie dabei, die Konzepte zu verstehen und sie auf Ihre Projekte anzuwenden. Die Codebeispiele sind in einem GitHub-Repository verfügbar, zudem enthält das Buch ein Glossar mit den wichtigsten Begriffen. Sind Sie bereit, das Potenzial von Large Language Models in Ihren Anwendungen zu nutzen? Dann ist dieses Buch ein Muss für Sie. Es behandelt: - Grundlagen und Stärken von GPT-4 und ChatGPT und deren Funktionsweise - Die Integration dieser Modelle in Python-basierte Anwendungen für Aufgaben im Natural Language Processing - Die praktischen Schritte, um mit den APIs von GPT-4 und ChatGPT und den entsprechenden Python-Bibliotheken Anwendungen zu entwickeln - Spezifische Aspekte der Arbeit mit LLMs wie das API-Schlüsselmanagement, Datenschutz, Softwarearchitekturdesign oder die Gefahren durch Prompt Injection - Fortgeschrittene GPT-Themen wie das Prompt Engineering, das Optimieren von Modellen, Plug-ins und der Einsatz des LangChain-Frameworks

Olivier Caelen ist Machine Learning Researcher bei Worldline, einem Paytech-Pionier für nahtlose Zahlungslösungen. Er unterrichtet außerdem einen Einführungskurs für maschinelles Lernen und einen Kurs für fortgeschrittenes Deep Learning an der Université libre de Bruxelles. Er hat zwei Masterabschlüsse in Statistik und Informatik und einen Doktortitel in Machine Learning. Olivier Caelen ist Mitautor von 42 Veröffentlichungen in internationalen, von Experten begutachteten wissenschaftlichen Zeitschriften und Konferenzen und Co-Erfinder von sechs Patenten.Marie-Alice Blete arbeitet derzeit als Softwarearchitektin und Data Engineer in der Abteilung Research und Developement von Worldline. Sie predigt ihren Data-Scientist-Kolleginnen und -Kollegen Best Practices des Data Engineering und interessiert sich besonders für die Performance- und Latenzprobleme, die mit dem Einsatz von KI-Lösungen verbunden sind. Sie ist außerdem ein Developer Advocat und teilt ihr Wissen gerne mit der Community als Tech-Speakerin.

Olivier Caelen ist Machine Learning Researcher bei Worldline, einem Paytech-Pionier für nahtlose Zahlungslösungen. Er unterrichtet außerdem einen Einführungskurs für maschinelles Lernen und einen Kurs für fortgeschrittenes Deep Learning an der Université libre de Bruxelles. Er hat zwei Masterabschlüsse in Statistik und Informatik und einen Doktortitel in Machine Learning. Olivier Caelen ist Mitautor von 42 Veröffentlichungen in internationalen, von Experten begutachteten wissenschaftlichen Zeitschriften und Konferenzen und Co-Erfinder von sechs Patenten.Marie-Alice Blete arbeitet derzeit als Softwarearchitektin und Data Engineer in der Abteilung Research und Developement von Worldline. Sie predigt ihren Data-Scientist-Kolleginnen und -Kollegen Best Practices des Data Engineering und interessiert sich besonders für die Performance- und Latenzprobleme, die mit dem Einsatz von KI-Lösungen verbunden sind. Sie ist außerdem ein Developer Advocat und teilt ihr Wissen gerne mit der Community als Tech-Speakerin.

KAPITEL 2


Die APIs von GPT-4 und ChatGPT


Dieses Kapitel schaut sich die APIs von GPT-4 und ChatGPT im Detail an. Das Ziel ist, Ihnen ein solides Verständnis vom Einsatz dieser APIs zu vermitteln, sodass Sie sie effektiv in Ihre Python-Anwendungen einbinden können. Am Ende des Kapitels werden Sie wissen, wie Sie diese APIs einsetzen und ihre umfassenden Fähigkeiten in Ihren eigenen Entwicklungsprojekten ausreizen können.

Wir beginnen mit einer Einführung in den OpenAI Playground. Diese dient dazu, die Modelle besser verstehen, bevor Sie damit beginnen, Code zu schreiben. Dann werden wir uns die OpenAI-Python-Bibliothek anschauen. Dazu gehören die Anmeldeinformationen und ein einfaches »Hallo Welt«-Beispiel. Als Nächstes kümmern wir uns um das Erstellen und Abschicken von Requests an die APIs und um den Umgang mit den entsprechenden Responses. Damit wissen Sie, wie Sie die von diesen APIs zurückgegebenen Daten zu interpretieren haben. Zudem wird das Kapitel auf Best Practices im Bereich Sicherheit und auf Kostenbetrachtungen eingehen.

Auf dem Weg werden Sie Wissen ansammeln, das bei Ihrer Reise durch die Python-Entwicklung mit GPT-4 und ChatGPT hilfreich ist. Den gesamten Python-Code, der in diesem Kapitel vorkommt, finden Sie im GitHub-Repository zu diesem Buch (https://oreil.ly/DevAppsGPT_GitHub).

Bevor Sie fortfahren, schauen Sie sich bitte die OpenAI Usage Policies (https://openai.com/policies/usage-policies) an, und wenn Sie nicht schon einen Account haben, erstellen Sie einen auf der OpenAI-Homepage (https://openai.com). Sie können sich auch die anderen rechtlichen Dokumente auf der Terms-and-Policies-Seite (https://openai.com/policies) vornehmen. Die in Kapitel 1 vorgestellten Konzepte gelten ebenfalls für den Einsatz der OpenAI-API und der Bibliotheken.

Grundlegende Konzepte


OpenAI bietet verschiedene Modelle an, die für die unterschiedlichen Aufgaben optimiert sind, und jedes hat sein eigenes Preismodell. Auf den folgenden Seiten werden Sie einen detaillierten Vergleich der verfügbaren Modelle und Tipps zur Auswahl des richtigen Modells finden. Es ist wichtig, darauf hinzuweisen, dass der Zweck, für den ein Modell designt wurde – Textvervollständigung, Chat oder Editieren –, Einfluss darauf hat, wie Sie seine API nutzen. Die Modelle hinter ChatGPT und GPT-4 sind beispielsweise chatbasiert und nutzen auch einen Chat-Endpoint.

Das Konzept der Prompts wurde in Kapitel 1 vorgestellt. Prompts sind nicht spezifisch für die OpenAI-API, sondern der Entrypoint für alle LLMs. Einfach gesagt, sind Prompts der Eingabetext, den Sie an das Modell schicken, und sie werden genutzt, um das Modell mit der spezifischen Aufgabe zu versorgen, die es erledigen soll. Bei den ChatGPT- und GPT-4-Modellen haben die Prompts ein Chatformat, wobei die Ein- und Ausgabenachrichten in einer Liste abgelegt sind. Wir werden die Details dieses Prompt-Formats in diesem Kapitel behandeln.

Das Konzept von Tokens wurde ebenfalls in Kapitel 1 beschrieben. Tokens sind Wörter oder Wortteile. Eine Faustregel besagt, dass 100 Tokens ungefähr 75 Wörtern eines englischen Texts entsprechen. Requests an die OpenAI-Modelle werden basierend auf der Anzahl der verwendeten Tokens bepreist – die Kosten eines Aufrufs an die API hängen also von der Länge des Eingabetexts und der des Ausgabetexts ab. Mehr Details zum Managen und Steuern der Anzahl der Ein- und Ausgabe-Tokens finden Sie in den Abschnitten »ChatGPT und GPT-4 einsetzen« auf Seite 48 und »Andere Modelle zur Textvervollständigung verwenden« auf Seite 55.

Diese Konzepte sind in Abbildung 2-1 zusammengefasst.

Abbildung 2-1: Grundlegende Konzepte für den Einsatz der OpenAI-API

Nachdem wir die Konzepte behandelt haben, wollen wir uns den Details der Modelle zuwenden.

In der OpenAI-API verfügbare Modelle


Die OpenAI-API ermöglicht Ihnen den Zugriff auf diverse Modelle, die von OpenAI entwickelt wurden (https://platform.openai.com/docs/models). Diese Modelle stehen über eine API als Service zur Verfügung (durch einen direkten HTTP-Aufruf oder eine bereitgestellte Bibliothek) – OpenAI führt die Modelle also auf Remote-Servern aus, und man kann einfach Queries an sie schicken.

Jedes Modell besitzt eine andere Zusammenstellung an Features und eine andere Bepreisung. In diesem Abschnitt werden wir uns die LLMs anschauen, die OpenAI über seine API anbietet. Sie müssen im Blick behalten, dass diese Modelle proprietär sind, Sie also den Code nicht direkt verändern können, um sie an Ihre Bedürfnisse anzupassen. Aber wie wir später sehen werden, können Sie ein paar von ihnen über die OpenAI-API für Ihre spezifischen Daten optimieren.

Einige ältere Modelle von OpenAI, unter anderem das GPT-2-Modell, sind nicht proprietär. Sie können das GPT-2-Modell zwar von Hugging Face (https://oreil.ly/39Bu5) oder GitHub (https://oreil.ly/CYPN6) herunterladen, es aber nicht über die API ansprechen.

Da viele der von OpenAI angebotenen Modelle kontinuierlich aktualisiert werden, ist es schwierig, hier im Buch eine vollständige Liste anzugeben – eine aktualisierte Liste der von OpenAI angebotenen Modelle finden Sie in der Onlinedokumentation (https://platform.openai.com/docs/models). Daher werden wir uns hier auf die wichtigsten Modelle konzentrieren:

InstructGPT

Diese Modellfamilie kann viele Singleturn-Vervollständigungsaufgaben erledigen. Das Modell text-ada-001 erledigt nur einfache Vervollständigungsaufgaben, ist aber das schnellste und günstigste Modell in der GPT-3-Serie. text-babbage-001 und text-curie-001 sind ein bisschen leistungsfähiger, aber auch teurer. Und das Modell text-davinci-003 kann alle Vervollständigungsaufgaben mit ausgezeichneter Qualität erledigen, ist aber auch das teuerste in der Familie der GPT-3-Modelle.

ChatGPT

Das Modell hinter ChatGPT ist gpt-3.5-turbo. Als Chatmodell kann es eine Folge von Texten als Eingabe übernehmen und eine passend generierte Nachricht als Ausgabe zurückgeben. Das Chatformat von gpt-3.5-turbo ist zwar für Multiturn-Unterhaltungen gedacht, Sie können es aber auch für Singleturn-Aufgaben ohne Dialog nutzen. Bei Singleturn-Aufgaben ist die Performance von gpt-3.5-turbo vergleichbar mit der von text-davinci-003, und da gpt-3.5-turbo nur ein Zehntel des Preises kostet und dabei mehr oder weniger die gleiche Leistung bietet, empfiehlt es sich, dieses auch standardmäßig für Single-turn-Aufgaben zu verwenden. Das Modell gpt-3.5-turbo besitzt eine Kontextgröße von 4.000 Tokens – es kann also 4.000 Tokens als Eingabe übernehmen. OpenAI bietet darüber hinaus ein weiteres Modell namens gpt-3.5-turbo-16k an, das die gleichen Fähigkeiten wie das Standardmodell gpt-3.5-turbo besitzt, aber mit der vierfachen Kontextgröße.

GPT-4

Das ist das größte Modell, das von OpenAI veröffentlicht wurde. Es wurde zudem mit dem umfassendsten multimodalen Korpus aus Text und Bildern trainiert. So besitzt es Wissen und Expertise in vielen Bereichen. GPT-4 kann komplexe Anweisungen in natürlicher Sprache verstehen und schwierige Probleme korrekt lösen. Es kann sowohl für Chat- wie auch für Singleturn-Aufgaben zum Einsatz kommen und ist dabei sehr exakt. OpenAI bietet zwei verschiedene GPT-4-Modelle an: gpt-4 hat eine Kontextgröße von 8.000 Tokens, gpt-4-32k eine von 32.000 Tokens. Ein Kontext von 32.000 Tokens steht für ungefähr 24.000 Wörter – was in etwa 40 Seiten entspricht.

Sowohl GPT-3.5 Turbo als auch GPT-4 werden kontinuierlich aktualisiert. Beziehen wir uns auf die Modelle gpt-3.5-turbo, gpt-3.5-turbo-16k, gpt-4 und gpt-4-32k, meinen wir damit jeweils die aktuellste Version dieser Modelle.

Bei der Entwicklung benötigt man oft mehr Stabilität und bessere Einblicke in die LLM-Version als beim eigentlichen Einsatz in der Anwendung. Es kann schwierig sein, Modellsprachen zu verwenden, bei denen sich die Version über Nacht ändern kann und für den gleichen Eingabe-Prompt andere Ergebnisse liefert. Für solche Zwecke stehen auch statische Snapshot-Versionen dieser Modelle zur Verfügung. Beim Entstehen dieser Zeilen waren das gpt-3.5-turbo-0613, gpt-3.5-turbo-16k-0613, gpt-4-0613 und gpt-4-32k-0613.

Wie schon in Kapitel 1 erwähnt, empfiehlt OpenAI den Einsatz der InstructGPT-Serie statt der ursprünglichen auf GPT-3 basierenden Modelle. Diese Modelle stehen in der API immer noch unter den Namen...

Erscheint lt. Verlag 27.2.2024
Reihe/Serie Animals
Animals
Übersetzer Thomas Demmig
Verlagsort Heidelberg
Sprache deutsch
Themenwelt Mathematik / Informatik Informatik
Schlagworte AI • Apis • attention • KI • LangChain • Large Language Models • LLM • machine learning • Natural Language Processing • NLP • OpenAI • Prompt Engineering • Python • Q&A • question answering • transfer learning • Transformer
ISBN-10 3-96010-806-0 / 3960108060
ISBN-13 978-3-96010-806-1 / 9783960108061
Informationen gemäß Produktsicherheitsverordnung (GPSR)
Haben Sie eine Frage zum Produkt?
EPUBEPUB (Wasserzeichen)
Größe: 2,5 MB

DRM: Digitales Wasserzeichen
Dieses eBook enthält ein digitales Wasser­zeichen und ist damit für Sie persona­lisiert. Bei einer missbräuch­lichen Weiter­gabe des eBooks an Dritte ist eine Rück­ver­folgung an die Quelle möglich.

Dateiformat: EPUB (Electronic Publication)
EPUB ist ein offener Standard für eBooks und eignet sich besonders zur Darstellung von Belle­tristik und Sach­büchern. Der Fließ­text wird dynamisch an die Display- und Schrift­größe ange­passt. Auch für mobile Lese­geräte ist EPUB daher gut geeignet.

Systemvoraussetzungen:
PC/Mac: Mit einem PC oder Mac können Sie dieses eBook lesen. Sie benötigen dafür die kostenlose Software Adobe Digital Editions.
eReader: Dieses eBook kann mit (fast) allen eBook-Readern gelesen werden. Mit dem amazon-Kindle ist es aber nicht kompatibel.
Smartphone/Tablet: Egal ob Apple oder Android, dieses eBook können Sie lesen. Sie benötigen dafür eine kostenlose App.
Geräteliste und zusätzliche Hinweise

Buying eBooks from abroad
For tax law reasons we can sell eBooks just within Germany and Switzerland. Regrettably we cannot fulfill eBook-orders from other countries.

Mehr entdecken
aus dem Bereich
Konzepte, Methoden, Lösungen und Arbeitshilfen für die Praxis

von Ernst Tiemeyer

eBook Download (2023)
Carl Hanser Verlag GmbH & Co. KG
69,99
Konzepte, Methoden, Lösungen und Arbeitshilfen für die Praxis

von Ernst Tiemeyer

eBook Download (2023)
Carl Hanser Verlag GmbH & Co. KG
69,99