Als sich im letzten Jahr der Hype um generative KI zu entwickeln begann, gab es in der Technologiebranche eine Flut von Stellenangeboten, in denen schnelle Ingenieure gesucht wurden, die effektive Abfragen für große Sprachmodelle wie chatgpt erstellen konnten. Da LLMs jedoch immer ausgefeilter und vertrauter werden, entwickelt sich Prompt Engineering mehr zu einer weit verbreiteten Fähigkeit als zu einer eigenständigen Tätigkeit.
Unter Prompt Engineering versteht man die Erstellung von Eingaben für generative KI-Modelle, die darauf ausgelegt sind, möglichst nützliche und genaue Ergebnisse zu erzielen. Zu lernen, wie man Fragen formuliert, die die KI zu den relevantesten, präzisesten und umsetzbarsten Antworten führen, kann jedem Benutzer helfen, das Beste aus der generativen KI herauszuholen – auch ohne technischen Hintergrund.
4 grundlegende Prompt-Engineering-Tipps für ChatGPT und andere LLMs
Wenn Sie gerade erst anfangen, generative KI-Tools wie ChatGPT zu erkunden, können Sie durch die Befolgung einiger Best Practices die Qualität der Antworten, die Sie von LLM-Chatbots erhalten, schnell verbessern.
1. Fügen Sie Details und Kontext hinzu
Allgemeine, unspezifische Aufforderungen können zu ähnlich weit gefassten, vagen Antworten führen. Um die besten Antworten aus LLM-Studiengängen zu erhalten, ist es wichtig, den Umfang Ihrer Frage zu klären und den relevanten Kontext bereitzustellen. Im Geschäftskontext kann die Einbeziehung von Informationen wie der Branche und dem Zielmarkt Ihres Unternehmens dazu beitragen, dass die KI bessere Schlussfolgerungen zieht und spezifischere und nützlichere Antworten generiert.
Vergleichen Sie beispielsweise eine allgemeine Frage wie „Welche Online-Marketing-Tipps gibt es?“ mit der detaillierteren Aufforderung „Helfen Sie mir, eine digitale Marketingstrategie für mein kleines E-Commerce-Unternehmen zu entwickeln, das Wohnaccessoires verkauft.“ Letzteres umfasst mehrere wichtige Kontextelemente, die dazu beitragen, den Umfang des Problems einzugrenzen und die Wahrscheinlichkeit zu verringern, irrelevante Ergebnisse zu erhalten, wie z. B. Trinkgelder im Unternehmensmaßstab, die die Ressourcen eines Kleinunternehmens übersteigen.
2. Seien Sie klar und prägnant
Obwohl LLMs auf umfangreichen Mengen an Textdaten trainiert werden, können sie dies nicht wirklich verstehen Sprache. ChatGPT verwendet kein logisches Denken; Stattdessen formuliert das Modell seine Antworten, indem es die wahrscheinlichste Folge von Wörtern oder Zeichen basierend auf der Eingabeaufforderung vorhersagt.
Die Verwendung einer klaren und unkomplizierten Sprache in Eingabeaufforderungen trägt dazu bei, diese Einschränkung abzumildern. Mit einer prägnanteren und gezielteren Aufforderung ist es weniger wahrscheinlich, dass das Modell durch unwichtige Details oder mehrdeutige Formulierungen abgelenkt wird.
Auch wenn der folgende Satz beispielsweise nicht der prägnanteste ist, würde ihn ein Mensch wahrscheinlich dennoch leicht verstehen: „Ich suche nach Hilfe beim Brainstorming von Wegen, die für uns effektiv sein könnten, um ein CRM-System in den betrieblichen Rahmen unseres Unternehmens zu integrieren.“ .“ Ein LLM würde jedoch wahrscheinlich besser auf eine einfachere Formulierung reagieren: „Was sind die Schritte zur Implementierung eines Customer-Relationship-Management-Systems in einem mittelständischen B2B-Unternehmen?“
3. Stellen Sie logisch geordnete Folgefragen
Das Kontextfenster eines LLM ist die Textmenge, die das Modell zu einem bestimmten Zeitpunkt in der Konversation berücksichtigen kann. Bei Chatbots wie ChatGPT wird das Kontextfenster während eines Chats aktualisiert, wobei Details aus neueren Nachrichten einbezogen werden, während wichtige Elemente früherer Nachrichten beibehalten werden. Dies bedeutet, dass ein fortlaufender Dialog mit ChatGPT auf frühere Teile des Chats zurückgreifen kann, um zukünftige Antworten und Eingabeaufforderungen zu informieren.
Sie können das große Kontextfenster von ChatGPT nutzen, indem Sie komplizierte Abfragen in eine Reihe kleinerer Fragen aufteilen. Diese Technik wird als Prompt Chaining bezeichnet. Anstatt zu versuchen, jedes relevante Detail in eine umfangreiche erste Eingabeaufforderung zu packen, beginnen Sie mit einer umfassenderen Eingabeaufforderung als Grundlage und führen Sie dann engere, gezieltere Abfragen durch. Dies macht sich die Tendenz von LLMs zunutze, bei der Formulierung ihrer Antworten neuere Informationen innerhalb des Kontextfensters zu priorisieren.
Sie könnten beispielsweise damit beginnen, eine direkte Frage zu stellen, etwa „Wie wird KI in der Cybersicherheit eingesetzt?“ – ein Ansatz, der wahrscheinlich zu einer einfachen Liste oder Beschreibung führt. Um tiefer zu graben, könnten Sie dann eine offenere Frage versuchen, wie zum Beispiel „Können Sie die Debatte um den Einsatz von KI in der Cybersicherheit erklären?“ Diese Formulierung veranlasst den LLM dazu, einen differenzierteren Ton anzuschlagen und unterschiedliche Standpunkte, einschließlich Vor- und Nachteile, einzubeziehen.
4. Iterieren und experimentieren Sie mit verschiedenen Eingabeaufforderungsstrukturen
Die Art und Weise, wie Sie eine Frage stellen, beeinflusst die Reaktion des LLM. Durch das Experimentieren mit Eingabeaufforderungsstrukturen können Sie aus erster Hand verstehen, wie unterschiedliche Ansätze die Reaktionen der KI verändern, indem Sie auf verschiedene Aspekte der Wissensbasis und Argumentationsfähigkeiten der KI zurückgreifen.
Eine Möglichkeit, Eingabeaufforderungen zu formulieren, sind beispielsweise Vergleiche wie „Wie schneidet Agile im Vergleich zur herkömmlichen Wasserfall-Softwareentwicklung ab?“ Dies ist besonders nützlich für die Entscheidungsfindung, da es Antworten fördert, die erklärende Informationen sowie Analysen und Kontraste enthalten.
Auch kreative Aufforderungsansätze wie Rollenspiele und Szenarioerstellung können zu einzigartigeren, detaillierteren Antworten führen. Rollenspielaufforderungen fordern den LLM auf, eine bestimmte Rolle einzunehmen und aus dieser Perspektive zu reagieren. Die folgende Aufforderung ermutigt die KI beispielsweise, bei der Generierung ihrer Antwort einen strategischen, analytischen und geschäftsorientierten Ansatz zu verfolgen: „Stellen Sie sich vor, Sie sind ein Technologie-Unternehmensberater. Welche Schritte würden Sie einem neuen SaaS-Startup empfehlen, um Marktanteile zu gewinnen?“ „
Ebenso kann die Aufforderung an die KI, über ein hypothetisches Szenario zu spekulieren, zu detaillierteren und kreativeren Antworten führen. Sie könnten beispielsweise fragen: „Ein mittelständisches Unternehmen strebt an, innerhalb eines Jahres vollständig auf die Cloud umzusteigen. Mit welchen potenziellen Vorteilen, Risiken und Herausforderungen werden seine IT-Führungskräfte voraussichtlich konfrontiert sein?“
Fortgeschrittene LLM-Prompt-Engineering-Strategien
Wenn Sie bereits mit den Grundlagen des Prompt Engineering vertraut sind, kann das Ausprobieren einiger komplexerer Ansätze die Qualität der Antworten, die Sie von LLMs erhalten, weiter verbessern.
Lernen mit wenigen Schüssen
Few-Shot-Learning versorgt das Modell mit relevanten Beispielen, bevor es aufgefordert wird, auf eine Anfrage zu antworten oder ein Zielproblem zu lösen. Es handelt sich um eine Prompt-Engineering-Strategie, die einige Ideen aus der allgemeineren maschinellen Lerntechnik des überwachten Lernens übernimmt, bei der dem Modell sowohl die Eingabe als auch die gewünschte Ausgabe gegeben wird, um zu lernen, wie ähnliche Aufgaben angegangen werden können.
Wenige Eingabeaufforderungen sind besonders nützlich für Aufgaben wie die Stilübertragung, bei der Aspekte eines Textstücks wie Ton oder Formalität geändert werden, ohne den eigentlichen Inhalt zu ändern. Um mit dem Lernen mit wenigen Schüssen zu experimentieren, versuchen Sie, zwei bis vier Beispiele der Aufgabe, die das Modell ausführen soll, in Ihre erste Abfrage aufzunehmen, wie im folgenden Beispiel gezeigt.
Aufforderung zur Gedankenkette
Die Gedankenkettenaufforderung ist eine Technik, die häufig für kompliziertere Denkaufgaben eingesetzt wird, beispielsweise zum Lösen einer komplexen Gleichung oder zum Beantworten eines Rätsels. LLMs eignen sich von Natur aus nicht gut für die Lösung von Logik- und Argumentationsproblemen, wohl aber für die Anregung von Gedankenketten scheint zu helfen ihre Leistung verbessern.
Um mit der Aufforderung zur Gedankenkette zu experimentieren, bitten Sie das Modell, laut zu denken und seine Herangehensweise an ein Problem in kleinere Teilschritte zu zerlegen, bevor die endgültige Antwort generiert wird. Sie können auch die Eingabeaufforderung mit wenigen Schüssen mit der Eingabeaufforderung mit der Gedankenkette kombinieren, um dem Modell ein Beispiel dafür zu geben, wie ein Problem Schritt für Schritt bearbeitet werden kann, wie im folgenden Beispiel gezeigt.
Meta-Aufforderung
Meta-Prompting nutzt das LLM selbst, um Eingabeaufforderungen zu verbessern. Bitten Sie in einer Meta-Eingabeaufforderung den LLM, die beste Möglichkeit zur Formulierung einer Eingabeaufforderung für eine bestimmte Aufgabe oder Frage vorzuschlagen – oder, ähnlich, einen vom Benutzer generierten Entwurfsaufforderungsentwurf zu optimieren. Sie könnten beispielsweise fragen: „Ich möchte ein Sprachmodell bitten, kreative Schreibübungen für mich zu generieren. Wie formuliere ich meine Anfrage am effektivsten, um detaillierte Ideen zu erhalten?“
Da beim Meta-Prompting KI zum Schreiben von Eingabeaufforderungen verwendet wird, kann diese Strategie kreative und neuartige Ideen hervorrufen, die sich von denen unterscheiden, die einem menschlichen Benutzer in den Sinn kommen. Es ist auch hilfreich, wenn Sie in Ihren täglichen Arbeitsabläufen viele Eingabeaufforderungen schreiben, da es den manchmal zeitaufwändigen Prozess der Erstellung effektiver Eingabeaufforderungen automatisieren kann.
Lev Craig befasst sich als Site-Editor für die Enterprise AI-Site von TechTarget Editorial mit KI und maschinellem Lernen. Craig hat zuvor über Unternehmens-IT, Softwareentwicklung und Cybersicherheit geschrieben und einen Abschluss an der Harvard University gemacht.