In letzter Zeit haben sich neuronale Netze und insbesondere chatgpt zu Multitasking-KI-Assistenten entwickelt, die jedem Benutzer zur Verfügung stehen. Um jedoch eine genaue Antwort zu erhalten, ist es notwendig, dem neuronalen Netzwerk so viele Eingaben wie möglich zu geben, also einen qualitativ hochwertigen Hinweis oder eine Aufforderung zu schreiben. Je detaillierter die Hinweise sind, desto spezifischere Informationen verarbeitet das neuronale Netzwerk. Bei LLM (Large Language Model) vom Typ GPT-3 handelt es sich um riesige Datenmengen, und ohne detaillierte Eingabeaufforderungen kann das neuronale Netzwerk die Nuancen der Frage kaum verstehen und eine falsche oder irrelevante Antwort geben, d. h. es beginnt zu halluzinieren.

Die Fähigkeit, korrekte Eingabeaufforderungen zu schreiben, bestimmt direkt die Fähigkeit, aus der Arbeit mit neuronalen Netzen einen Mehrwert zu ziehen. In diesem Artikel sprach Anton Sipachev, Entwicklungsleiter bei Just AI, über die Methoden zum Schreiben einer Eingabeaufforderung, um hochwertige Informationen aus dem KI-Modell zu erhalten und zu verhindern, dass das Modell halluziniert.

Konversationsschlüssel: So kommunizieren Sie mithilfe von Eingabeaufforderungen effektiv mit ChatGPT

Alina Aleshchenko

Zunächst werde ich die Einschränkungen von ChatGPT skizzieren:

  • Er weiß nichts darüber, was nach 2021 passiert ist, da er bis 2021 auf einer riesigen Datenbank mit aktualisierten Daten trainiert wird. Damit das neuronale Netzwerk in Echtzeit Daten aus dem Internet empfängt, können Sie im Microsoft Edge-Browser die auf ChatGPT basierende Bing AI-Erweiterung installieren.

  • ChatGPT wurde anhand von Daten aus vielen Sprachen trainiert, die Menge an englischem Text in den Schulungsmaterialien ist jedoch viel größer. Um bessere Antworten zu erhalten, ist es besser, einen Dialog auf Englisch zu führen und die Antwort dann mit Hilfe eines Dolmetschers zu übersetzen.

  • Bei ChatGPT ist die Anzahl der Token (Wörter oder Zeichen) in einer einzelnen Anfrage oder Antwort begrenzt. Dies hängt von der verwendeten Version ab: 4000 Token für ChatGPT-3.5 und 8000 Token für ChatGPT-4.

  • Wenn Sie während des Dialogs mit der KI zu viel Wissen ausgetauscht haben, ist es besser, einen neuen Chat zu starten, damit nachfolgende Antworten nicht verfälscht werden.

  • Da ChatGPT aufgrund des hohen Datenverkehrs meist ausgelastet ist, müssen Sie auf eine Antwort warten. Wenn Sie keine Zeit zum Warten haben, können Sie ein Premium-Abonnement anschließen.

Siehe auch  Bezahlte Inhalte, um Licht zu sehen! OpenAI setzt die Funktion „Browse with Bing“ dringend aus

Schussaufforderungstechnik

Eingabeaufforderungen für KI variieren in ihrer Komplexität, von einer Phrase oder einer Frage bis hin zu einem Text mit mehreren Absätzen. Je weniger Aufwand Sie in die Formulierung des ChatGPT-Hinweises stecken, desto weniger Aufwand investiert die KI darin. „Null“-Hinweise führen oft zu unbefriedigenden Ergebnissen, weil die KI zu viele Entscheidungen treffen muss.

Null-Schuss-Aufforderung – KI nutzt einen solchen Hinweis als Autovervollständigungsmechanismus, d. h. dem Modell wird völlige Handlungsfreiheit eingeräumt. In diesem Fall sollten Sie keine klar strukturierte Antwort erwarten.

One-Shot-Aufforderung – Sie geben der KI ein Beispiel für das gewünschte Ergebnis. Eine einmalige Eingabeaufforderung wird verwendet, um Text in natürlicher Sprache mit einer begrenzten Menge an Eingaben, beispielsweise einem einzelnen Beispiel oder einer Vorlage, zu generieren. Diese Art von Hinweis ist nützlich, wenn Sie ein bestimmtes Antwortformat benötigen.


Lesen Sie zum Thema: Wird GPT den Projektmanager ersetzen können – ein Experiment


Wenige Schüsse als Aufforderung ist eine Methode, bei der dem Modell eine kleine Anzahl von Beispielen, normalerweise zwei bis fünf, gegeben wird, um sich schnell an neue Beispiele zuvor gesehener Objekte anzupassen.

Auslöser von Halluzinationen

Eines der größten Probleme generativer KI-Systeme sind Halluzinationen. Dieser Begriff wird für das Phänomen verwendet, dass ein neuronales Netzwerk Ergebnisse liefert, die nicht mit der Realität, einigen Daten oder einem anderen erkennbaren Muster übereinstimmen. Am häufigsten beginnt die KI zu halluzinieren, wenn ihr nicht genügend Informationen zur Beantwortung Ihrer Anfrage fehlen.

Welche anderen Gründe stecken hinter KI-Halluzinationen?

probabilistischer Charakter. Generative Modelle wie GPT basieren auf probabilistischen Methoden, die das nächste Token, also ein Wort oder Zeichen in einer Sequenz, in einem gegebenen Kontext vorhersagen. Sie schätzen die Wahrscheinlichkeit, mit der jedes Wort auftritt, und wählen auf der Grundlage dieser Wahrscheinlichkeiten das nächste Wort aus.

Siehe auch  Wenn ChatGPT ein CEO wäre, wie würde es abschneiden? Diese Universitätsstudie beweist es

Dieser Stichprobenprozess kann manchmal zu unvorhersehbaren und unplausiblen Schlussfolgerungen führen, da das Modell möglicherweise weniger wahrscheinliche Wörter oder Phrasen auswählt, was zu einer Halluzination führt. ChatGPT ist nicht darauf trainiert, „Ich weiß nicht“ zu sagen, wenn ihm Informationen fehlen. Stattdessen wird die wahrscheinlichste Antwort gegeben.

Mangel an verlässlichen Informationen. Die meisten von uns verwendeten Sprachmodelle sind nicht in der Lage, die Fakten in ihrer Ausgabe in Echtzeit mit einer verifizierten Quelle zu vergleichen, da sie keinen Internetzugang haben. Dies macht es für das Modell schwierig, die Informationen auf Gültigkeit zu überprüfen.

Die Komplexität des Modells. Moderne generative Modelle wie GPT-3 verfügen über Milliarden von Parametern, die es ihnen ermöglichen, komplexe Muster in Daten zu erfassen. Diese Komplexität kann jedoch auch zu einer Überanpassung und dem Erinnern an irrelevante oder falsche Muster führen, was zu Halluzinationen in den generierten Antworten führt.

KI kann überzeugende und realistische Halluzinationen erzeugen, die Menschen irreführen und zur Verbreitung falscher Informationen führen können.

Die wichtigsten Methoden zur Bekämpfung von Systemhalluzinationen sind mit dem Hint Engineering verbunden – der Zuweisung einer KI-Rolle, der Bereitstellung von Kontext und Einschränkungen, der Festlegung des Tonfalls usw. Solche Methoden reichen jedoch möglicherweise nicht aus, um komplexe Probleme zu lösen. Dann können Sie auf eine komplexere Struktur von Hinweisen zurückgreifen, z. B. Gedankenbaum (ToT).


Lesen Sie auch:

Bedrohungen und Chancen. Wie sich der KI-Boom auf die Bildungstechnologie auswirken wird

Sie erfinden einen Namen für die Marke und stellen dem Investor das Projekt vor: eine Auswahl neuronaler Netze für Texter

Siehe auch  Wie unterscheidet sich Chinas „Ernie“ von ChatGPT, der von den beiden besser ist? Die Welt ist völlig verwirrt!

Arbeitsmethode: Gedankenbaum (ToT)

Die ToT-Methode funktioniert wie folgt: Die ursprüngliche Aufgabe wird in Komponenten zerlegt, die das System selbst aufdeckt und analysiert. Das heißt, das Modell zerlegt den Prozess der Problemlösung in eine Reihe kleinerer Schritte oder „Gedanken“, wodurch sie besser beherrschbar sind .

Die Arbeit an jeder Komponente ist ein Zwischenschritt zur Lösung des anfänglichen komplexen Problems. Dieser Ansatz ermöglicht es dem neuronalen Netzwerk, mehrere unterschiedliche Denkweisen oder Ansätze zur Lösung eines Problems zu berücksichtigen.

Ein Beispiel ist eine Aufforderung, bei der drei Experten über ein Problem sprechen, ihre Gedanken teilen und die beste Option finden. Es ist besser, die ToT-Methode auf Englisch zu aktivieren. Frage: „Wo soll man mit der Gründung eines auf KI basierenden Startups beginnen?“

Der Argumentationsprozess des Modells scheint wie üblich zu beginnen, aber dabei wägt das Modell die Vor- und Nachteile jeder seiner Aussagen ab und liefert zusätzliche Informationen auf der Grundlage seiner eigenen Entwicklungen.

Dann tritt der zweite Experte in das Gespräch ein, der, ebenfalls ausgehend von den Argumenten des vorherigen, weiterhin die Hauptfrage beantwortet.

Die Argumentation wird fortgesetzt, bis das Modell die beste Option für die endgültige Antwort findet.

Nachdem das Problem von allen Seiten betrachtet und jeder Schritt im Detail besprochen wurde, gelangt das Modell zu einer allgemeinen Schlussfolgerung, die dazu beiträgt, die während der Reflexion erhaltenen Informationen zu finalisieren. Die Gedankenbaumstruktur soll die Probleme von Sprachmodellen stärken und lösen, indem sie eine flexiblere und strategischere Entscheidungsfindung ermöglicht.


Titelfotos und Illustrationen mit freundlicher Genehmigung des Autors

Abonnieren Sie unsere Telegram-Kanalum über die neuesten Nachrichten und Ereignisse auf dem Laufenden zu bleiben!

4.9/5 - (61 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein