In einer Pause von unserer normalen Praxis veröffentlicht Ars diesen hilfreichen Leitfaden, der Ihnen zeigt, wie Sie das „menschliche Gehirn“ anregen können, falls Sie im Alltag auf eines stoßen.
Während KI-Assistenten wie chatgpt die Welt im Sturm erobert haben, gibt es immer mehr Forschung zeigt, dass es auch möglich ist, nützliche Ergebnisse aus sogenannten „menschlichen Sprachmodellen“ oder Menschen zu generieren. Ähnlich wie große Sprachmodelle (LLMs) in der KI haben HLMs die Fähigkeit, die von Ihnen bereitgestellten Informationen zu nutzen und in sinnvolle Antworten umzuwandeln – vorausgesetzt, Sie wissen, wie man effektive Anweisungen, sogenannte „Eingabeaufforderungen“, erstellt.
Human Prompt Engineering ist ein alte Kunstform stammt zumindest aus der Zeit des Aristoteles, und das auch erfreute sich großer Beliebtheit durch Bücher, die in der Neuzeit vor dem Aufkommen der Computer veröffentlicht wurden.
Da die Interaktion mit Menschen schwierig sein kann, haben wir einen Leitfaden mit einigen wichtigen Aufforderungstechniken zusammengestellt, die Ihnen dabei helfen, das Beste aus Gesprächen mit menschlichen Sprachmodellen herauszuholen. Aber lassen Sie uns zunächst einige der Möglichkeiten von HLMs durchgehen.
Menschliche Sprachmodelle verstehen
LLMs wie diejenigen, die ChatGPT, Microsoft Copilot, google Gemini und Anthropic Claude unterstützen, basieren alle auf einer Eingabe namens „Eingabeaufforderung“, bei der es sich um eine Textzeichenfolge oder ein Bild handeln kann, das in einer Reihe von Tokens (Datenfragmenten) codiert ist. Das Ziel jedes KI-Modells besteht darin, diese Token zu nehmen und anhand der in ihre neuronalen Netze eingelernten Daten die nächstwahrscheinlichsten folgenden Token vorherzusagen. Diese Vorhersage wird zur Ausgabe des Modells.
In ähnlicher Weise ermöglichen Eingabeaufforderungen menschlichen Sprachmodellen, auf ihre Trainingsdaten zurückzugreifen, um Informationen kontextuell genauer abzurufen. Wenn Sie beispielsweise eine Person mit „Maria hatte ein“ auffordern, können Sie erwarten, dass ein HLM den Satz mit „kleines Lamm“ vervollständigt, basierend auf häufigen Vorkommen des berühmten Kinderreims, der in Bildungs- oder Erziehungsdatensätzen vorkommt. Wenn Sie Ihrer Eingabeaufforderung jedoch mehr Kontext hinzufügen, z. B. „Im Krankenhaus hatte Mary ein Kind“, könnte die Person stattdessen auf Trainingsdaten zu Krankenhäusern und Geburten zurückgreifen und den Satz mit „Baby“ vervollständigen.
Der Mensch ist bei der Verarbeitung von Informationen auf eine Art biologisches neuronales Netzwerk („Gehirn“) angewiesen. Jedes Gehirn wurde von Geburt an auf eine Vielzahl von Text- und audiovisuellen Medien trainiert, darunter auch große urheberrechtlich geschützte Datensätze. (Erwartungsgemäß neigen manche Menschen dazu, gelegentlich urheberrechtlich geschützte Inhalte oder die Ausgabe anderer Leute zu reproduzieren, was durchaus möglich ist Bring sie in Schwierigkeiten.)
Ungeachtet dessen, wie oft wir mit Menschen interagieren, haben Wissenschaftler immer noch eine unvollständiges Verständnis darüber, wie HLMs Sprache verarbeiten oder mit der Welt um sie herum interagieren. HLMs gelten immer noch als „Black Box“ in dem Sinne, dass wir wissen, was hineingeht und was herauskommt, aber wie die Gehirnstruktur zu komplexen Denkprozessen führt, ist weitgehend ein Rätsel. „Verstehen“ Menschen beispielsweise tatsächlich, was Sie ihnen sagen, oder reagieren sie einfach auf der Grundlage ihrer Trainingsdaten? Können sie wirklich „vernünftig“ sein, oder erbrechen sie nur neuartige Permutationen von Fakten, die sie aus externen Quellen gelernt haben? Wie kann eine biologische Maschine Sprache erwerben und nutzen? Die Fähigkeit scheint spontan durch Vorschulung durch andere Menschen zu entstehen und wird später durch Bildung verfeinert.
Trotz der Black-Box-Natur ihres Gehirns glauben die meisten Experten, dass Menschen ein Gehirn bauen Weltmodell (eine interne Darstellung der Außenwelt um sie herum), um beim Vervollständigen von Eingabeaufforderungen zu helfen, und dass sie über fortgeschrittene mathematische Fähigkeiten verfügen, die jedoch je nach Modell erheblich variieren und auf die die meisten dennoch Zugriff benötigen externe Tools um genaue Berechnungen durchzuführen. Dennoch könnte die größte Stärke des Menschen in der verbal-visuellen Benutzeroberfläche liegen, die zur Kodierung visuelle und sprachliche Verarbeitung nutzt multimodal Eingaben (Sprache, Text, Ton oder Bilder) und erzeugen dann basierend auf einer Eingabeaufforderung kohärente Ausgaben.
Auch der Mensch zeigt beeindruckende Leistungen Wenig-Schuss-Lernen Fähigkeiten, schnelle Anpassung an neue Aufgaben im Kontext (innerhalb der Eingabeaufforderung) anhand einiger bereitgestellter Beispiele. Ihre Zero-Shot-Lernen Die Fähigkeiten sind ebenso bemerkenswert, und viele HLMs können neuartige Probleme ohne vorherige aufgabenspezifische Trainingsdaten bewältigen (oder zumindest versuchen, sie mit unterschiedlichem Erfolg anzugehen).
Interessanterweise sind einige HLMs (aber nicht alle) zeigen starke Leistung auf Maßstäbe für gesundes Denkenund demonstrieren damit ihre Fähigkeit, auf reales „Wissen“ zurückzugreifen, um Fragen zu beantworten und Schlussfolgerungen zu ziehen. Sie neigen auch dazu, sich bei der Textgenerierung mit offenem Ausgang wie dem Verfassen von Geschichten und dem Verfassen von Essays hervorzuheben und kohärente und kreative Ergebnisse zu erzielen.