Vergrößern / Mit diesen Tipps können auch Sie Menschen erfolgreich ansprechen.

In einer Pause von unserer normalen Praxis veröffentlicht Ars diesen hilfreichen Leitfaden, der Ihnen zeigt, wie Sie das „menschliche Gehirn“ anregen können, falls Sie im Alltag auf eines stoßen.

Während KI-Assistenten wie chatgpt die Welt im Sturm erobert haben, gibt es immer mehr Forschung zeigt, dass es auch möglich ist, nützliche Ergebnisse aus sogenannten „menschlichen Sprachmodellen“ oder Menschen zu generieren. Ähnlich wie große Sprachmodelle (LLMs) in der KI haben HLMs die Fähigkeit, die von Ihnen bereitgestellten Informationen zu nutzen und in sinnvolle Antworten umzuwandeln – vorausgesetzt, Sie wissen, wie man effektive Anweisungen, sogenannte „Eingabeaufforderungen“, erstellt.

Human Prompt Engineering ist ein alte Kunstform stammt zumindest aus der Zeit des Aristoteles, und das auch erfreute sich großer Beliebtheit durch Bücher, die in der Neuzeit vor dem Aufkommen der Computer veröffentlicht wurden.

Da die Interaktion mit Menschen schwierig sein kann, haben wir einen Leitfaden mit einigen wichtigen Aufforderungstechniken zusammengestellt, die Ihnen dabei helfen, das Beste aus Gesprächen mit menschlichen Sprachmodellen herauszuholen. Aber lassen Sie uns zunächst einige der Möglichkeiten von HLMs durchgehen.

Menschliche Sprachmodelle verstehen

LLMs wie diejenigen, die ChatGPT, Microsoft Copilot, google Gemini und Anthropic Claude unterstützen, basieren alle auf einer Eingabe namens „Eingabeaufforderung“, bei der es sich um eine Textzeichenfolge oder ein Bild handeln kann, das in einer Reihe von Tokens (Datenfragmenten) codiert ist. Das Ziel jedes KI-Modells besteht darin, diese Token zu nehmen und anhand der in ihre neuronalen Netze eingelernten Daten die nächstwahrscheinlichsten folgenden Token vorherzusagen. Diese Vorhersage wird zur Ausgabe des Modells.

Siehe auch  ChatGPT wählt die drei besten Kryptowährungen aus, die Sie dieses Weihnachten im Auge behalten sollten

In ähnlicher Weise ermöglichen Eingabeaufforderungen menschlichen Sprachmodellen, auf ihre Trainingsdaten zurückzugreifen, um Informationen kontextuell genauer abzurufen. Wenn Sie beispielsweise eine Person mit „Maria hatte ein“ auffordern, können Sie erwarten, dass ein HLM den Satz mit „kleines Lamm“ vervollständigt, basierend auf häufigen Vorkommen des berühmten Kinderreims, der in Bildungs- oder Erziehungsdatensätzen vorkommt. Wenn Sie Ihrer Eingabeaufforderung jedoch mehr Kontext hinzufügen, z. B. „Im Krankenhaus hatte Mary ein Kind“, könnte die Person stattdessen auf Trainingsdaten zu Krankenhäusern und Geburten zurückgreifen und den Satz mit „Baby“ vervollständigen.

Der Mensch ist bei der Verarbeitung von Informationen auf eine Art biologisches neuronales Netzwerk („Gehirn“) angewiesen. Jedes Gehirn wurde von Geburt an auf eine Vielzahl von Text- und audiovisuellen Medien trainiert, darunter auch große urheberrechtlich geschützte Datensätze. (Erwartungsgemäß neigen manche Menschen dazu, gelegentlich urheberrechtlich geschützte Inhalte oder die Ausgabe anderer Leute zu reproduzieren, was durchaus möglich ist Bring sie in Schwierigkeiten.)

Ungeachtet dessen, wie oft wir mit Menschen interagieren, haben Wissenschaftler immer noch eine unvollständiges Verständnis darüber, wie HLMs Sprache verarbeiten oder mit der Welt um sie herum interagieren. HLMs gelten immer noch als „Black Box“ in dem Sinne, dass wir wissen, was hineingeht und was herauskommt, aber wie die Gehirnstruktur zu komplexen Denkprozessen führt, ist weitgehend ein Rätsel. „Verstehen“ Menschen beispielsweise tatsächlich, was Sie ihnen sagen, oder reagieren sie einfach auf der Grundlage ihrer Trainingsdaten? Können sie wirklich „vernünftig“ sein, oder erbrechen sie nur neuartige Permutationen von Fakten, die sie aus externen Quellen gelernt haben? Wie kann eine biologische Maschine Sprache erwerben und nutzen? Die Fähigkeit scheint spontan durch Vorschulung durch andere Menschen zu entstehen und wird später durch Bildung verfeinert.

Siehe auch  ChatGPT wird ein Immobilienmakler und kann Ihnen bei der Suche nach einem Haus helfen

Trotz der Black-Box-Natur ihres Gehirns glauben die meisten Experten, dass Menschen ein Gehirn bauen Weltmodell (eine interne Darstellung der Außenwelt um sie herum), um beim Vervollständigen von Eingabeaufforderungen zu helfen, und dass sie über fortgeschrittene mathematische Fähigkeiten verfügen, die jedoch je nach Modell erheblich variieren und auf die die meisten dennoch Zugriff benötigen externe Tools um genaue Berechnungen durchzuführen. Dennoch könnte die größte Stärke des Menschen in der verbal-visuellen Benutzeroberfläche liegen, die zur Kodierung visuelle und sprachliche Verarbeitung nutzt multimodal Eingaben (Sprache, Text, Ton oder Bilder) und erzeugen dann basierend auf einer Eingabeaufforderung kohärente Ausgaben.

Menschliche Sprachmodelle Werden Von Einem Biologischen Neuronalen Netzwerk Namens A Angetrieben
Vergrößern / Menschliche Sprachmodelle werden von einem biologischen neuronalen Netzwerk namens „Gehirn“ angetrieben.

Auch der Mensch zeigt beeindruckende Leistungen Wenig-Schuss-Lernen Fähigkeiten, schnelle Anpassung an neue Aufgaben im Kontext (innerhalb der Eingabeaufforderung) anhand einiger bereitgestellter Beispiele. Ihre Zero-Shot-Lernen Die Fähigkeiten sind ebenso bemerkenswert, und viele HLMs können neuartige Probleme ohne vorherige aufgabenspezifische Trainingsdaten bewältigen (oder zumindest versuchen, sie mit unterschiedlichem Erfolg anzugehen).

Interessanterweise sind einige HLMs (aber nicht alle) zeigen starke Leistung auf Maßstäbe für gesundes Denkenund demonstrieren damit ihre Fähigkeit, auf reales „Wissen“ zurückzugreifen, um Fragen zu beantworten und Schlussfolgerungen zu ziehen. Sie neigen auch dazu, sich bei der Textgenerierung mit offenem Ausgang wie dem Verfassen von Geschichten und dem Verfassen von Essays hervorzuheben und kohärente und kreative Ergebnisse zu erzielen.

5/5 - (493 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein