[ad_1]

Geschrieben von Mounis Hawass

Sonntag, 15. Oktober 2023, 19:00 Uhr

dürfenchatgpt-%D9%84%D9%84%D8%A7%D8%B3%D8%AA%D8%B9%D8%AF%D8%A7%D8%AF-%D9%84%D9%80-%D8%A7%D9%84%D8%A5%D9%86%D8%AA%D8%B1%D9%81%D9%8A%D9%88-%D9%84%D9%87%D8%B0%D9%87-%D8%A7%D9%84%D8%A3%D8%B3%D8%A8%D8%A7%D8%A8/6337609″>ChatGPT Andere KI-Chatbots sprechen fließende, grammatikalisch einwandfreie Sätze und haben möglicherweise einen natürlichen Rhythmus, aber lassen Sie sich nicht dazu verleiten, diese gut ausgeführte Rede mit Gedanken, Emotionen oder sogar Absichten zu verwechseln, sagen Experten.

Laut der amerikanischen Businessinsider-Website sind Chatbots im Wesentlichen nichts anderes als eine Maschine, die mathematische Berechnungen und statistische Analysen durchführt, um sich die richtigen Wörter und Sätze zu merken. Roboter wie ChatGPT werden auf große Textmengen trainiert, was ihnen die Interaktion ermöglicht mit menschlichen Benutzern auf natürliche Weise. Es gibt auch viel Bewegung, die Menschen machen, die dabei helfen, Falten zu beseitigen.

OpenAI, das Unternehmen hinter ChatGPT, gibt auf seiner Website an, dass seine Modelle auf Informationen aus einer Reihe von Quellen basieren, darunter von seinen Benutzern und Materialien, die es lizenziert hat.

Wie KI-Chatbots funktionieren

KI-basierte Chatbots wie ChatGPT von OpenAI basieren auf großen Sprachmodellen oder LLMs, bei denen es sich um Programme handelt, die auf Textmengen trainiert werden, die aus online veröffentlichten Schriften und Informationen stammen und im Allgemeinen von Menschen erstellt werden.

Die Systeme werden auf eine Reihe von Wörtern trainiert und lernen die Bedeutung der Wörter in dieser Zeichenfolge. Das gesamte aufgenommene Wissen trainiert also nicht nur große Sprachmodelle auf sachliche Informationen, sondern hilft ihnen auch dabei, Sprachmuster und die typische Verwendung von Wörtern zu erkennen zusammengestellt, sagten Experten.

Chatbots werden von Menschen weiter darin geschult, angemessene Antworten zu geben und schädliche Nachrichten einzuschränken.

Siehe auch  „Google wird ChatGPT töten“ und andere überbewertete KI-Vorhersagen, die wir im Jahr 2023 gehört haben | von The PyCoach | Künstliche Ecke | Dez. 2023

Ein KI-Datentrainer, der bei Invisible Technologies arbeitet, einem Unternehmen, das mit der Schulung von ChatGPT beauftragt wurde, sagte Insider zuvor, dass seine Aufgabe darin besteht, reale Fehler zu identifizieren; Rechtschreib- und Grammatikfehler sowie Ärger beim Testen von Chatbot-Antworten.

„Man kann sagen: ‚Das ist giftig, das ist zu politisch, das ist eine Meinung‘, und man stellt es in einen Rahmen, der diese Dinge nicht hervorbringt“, sagte Christian Hammond, Professor für Informatik an der Northwestern University. Hammond ist außerdem Direktor des Center for Advancing the Safety of Machine Intelligence der Universität.

Wenn Sie einen Chatbot bitten, eine einfache Sachfrage zu beantworten, kann der Erinnerungsprozess unkompliziert sein: Er setzt eine Reihe von Algorithmen ein, um den Satz auszuwählen, auf den am wahrscheinlichsten geantwortet wird, er wählt innerhalb von Millisekunden die bestmöglichen Antworten aus und wählt aus den Top-Optionen es liefert eine nach dem Zufallsprinzip. Deshalb kann das wiederholte Stellen derselben Frage zu leicht unterschiedlichen Antworten führen.

Chatbots können Fragen auch in mehrere Teile aufteilen und jeden Teil nacheinander beantworten, als ob Sie über die Frage nachdenken würden.

Angenommen, Sie bitten den Roboter, einen amerikanischen Präsidenten zu benennen, der den Vornamen des Hauptdarstellers im Film „Camelot“ trägt, und der Roboter antwortet möglicherweise zunächst, dass der betreffende Schauspieler Richard Harris ist. „Diese Antwort wird er dann verwenden, um zu geben.“ „Sie Richard Nixon als Antwort auf Ihre ursprüngliche Frage“, sagte Hammond.

Chatbots sind nicht perfekt

KI-Chatbots haben die meisten Probleme, wenn ihnen Fragen gestellt werden, auf die sie keine Antwort haben. Sie wissen einfach nicht, was sie nicht wissen, also lehnen sie eine Antwort nicht ab, sondern schließen daraus, was sie wissen und was sie machen eine Annahme.

Siehe auch  Es ist nicht ChatGPT, das ist das Problem. Es ist binäres Denken

Das Problem besteht darin, dass sie Ihnen nicht sagen, dass sie raten, sondern die Informationen möglicherweise als Tatsachen darstellen. Wenn ein Chatbot Informationen erfindet, die er dem Benutzer als Tatsachen präsentiert, spricht man von einer „Halluzination“.

Die Möglichkeit, dass ChatGPT Halluzinationen auslösen kann, ist zum Teil der Grund, warum einige Technologieexperten Chatbot-Benutzer zur Vorsicht warnen, und in einer aktuellen Studie der Boston Consulting Group fanden Forscher heraus, dass Menschen, die ChatGPT am Arbeitsplatz verwenden, bei bestimmten Aufgaben tatsächlich schlechtere Leistungen erbringen können . Wenn sie die Ausgabe des Chatbots für bare Münze nehmen und sie nicht auf Fehler überprüfen.

„Das nennen wir Epistemologie oder Metakognition“, sagte William Wang, außerordentlicher Professor, der Informatik an der University of California in Santa Barbara studiert. Er ist außerdem Co-Direktor der Gruppe zur Verarbeitung natürlicher Sprache an der Universität. „Das Modell versteht bekannte Unbekannte nicht sehr gut“, sagte er.

[ad_2]

5/5 - (336 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein