Wie funktioniert chatgpt?

ChatGPT basiert auf der GPT-Sprachmodellfamilie. Bei der ersten Veröffentlichung wurde das große Sprachmodell GPT-3 zum Generieren von Antworten verwendet. Jetzt wird die kostenlose Version von ChatGPT mit GPT-3.5 betrieben, während die kostenpflichtige Version mit GPT-4 betrieben wird.

Wie wir bereits besprochen haben, steht GPT für Generative Pre-trained Transformer, was eine Art von ist Großes Sprachmodell. GPT-Modelle werden auf einem Textdatenkorpus trainiert, der Internetressourcen wie Webseiten, Dokumente, Dateien, Bücher und Geschichten umfasst.

GPT-4 hat mehr „Parameter“ als GPT-3.5. Parameter sind anpassbare Komponenten großer Sprachmodelle, die eine zentrale Rolle bei der Umwandlung von Eingaben in Ausgaben spielen. Je mehr Parameter, desto größer und leistungsfähiger ist das Modell.

Die GPT-Modelle verwenden fein abgestimmte, spezialisierte Algorithmen zur Suche Muster und Sequenzen in den Trainingsdaten – den zugrunde liegenden Strukturen, die in allen geschriebenen Texten vorhanden sind.

Dies ist ein Beispiel für „nicht überwachtes Lernen” – das ist die Art des Lernens, die ChatGPT durchführt. Wenn es trainiert wird, sind Eingaben (z. B. Text, auf den geantwortet werden soll) nicht mit bestimmten Ausgaben verknüpft. Aus diesem Grund ist ChatGPT besser darin, die Feinheiten menschlichen Denkens, Sprechens und geschriebener Nachrichten zu verstehen, anders als beispielsweise ein „Hilfe“-Bot, den Sie vielleicht auf einer Website finden.

Zum Vergleich diese Chatbots für den Kundensupport – die einfacher und eingeschränkter sind – verwenden Sie eine Methode namens „überwachtes Lernen” – wo Ein- und Ausgänge miteinander verknüpft sind. Aus diesem Grund wirken sie mechanischer und beantworten Fragen nicht annähernd so oft überzeugend wie ChatGPT.

Obwohl ChatGPT dank seiner komplexen Trainingsprozesse äußerst leistungsfähig und nützlich ist, sind sie weder perfekt noch basiert ChatGPT auf einem menschlichen Verstand.

Logische und sachliche Inkonsistenzen sind ebenso häufig wie die Generierung falscher Informationen. Beispiele hierfür werden üblicherweise als bezeichnet Halluzinationen. Einige Anfragen, die verschiedene Teile der logischen Infrastruktur von ChatGPT gegeneinander ausspielen, können auch dazu führen, dass seltsame Ausgaben generiert werden.

Siehe auch  Bard, der KI-Chatbot von Google, expandiert nach Europa und Brasilien, um es mit ChatGPT aufzunehmen

Dies ist eine einfache Erklärung eines unglaublich komplexen Prozesses, aber im Kern funktioniert ChatGPT genau so. Aufgrund der Tatsache, dass die menschliche Erfahrung voller Vorurteile ist, ChatGPT wird und wird einige Vorurteile aufweisen da es die zugrunde liegenden Strukturen, auf denen geschriebener Text basiert, auseinandernimmt.

Dies ist eines von mehreren ethische Fragen rund um den weiteren Einsatz künstlicher Intelligenz.

Eine ethische Frage an ChatGPT stellen.

5/5 - (335 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein