chatgpt und alle anderen Sprachmodelle stellen täglich ihre unglaublichen Fähigkeiten unter Beweis. Es gibt jedoch einen guten Grund, warum sie niemals mit Menschen mithalten können.

Ki Und Menschen
Chatgpt Wird Aus Einem Einzigen Grund Nie In Der Lage Sein, Menschen Zu Finden 4

Seit Anfang der 2020er Jahre hat die ganze Welt es entdeckt die Leistungsfähigkeit der generativen KInach dem Erfolg von Tiefes Lernen Insbesondere Letzteres ermöglichte google und seinem Team erhebliche Fortschritte im Bereich der künstlichen Intelligenz. Heute haben wir die Grenzen des Deep Learning überschritten und Sprachmodelle werden nach wie vor in fast allen Bereichen eingesetzt geschult an großen Korpora von Texten und Daten, die im Internet verfügbar sind. Durch das Verständnis der Reihenfolge, die die Abfolge von Wörtern und Ideen bestimmt, sind diese Sprachmodelle in der Lage, selbst neue Inhalte zu generieren. Dies ermöglicht es ihnen, den Stil jedes Autors oder Texters zu imitieren. ALSO, Können wir bereits sagen, dass KI dem Menschen bereits ebenbürtig ist? Nicht sofort !

Eine eher oberflächliche als künstliche Intelligenz

Während der Jahrestagung von l'American Association for the Advancement of Science fand in Denver statt, Melanie MitchellProfessor für Informatik, argumentierte, dass generative KI noch sehr weit vom Menschen entfernt sei.

Für den Lehrer an der University of Portland: Der Grund dafür ist, dass die generative KI spricht, aber nicht versteht, was sie sagt.

Zu diesem Thema hatte der Professor in Zusammenarbeit mit Marha Lewisn bereits veröffentlicht eine Studie über arXiv die Grenzen großer Sprachmodelle aufzuzeigen.

Für die beiden Lehrer ChatGPT werden Gemini und ihre Freunde nicht in der Lage sein, Menschen zu finden, weilEs ist ihnen unmöglich, eine Fähigkeit an eine neue Situation anzupassen. Um dies zu beweisen, wählt der Forscher zwei Buchstabenfolgen: A B C D et ABCE. Angesichts dieses Problems ist klar, dass es den meisten Menschen gelingen würde zu verstehen, dass der letzte Buchstabe der zweiten Folge der nächste Buchstabe im Alphabet nach dem letzten Buchstaben der ersten Folge ist. Das Gleiche wird auch der Fall sein, wenn wir mit den IJKL- und IJKM-Fortsetzungen ein weiteres Problem des Genres angehen.

Siehe auch  Howard Levitt: Arbeiten Ihre Mitarbeiter wirklich oder delegieren sie an ChatGPT?
Wahrscheinlichkeit Laut KiWahrscheinlichkeit Laut Ki
Chatgpt Wird Aus Einem Einzigen Grund Nie In Der Lage Sein, Menschen Zu Finden 5

Diese Probleme könnten auch durch Sprachmodelle leicht gelöst werden, da diese auf Alphabeten trainiert wurden. Wo liegt also ihre Grenze? Es liegt darin, dass sie scheitern werden, wenn wir das gleiche Problem mit einem anderen Alphabet oder anderen Symbolen angehen. Tatsächlich können sie ein Konzept, das sie mit einem Alphabet gelernt haben, nicht auf ein anderes anwenden. Menschen hingegen würden damit zurechtkommen. Etwas, das auf GPT-Modellen getestet und bewährt wurde.

SIEHE AUCH: Ist künstliche Intelligenz sexistisch? Das verrät diese Studie

KI versteht und sieht die Welt nicht wie ein Mensch: Es ist die nächste Revolution

Generative KI kann Situationen nicht bewältigen, für die sie nicht trainiert wurde. Ebenfalls, Sie verstehen die Welt nicht und sehen sie nicht so, wie Menschen es können. Alles, was diese beliebten Sprachmodelle tun, ist „basierend auf Mustern in den Daten und nicht auf menschlichem Verständnis“. Sie nutzen die Wahrscheinlichkeit. Im Gegensatz dazu basiert das menschliche Verständnis auf Konzepte, mentale Modelle. Letztere helfen dem Menschen dabei, Ursache-Wirkungs-Beziehungen zu ermitteln und sogar die wahrscheinlichen Ergebnisse zu erzielen, die verschiedene Situationen liefern können.

Um diese Lücke weiter zu verdeutlichen, zeigt der Forscher, dass LLMs zunächst die Sprache lernen, bevor sie Konzepte erkennen, die sie zur Produktion neuer Inhalte verwenden können. Andererseits lernt ein Baby zunächst das Konzept, bevor es versucht, die geeignete Sprache zu kennen, um es auszudrücken. Deshalb wird der Mensch dem LLM weiterhin überlegen sein.

Darüber hinaus gibt der Professor dies zu Dieses Feld ist der nächste Schritt in der Revolution der künstlichen Intelligenz. Selbst wenn es ihr nicht gelingt, das menschliche Modell zu nutzen, könnte sie ihr eigenes Modell entwickeln, um die Welt wie wir zu verstehen.

5/5 - (138 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein