chatgpt und alle anderen Sprachmodelle stellen täglich ihre unglaublichen Fähigkeiten unter Beweis. Es gibt jedoch einen guten Grund, warum sie niemals mit Menschen mithalten können.
Seit Anfang der 2020er Jahre hat die ganze Welt es entdeckt die Leistungsfähigkeit der generativen KInach dem Erfolg von Tiefes Lernen Insbesondere Letzteres ermöglichte google und seinem Team erhebliche Fortschritte im Bereich der künstlichen Intelligenz. Heute haben wir die Grenzen des Deep Learning überschritten und Sprachmodelle werden nach wie vor in fast allen Bereichen eingesetzt geschult an großen Korpora von Texten und Daten, die im Internet verfügbar sind. Durch das Verständnis der Reihenfolge, die die Abfolge von Wörtern und Ideen bestimmt, sind diese Sprachmodelle in der Lage, selbst neue Inhalte zu generieren. Dies ermöglicht es ihnen, den Stil jedes Autors oder Texters zu imitieren. ALSO, Können wir bereits sagen, dass KI dem Menschen bereits ebenbürtig ist? Nicht sofort !
Eine eher oberflächliche als künstliche Intelligenz
Während der Jahrestagung von l'American Association for the Advancement of Science fand in Denver statt, Melanie MitchellProfessor für Informatik, argumentierte, dass generative KI noch sehr weit vom Menschen entfernt sei.
Zu diesem Thema hatte der Professor in Zusammenarbeit mit Marha Lewisn bereits veröffentlicht eine Studie über arXiv die Grenzen großer Sprachmodelle aufzuzeigen.
Für die beiden Lehrer ChatGPT werden Gemini und ihre Freunde nicht in der Lage sein, Menschen zu finden, weilEs ist ihnen unmöglich, eine Fähigkeit an eine neue Situation anzupassen. Um dies zu beweisen, wählt der Forscher zwei Buchstabenfolgen: A B C D et ABCE. Angesichts dieses Problems ist klar, dass es den meisten Menschen gelingen würde zu verstehen, dass der letzte Buchstabe der zweiten Folge der nächste Buchstabe im Alphabet nach dem letzten Buchstaben der ersten Folge ist. Das Gleiche wird auch der Fall sein, wenn wir mit den IJKL- und IJKM-Fortsetzungen ein weiteres Problem des Genres angehen.
Diese Probleme könnten auch durch Sprachmodelle leicht gelöst werden, da diese auf Alphabeten trainiert wurden. Wo liegt also ihre Grenze? Es liegt darin, dass sie scheitern werden, wenn wir das gleiche Problem mit einem anderen Alphabet oder anderen Symbolen angehen. Tatsächlich können sie ein Konzept, das sie mit einem Alphabet gelernt haben, nicht auf ein anderes anwenden. Menschen hingegen würden damit zurechtkommen. Etwas, das auf GPT-Modellen getestet und bewährt wurde.
SIEHE AUCH: Ist künstliche Intelligenz sexistisch? Das verrät diese Studie
KI versteht und sieht die Welt nicht wie ein Mensch: Es ist die nächste Revolution
Generative KI kann Situationen nicht bewältigen, für die sie nicht trainiert wurde. Ebenfalls, Sie verstehen die Welt nicht und sehen sie nicht so, wie Menschen es können. Alles, was diese beliebten Sprachmodelle tun, ist „basierend auf Mustern in den Daten und nicht auf menschlichem Verständnis“. Sie nutzen die Wahrscheinlichkeit. Im Gegensatz dazu basiert das menschliche Verständnis auf Konzepte, mentale Modelle. Letztere helfen dem Menschen dabei, Ursache-Wirkungs-Beziehungen zu ermitteln und sogar die wahrscheinlichen Ergebnisse zu erzielen, die verschiedene Situationen liefern können.
Darüber hinaus gibt der Professor dies zu Dieses Feld ist der nächste Schritt in der Revolution der künstlichen Intelligenz. Selbst wenn es ihr nicht gelingt, das menschliche Modell zu nutzen, könnte sie ihr eigenes Modell entwickeln, um die Welt wie wir zu verstehen.
BuzzWebzine ist ein unabhängiges Medium. Unterstützen Sie uns, indem Sie uns zu Ihren Favoriten bei Google News hinzufügen :