Vor Kurzem hat OpenAI sein KI-Erkennungstool wegen geringer Genauigkeit eingestellt. Diese Veranstaltung verdeutlicht die Herausforderung, KI-generierte Inhalte von von Menschen geschriebenem Material zu unterscheiden. Darüber hinaus hat eine neue Studie gezeigt, dass die Leistung von chatgpt im Laufe der Zeit abnimmt. In diesem Artikel werden die Herausforderungen untersucht, vor denen KI bei der Selbsterklärung steht, die Erkenntnisse aus dem neuen Bericht und die Auswirkungen auf die Zukunft der KI. Vor welchen Herausforderungen steht die KI, wenn es darum geht, sich selbst zu erklären, was hat der neue Bericht enthüllt und ist dies die Stärke der KI?

Vor welchen Herausforderungen steht die KI bei der Selbsterklärung?

Während die Welt in eine neue Ära der Technologie eintritt, die von KI dominiert wird, Niemand kann sicher sein, wie die Zukunft aussehen wird. Manche glauben, dass KI und Automatisierung zu einer Zeit des Überflusses führen und den menschlichen Faktor bei der Arbeit eliminieren werden. Andere glauben, dass KI von einer Minderheit der Gesellschaft kontrolliert wird und tatsächlich eine große Zahl von Menschen arbeitslos macht.

Bisher sieht es so aus, als würde die KI gewaltige Fortschritte machen Vorteile für den Arbeitsplatz durch die Ausführung von Routineaufgaben, denen es an Vorstellungskraft mangeltEs regt die menschliche Kreativität an, indem es Ideen hervorbringt und in der Lage ist, komplexe Analysen an Daten durchzuführen, mit denen herkömmliche Algorithmen zu kämpfen haben (z. B. Sprachaufgaben). Zwar gibt es Belege dafür, dass KI in manchen Berufen den menschlichen Faktor verdrängt, doch ist dies noch kein dominierender Faktor in der KI-Branche.

Beim Einsatz von KI gibt es jedoch zahlreiche Bedenken, etwa hinsichtlich der Rechtmäßigkeit der Ergebnisse, wenn das Training auf urheberrechtlich geschützten Daten basiert, oder der Möglichkeit, die Privatsphäre des Einzelnen zu verletzen, wenn Zugang zu personenbezogenen Daten gewährt wird. Eine weitere Sorge, die immer größer wird, ist die Unfähigkeit der KI, ihre Antwort zu erklären und zu vermitteln, wie sie zu ihrer Schlussfolgerung gelangt ist.

Im Kern besteht KI aus vielen miteinander verbundenen Schichten, die mit bestimmten Punkten, sogenannten Knoten, verbunden sind. Wenn die KI Trainingsdaten empfängt, Diese Verbindungen werden feinabgestimmt, bis die Ausgabe der KI übereinstimmt mit dem erwarteten Ergebnis.

Damit die KI mit neuen Daten präzise arbeiten kann, benötigt sie vielfältige Trainingsdaten. Dies hilft der KI, Ähnlichkeiten zwischen verschiedenen Datensätzen zu erkennen. Wenn Sie einer KI beispielsweise hundertmal dasselbe Bild eines Apfels zeigen, erkennt sie nur dieses bestimmte Bild.

Einmal trainiert, kann eine KI Bilder von Äpfeln erkennen, aber im Gegensatz zu Menschen Es ist nahezu unmöglich, die KI zu fragen, wie sie zu ihrem Schluss gekommen ist.

Siehe auch  Anwälte brechen Fall gegen OpenAI ab – Rolling Stone

Darüber hinaus wäre die Visualisierung des neuronalen Netzwerks einer KI auch für einen Menschen unverständlich, da Tausende von Verbindungen, gewichteten Knoten und Gleichungen gleichzeitig berechnet werden. Der Versuch, die Schlussfolgerung einer KI zu erklären, wäre wahrscheinlich so etwas wie „weil Matrix Nummer 734 einen Wert von 0,23 ergab, was dazu führte, dass Matrix Nummer 865 einen Wert von 0,56 ergab, der überhaupt keinen Kontext enthielt.“ Diese Komplexität beim Verständnis von KI führt uns zu den jüngsten Entwicklungen bei KI-Erkennungstools.

Aber warum ist diese Unfähigkeit, sich selbst zu erklären, ein so großes Problem für die KI? Das Problem dabei ist, dass es äußerst schwierig wird, festzustellen, ob das Ergebnis einer KI korrekt ist (da sie ihre Antwort nicht rechtfertigen kann). Schlimmer noch: Wenn bekannt ist, dass die Antwort falsch ist, ist es ohne große Mengen an Trainingsdaten, die dabei helfen können, das neuronale Netzwerk von dieser Antwort abzulenken, sehr schwierig, die Reaktion zu diagnostizieren und zu beheben.

Die Komplexität verstehen: Wie KI funktioniert und warum sie sich nicht selbst erklären kann

Die Unfähigkeit der KI, ihre Antworten zu erklären, liegt in der komplexen Funktionsweise von KI-Systemen begründet. Im Wesentlichen besteht eine KI aus mehreren Schichten miteinander verbundener Pfade und gewichteter Knoten. Während die KI Trainingsdaten empfängt, werden diese Verbindungen feinabgestimmt, bis die Ausgabe der KI mit dem erwarteten Ergebnis übereinstimmt.

Damit KI mit neuen Daten funktioniert, muss sie anhand verschiedener Beispiele trainiert werden. Wenn einer KI mehrmals das gleiche Bild eines Apfels gezeigt wird, erkennt sie nur dieses bestimmte Bild. Aber wenn es an verschiedenen Bildern von Äpfeln trainiert wird, lernt es, die gemeinsamen Merkmale eines Apfels zu erkennen.

Einmal trainiert, kann eine KI Äpfel in zukünftigen Bildern identifizieren, aber es ist nahezu unmöglich, die KI zu fragen, wie sie zu ihrer Schlussfolgerung gelangt ist. Die Komplexität seiner internen Abläufe mit Tausenden von Zusammenhängen und Berechnungen macht es für den Menschen schwierig, es zu verstehen. Diese Unfähigkeit, sich selbst zu erklären, stellt eine große Herausforderung für die KI dar, da sie es schwierig macht, festzustellen, ob ein Ergebnis korrekt ist, oder wie man es korrigieren kann, wenn es falsch ist.

OpenAI schließt den KI-Detektor und die Leistung lässt nach

Kürzlich, OpenAI gab bekannt, dass es sein KI-Detektor-Tool schließen wird, das es entwickelt hat, um Akademikern und Forschern bei der Identifizierung von KI-Inhalten zu helfen. Als ChatGPT zum ersten Mal veröffentlicht wurde, dauerte es nicht lange, bis Schüler auf der ganzen Welt die Schreibfunktionen nutzten, was die Lehrer sofort überwältigte. Da ChatGPT extrem menschenähnlich geworden ist, hatten Lehrer oft Schwierigkeiten, solche Inhalte zu identifizieren, und haben in einigen Fällen Schüler fälschlicherweise des Betrugs beschuldigt, obwohl sie es nicht taten.

Die jüngste Entscheidung von OpenAI, sein KI-Detektor-Tool einzustellen, ist eine bedeutende Entwicklung auf diesem Gebiet. Der offiziellen Ankündigung zufolge Der KI-Klassifikator ist aufgrund seiner geringen Genauigkeit nicht mehr verfügbar. Der Klassifizierer stand bei der Identifizierung von KI-geschriebenem Text vor Herausforderungen, mit einer Richtig-Positiv-Rate von nur 26 % und einer Falsch-Positiv-Rate von 9 %. Diese Einschränkungen verdeutlichen die Komplexität der Unterscheidung zwischen menschlichen und KI-generierten Inhalten, insbesondere bei kurzen Texten und vorhersehbaren Inhalten.

Siehe auch  ChatGPT und Energie: Die versteckten Kosten einer Konversation

Doch während das Tool mit dem Ziel veröffentlicht wurde, KI-Inhalte zu erfassen, wurde es nun aufgrund seiner geringen Genauigkeit eingestellt. Einfach ausgedrückt ist die Fähigkeit von ChatGPT, realistische menschliche Inhalte zu produzieren, so gut geworden, dass selbst die OpenAI-eigenen Tools den Unterschied nicht erkennen können. Laut OpenAI entwickeln sie ihre eigenen Prüftools neu, um neue Methoden zum Erkennen von KI-Inhalten zu finden, haben aber bisher kein brauchbares Tool entwickelt.

Jedoch, Dies ist nicht die einzige Herausforderung, vor der OpenAI steht. Ein neuer Bericht von Forschern der Stanford University hat überprüfbare Daten veröffentlicht, die zeigen, wie sich die Leistung von ChatGPT im vergangenen Jahr tatsächlich verschlechtert hat. In ihrem Bericht verglichen sie die Fähigkeiten von ChatGPT 4.0 und 3.5 im vergangenen Jahr, indem sie die KI mit verschiedenen Herausforderungen testeten, einschließlich der Identifizierung von Primzahlen.Performance Of The March 2023 And June 2023 Versions Of Gpt 4 And Gpt 3 5

Abbildung 1: Ein Vergleich der Leistung zwischen den Versionen März 2023 und Juni 2023 von GPT-4 und GPT-3.5 bei acht verschiedenen Aufgaben: (a,b) Bewältigung mathematischer Herausforderungen (Primzahlen vs. zusammengesetzte Zahlen und glückliche Zahlen), (C) Bearbeitung sensibler Anfragen, (D) Teilnahme an Meinungsumfragen, (e) Verwendung einer LangChain-App zur mehrstufigen Beantwortung von Fragen, (F) Erstellen von ausführbarem Code, (G) Durchführung der ärztlichen USMLE-Untersuchung, (H) sich an Übungen zum visuellen Denken beteiligen. Innerhalb jeder Aufgabe wird ein Beispiel in einem violetten Kästchen dargestellt, wobei die Gesamtzahl der Beispiele, mit „n“ gekennzeichnet, in der Überschrift enthalten ist. Im Laufe der Zeit wies die Leistung der Modelle erhebliche Schwankungen auf und verschlechterte sich gelegentlich.

Ein Beispiel hierfür war die Berechnung von Primzahlen. Es wurde festgestellt, dass ChatGPT-4 im März 2023 richtig erraten konnte, ob die Zahl 17077 eine Primzahl war, während ChatGPT-3.5 oft Schwierigkeiten hatte. Im Juni 2023 drehte sich dieses Ergebnis jedoch um, sodass ChatGPT-3.5 die richtige Antwort erhielt, ChatGPT-4 jedoch die meiste Zeit scheiterte. Es wurde außerdem festgestellt, dass bei ChatGPT-3.5 zwar sowohl Leistungsverbesserungen als auch -einbußen zu verzeichnen waren, bei ChatGPT-4 jedoch insgesamt eine schlechtere Leistung zu verzeichnen war.

Wie hängt das mit der Herausforderung zusammen, dass KI sich selbst erklärt? Da ChatGPT nicht erklären kann, wie und warum es zu seinen Schlussfolgerungen kommt, gibt es keine wirkliche Möglichkeit zu wissen, welche Trainingsdaten zu der Leistungsminderung geführt haben.

Die Auswirkungen auf Pädagogen und die Zukunft der KI-Erkennung

Die Herausforderungen bei der Identifizierung von KI-geschriebenen Texten haben Diskussionen unter Pädagogen, Journalisten und Forschern ausgelöst. OpenAI hat mit diesen Communities zusammengearbeitet, um die Auswirkungen zu verstehen, und arbeitet aktiv daran Entwicklung effektiverer Provenienztechniken. Die laufende Forschung und Zusammenarbeit mit betroffenen Gemeinden spiegelt das Engagement für den sicheren und verantwortungsvollen Einsatz großer Sprachmodelle wider.

Aktuelle Erkenntnisse von a Forschungsbericht der Stanford University haben die Komplexität dieser Herausforderung weiter betont. Die Studie zeigte, dass sich das Verhalten von GPT-3.5 und GPT-4 innerhalb relativ kurzer Zeit erheblich verändert hat. Diese Variation unterstreicht die Notwendigkeit, das Verhalten großer Sprachmodelle (LLMs) wie ChatGPT kontinuierlich zu bewerten und zu bewerten, insbesondere da nicht transparent ist, wie sie im Laufe der Zeit aktualisiert werden.

Siehe auch  ChatGPT hielt einen Gottesdienst in Deutschland ab – Snob

Die Forschung verdeutlichte auch die Schwierigkeit, die vielfältigen Fähigkeiten von LLMs einheitlich zu verbessern. Bemühungen, die Leistung des Modells bei bestimmten Aufgaben zu verbessern, können in anderen Bereichen zu unerwarteten Nebenwirkungen führen. Beispielsweise kam es sowohl bei GPT-3.5 als auch bei GPT-4 zu Leistungseinbußen bei einigen Aufgaben, während sie sich bei anderen verbesserten. Diese unterschiedlichen Trends und Verschiebungen im Gedankenkettenverhalten und in der Ausführlichkeit der Modelle stellen Entwickler und Benutzer gleichermaßen vor einzigartige Herausforderungen.

Die Forscher haben ihre Absicht zum Ausdruck gebracht, GPT-3.5, GPT-4 und andere LLMs im Laufe der Zeit bei verschiedenen Aufgaben weiter zu überwachen. Sie empfehlen außerdem, dass Benutzer oder Unternehmen, die auf LLM-Dienste angewiesen sind, ähnliche Überwachungsanalysen für ihre Anwendungen implementieren. Diese kontinuierliche Wachsamkeit und Zusammenarbeit zwischen Forschern, Entwicklern und Nutzern sind von entscheidender Bedeutung, um den verantwortungsvollen und effektiven Einsatz von KI-Technologien in verschiedenen Bereichen, einschließlich der Bildung, sicherzustellen.

Liegt es an der Macht der KI?

Es besteht kein Zweifel daran, dass mit zunehmender Rechenleistung auch die Fähigkeiten der KI zunehmen werden, sodass der Leistungsabfall bei ChatGPT aufgrund der physischen Einschränkungen der KI unwahrscheinlich ist. Während die genauen internen Abläufe von ChatGPT nicht genau öffentlich sind, ist es sehr wahrscheinlich, dass vom Benutzer eingereichte Korrekturen und Rückmeldungen dabei helfen, das Sprachmodell zu trainieren, was bedeutet, dass es wahrscheinlich große Mengen an falschem Feedback gibt, das die KI nur verwirrt.

Darüber hinaus sollte es auch verstanden werden ChatGPT wurde wahrscheinlich künstlich verändert, um Ausgaben zu erzeugen, die seinem Regelsatz entsprechen (z. B. keine diskriminierenden Inhalte produzieren). Dies macht ChatGPT zwar zu einer benutzerfreundlicheren KI, hat jedoch das Potenzial, ihre Fähigkeiten zu beeinträchtigen. Da KI-Systeme ihre Ergebnisse nicht erklären können, lässt sich nicht sagen, wie sich diese Regeln auf das Vorhersagesystem auswirken.

Insgesamt ist klar, dass KI zu einem immer leistungsfähigeren Werkzeug wird und dass Werkzeuge zur Identifizierung solcher Inhalte immer weniger leistungsfähig sind. Selbst der Einsatz von KI zur Identifizierung von KI scheitert an der Fähigkeit der KI, menschlich zu wirken.

Abschluss

Die sich ständig verändernde Welt der künstlichen Intelligenz bietet sowohl bemerkenswerte Chancen als auch komplexe Herausforderungen. Jüngste Entwicklungen, wie die schwankende Leistung von Modellen wie ChatGPT und die Feinheiten von KI-Erkennungstools, unterstreichen die Notwendigkeit kontinuierlicher Forschung, Verständnis und verantwortungsvollem Management. Wenn wir die Macht der KI nutzen, müssen wir auch ihre Grenzen erkennen und gemeinsam daran arbeiten, diese zu überwinden. Die Zukunft der KI steckt voller Potenzial, erfordert jedoch einen durchdachten Ansatz, um ihre Vorteile voll auszuschöpfen, ohne der Komplexität zu erliegen.

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein