In unserer ersten Kolumne haben wir Wikipedia besprochen. Die Website ist schnell, die Informationen sind leicht verständlich und sie ist eine gute erste Anlaufstelle bei der Recherche zu einem neuen Thema. Darüber hinaus lobten wir den Open-Source-Bearbeitungsprozess der Website, der ein breites Spektrum an Perspektiven ermöglicht und darauf abzielt, unvoreingenommene Informationen zu liefern.
Aber in letzter Zeit hat die rasante Entwicklung generativer KI-Plattformen dazu geführt, dass viele Studenten – uns eingeschlossen – sich anderswo umsehen. Tatsächlich hat die Fakultät für Künste und Naturwissenschaften diesen Sommer ihre ersten Leitlinien zum Einsatz generativer KI in Harvard-Klassenzimmern veröffentlicht und damit gezeigt, dass diese Technologie zu einem unverzichtbaren Bestandteil des Studentenerlebnisses wird.
Generative KI-Plattformen wie chatgpt von OpenAI und Bard von google stellen wie Wikipedia spezifische, leicht lesbare Informationen auf Abruf bereit. Aber wo Wikipedia mit seiner allgemeinen Wahrhaftigkeit, Transparenz und pluralistischen Inhaltsproduktion erfolgreich ist, scheitern diese KI-Produkte.
Generative KI-Technologien zeigen häufig soziale und politische Voreingenommenheit, unterliegen Zensur und liefern ungenaue oder unvollständige Informationen. Wenn wir uns bei der Entwicklung unserer Meinungen zu sehr auf generative KI als Informationsquelle verlassen, können diese Funktionen unsere Standpunkte einschränken und unsere anschließenden Diskussionen verschlechtern.
Obwohl die KI ständig aktualisiert und verbessert wird, hat die Forschung an großen Sprachmodellen erhebliche Verzerrungen gezeigt, die unsere Perspektiven übermäßig trüben können.
A Studie Anfang dieses Jahres stellte fest, dass ChatGPT linke und libertäre Positionen bevorzugte; Von Meta entwickelte Modelle wie LLaMA und RoBERTa tendierten vergleichsweise eher zum Autoritarismus.
Letzten Monat veröffentlichte Forschungsergebnisse von einem Team von Adobe, der University of California, Los Angeles und der University of Southern California zeigten, dass bei der Aufforderung an ChatGPT und Alpaca, Empfehlungsschreiben zu verfassen, erhebliche Unterschiede in der Sprache je nach Geschlecht des Empfehlungsempfängers verwendet wurden.
Ein Teil des Ansatzes von OpenAI besteht darin, „KI-Systeme an menschlichen Werten auszurichten“. Dieser Prozess umfasst eine Methode namens „Reinforcement Learning from Human Feedback“, bei der Modelle direkten Input von menschlichen Testern erhalten.
Es gibt jedoch keine einheitlichen oder universellen menschlichen Werte. Werte sind subjektiv und für jeden Einzelnen einzigartig. Die Annahme einer Reihe übergreifender menschlicher Werte steht im Widerspruch zu der Vielfalt der Perspektiven, die für einen freien und offenen Diskurs erforderlich sind.
Die Werte einer Person können auch der deutlichste Ausdruck ihrer Voreingenommenheit sein. Da diese Werte während des Trainingsprozesses genutzt werden, können wir nur erwarten, dass diese Vorurteile ihren Weg in die von den Modellen erstellten Inhalte finden.
Sogar Sam Altman, der kürzlich wieder eingesetzte CEO von OpenAI, räumt ein, dass Vorurteile direkt in das ChatGPT-Modell eingebaut sind. Wir können nicht erwarten, dass die Ergebnisse, die uns generative KI liefert, neutral oder objektiv sind; Daher können wir diese Ergebnisse nicht zuverlässig als Grundlage für eine sinnvolle Diskussion verwenden.
Generative KI weist nicht nur Vorurteile auf, sondern weist auch Zensurprobleme auf.
Richtlinien zur akzeptablen Nutzung haben eingeschränkt, welche Informationen eine KI-Technologie bereitstellen und welche Aufgaben sie ausführen kann. Antworten auf Fragen zu kontroversen Themen liegen oft zwischen Haftungsausschlüssen, sofern die KI überhaupt eine Antwort liefert.
OpenAI beispielsweise verhindert, dass ChatGPT schädliche oder anstößige Inhalte generiert. Aber wie bei menschlichen Werten ist ein solcher Maßstab völlig subjektiv. Da wir immer mehr auf KI angewiesen sind, um neue Informationen zu lernen, birgt diese Zensur die gefährliche Gefahr, unsere Weltanschauungen und Perspektiven einzuschränken und sie an die willkürlichen moralischen Rahmenbedingungen anzupassen, die von Technologieunternehmen gewählt werden.
Darüber hinaus beeinträchtigt der Einsatz generativer KI die Qualität der von uns konsumierten Informationen. Wenn wir einen Chatbot verwenden, geben wir Volumen und Komfort Vorrang vor Tiefe und Qualität. ChatGPT fasst komplizierte Themen häufig in ein paar hundert Wörtern zusammen. Wenn wir direkt zur Zusammenfassung gehen, werden uns die Nuancen entzogen, die wir möglicherweise in anderen Quellen finden, was sich negativ auf die Qualität unserer Gespräche auswirkt.
KI-Ausgaben mangelt es oft an mehr als nur Kontext – manchmal mangelt es ihnen auch an Genauigkeit. Tatsachenbehauptungen großer Sprachmodelle werden nicht zitiert, und OpenAI selbst räumt ein, dass ChatGPT gelegentlich „Fakten erfindet oder Ausgaben ‚halluziniert‘“, um eine kohärente Antwort zu konstruieren.
Sowohl ChatGPT als auch Bard veröffentlichen auf ihren Websites Haftungsausschlüsse, die Benutzer vor diesen Möglichkeiten warnen. Ein extremes Beispiel für dieses Phänomen ist der Wertverlust der Google-Aktie Anfang des Jahres um 9 Prozent, nachdem Bard bei seiner allerersten öffentlichen Demo bei einer Lüge erwischt wurde.
Ohne eine gemeinsame Basis offener und belastbarer Informationen können wir kein gesundes Umfeld für freie Meinungsäußerung haben. Um den Auswirkungen dieser generativen KI-Probleme auf unseren kollektiven Diskurs entgegenzuwirken, müssen wir uns bemühen, aus einer Vielzahl von Quellen zu lernen – einschließlich wissenschaftlicher Zeitschriften, Büchern und Gesprächen mit unseren Kollegen.
Wir müssen die Informationen, auf die wir stoßen, verifizieren, und wir sollten auf keinen Fall blind alles, was generative KI hervorbringt, für wahr oder unvoreingenommen halten. Diese Strategien werden uns helfen, eine fundierte Meinung zu bilden und die Richtigkeit der von uns konsumierten Informationen besser zu gewährleisten.
Generative KI wird den Wert, den Wikipedia für Studierende hat, nicht nur erreichen, sondern wahrscheinlich sogar übertreffen. Aber wir müssen die Fehler der Technologie schnell verstehen.
KI spielt in unserem Leben in Harvard eine wichtige Rolle. Es kann Feedback zum Schreiben geben oder schwierige mathematische Konzepte erklären – vielleicht eines Tages besser als Ihr Lehrkollege. Aber eine übermäßige Abhängigkeit von KI wird uns bei unserem Streben nach Veritas nur schaden.
Milo J. Clark ’24 ist Physikkonzentrator im Lowell House. Tyler S. Young ’26 ist ein gemeinsamer Schwerpunkt für Elektrotechnik sowie Chemie und Physik in Leverett House. Ihre Kolumne „Voices Unbound“ erscheint alle zwei Wochen dienstags.