Nachdem Sam Altman mit einem Überblick über seine Reise durch die Technologiewelt begonnen hatte, gab er uns einige Einblicke darüber, was es bedeutet, für eine Technologie verantwortlich zu sein, die ebenso viel rohe Macht (soziale Macht, politische Macht usw.) wie KI besitzt.
Auf die Frage, was die schwierigsten Entscheidungen bei der Entwicklung von Systemen wie chatgpt gewesen seien, sagte Altman, dass die Forschungsrichtungen die schwierigsten und wichtigsten seien.
Außerdem, fügte er hinzu, müsse versucht werden, das Schadenspotenzial zu begrenzen. Die Steuerung des Verhaltens der KI-Engine und die Festlegung von Nutzungsbeschränkungen seien in gewisser Weise, so meinte er, der schwierigste Teil des Prozesses. Als Beispiel fragte er rhetorisch: „Soll chatGPT Rechtsberatung geben?“
„Es erscheint sehr vernünftig zu sagen, dass dies nicht der Fall sein sollte“, sagte Altman und verwies auf Halluzinationen und andere potenzielle Probleme. „Andererseits gibt es viele Menschen auf der Welt, die sich keine Rechtsberatung leisten können … (für die) vielleicht ist es besser als nichts.“
Bis zu einem gewissen Grad, so argumentierte er, seien Benutzer schlau und könnten lernen, verantwortungsvoll mit der Technologie umzugehen – aber sie bräuchten möglicherweise etwas Hilfe.
„Was wir uns wünschen, ist eine Welt, in der wir keine Dinge tun, die ein hohes Missbrauchspotenzial bergen“, sagte er.
Aber diese Welt zu erschaffen ist leichter gesagt als getan. Wie stellen Sie sicher, dass das System über die richtigen Leitplanken verfügt – und gibt es diese Art von Sicherheit überhaupt?
Altman präsentierte eine interessante Idee, die technologische Grenzen mit persönlicher Verantwortung verbindet, und schlug vor, dass es eine Art Leitfaden oder Handbuch geben sollte, das Benutzer konsultieren müssen, um zu lernen, wie man etwas wie chatGPT richtig und falsch verwendet, natürlich immer mit einem Achtung: Die Fahrt erfolgt auf eigene Gefahr.
„Es wird nicht wie bei den Nutzungsbedingungen sein“, sagte er und räumte ein, dass die meisten Menschen es gewohnt sind, die langen Textdokumente, die den Plattformen beigefügt sind, einfach zu ignorieren. Der Leitfaden, wie er ihn vorstellte, wäre etwas, das wesentlich wichtiger für das Benutzer-Onboarding ist, wie auch immer dies durchgesetzt wird.
Altman nannte uns noch ein weiteres Beispiel: Menschen können Gewalt anstiften und tun dies manchmal auch. Sollte chatGPT Gewalt auslösen können? Nein. Allerdings, so fragte er, sollte chatGPT in der Lage sein, eine von einem Menschen geschriebene Nachricht, die zu Gewalt aufstachelt, zu übersetzen?
Dort beginnen wir, die Grauzonen und die problematische Natur von Grenzen zu erkennen, die möglicherweise nicht für jeden so klar sind. Wie Altman sagte, kann man lange Zeit in „eine Kategorie“ vordringen und versuchen, die Sicherheitsstandards zu verfeinern. Aber wie die menschliche Welt wird auch die KI-Welt dazu neigen, chaotisch zu werden.
Ein weiterer Vorschlag von Altman betraf Systeme, die hochgradig anpassbar sind, aber dennoch definierte Grenzen haben. Er wies darauf hin, dass in einem solchen System die meisten Benutzer nicht damit zufrieden sein werden, was andere Benutzer mit der Technologie machen werden, aber die allgemeinen Grenzen werden klar sein und die Standardvorgaben werden auf einen höheren Nutzungsstandard ausgerichtet sein. Das macht durchaus Sinn, wenn man beispielsweise bedenkt, wie wir Autos, Fast Food usw. nutzen.
Aber er machte noch einen anderen Punkt.
„Letztendlich sollte OpenAI diese Entscheidungen nicht treffen“, sagte er und deutete damit an, dass die Regulierung von außen der Schlüssel sei. Viele von uns haben diese Vorstellung, aber es ist die Logistik, die schwierig wird. Wer wird die KI überwachen?
„Das Ziel des Tools“, sagte Altman, „besteht darin, seinem Benutzer zu dienen.“ Das fasst die Überlegungen zusammen, wie wir KI in Zukunft wahrscheinlich einsetzen werden: Sie ist eine mächtige Kraft, aber sie funktioniert mit Menschen und auch für Menschen.