Oh, chatgpt – wie wir dich lieben/hassen. Was auch immer Sie über den beliebtesten Chatbot des Internets denken, es lässt sich nicht leugnen, dass er sich schnell in unserem digitalen Leben festsetzt; aus beim Schreiben helfen Zu Finden Sie Ihr Traumhaus auf ZillowChatGPT ist jetzt überall.
Aber wie hält man eine KI in Schach? Schließlich haben wir bereits gesehen, dass Chatbots eine Vielzahl von Problemen verursachen. Microsoft musste kurz nach der Veröffentlichung seine Bing-KI zügeln, weil die Chatbot hat gelogen und Wutanfälle bekommenAI wird aggressiv für verwendet digitaler Betrugund ich konnte ChatGPT persönlich dazu bringen, seine Liebe zu preisen menschliche Säuglinge essen. Huch.
Nun, ich gebe hier nicht den Chatbots die Schuld. Ich gebe nicht einmal den Leuten die Schuld, die sie herstellen. Als unser geschätzter Chefredakteur sagte Lance Ulanoff, „Ich lebe nicht in Angst vor KI. Stattdessen fürchte ich die Menschen und was sie mit Chatbots machen werden“ – letztendlich sind es die Menschen, die diese mächtige neue Technologie nutzen, die anderen Menschen echte Probleme bereiten werden.
Das bedeutet jedoch nicht, dass KI-Unternehmen keine gesellschaftliche Verpflichtung haben, die Verwendung ihrer Chatbots sicher zu machen. Mit Schurken da draußen, die KI-Tools für alles verwenden, von Betrug bis hin zu Rachepornos, war ich sehr enttäuscht, das zu sehen Microsoft entließ sein gesamtes KI-Ethik-Team früher in diesem Jahr.
Als Pionier im KI-Bereich, der sich in vielerlei Hinsicht der KI verschrieben hat, sollte Microsoft besser abschneiden. Laut einer neuen Erklärung des Technologieriesen verfolgt das Unternehmen jedoch einen neuen Ansatz in Bezug auf die KI-Ethik.
KI ethisch vertretbar zu halten, erfordert viele Hände
In einem Blogeintrag (öffnet in neuem Tab)erläuterte Microsofts „Chief Responsible AI Officer“ Natasha Crampton den neuen Plan des Unternehmens: im Wesentlichen die Verteilung der Verantwortung für die KI-Ethik auf das gesamte Unternehmen, anstatt ein einzelnes Team damit zu beauftragen, die Kontrolle darüber zu behalten.
Von leitenden Mitarbeitern wird erwartet, dass sie sich verpflichten, „verantwortungsbewusste KI in jeder Kerngeschäftsgruppe anzuführen“, mit „KI-Champions“ in jeder Abteilung. Die Idee ist, dass jeder Microsoft-Mitarbeiter regelmäßigen Kontakt mit verantwortlichen KI-Spezialisten haben sollte, um ein Umfeld zu schaffen, in dem jeder versteht, an welche Regeln KI sich halten sollte.
Crampton diskutiert „umsetzbare Richtlinien“ für KI und verwies auf die von Microsoft „Verantwortungsvoller KI-Standard“ (öffnet in neuem Tab), das offizielle Regelwerk des Unternehmens für den Aufbau von KI-Systemen unter Berücksichtigung von Sicherheit und Ethik. Es ist alles eine sehr ernste Angelegenheit, die eindeutig darauf ausgelegt ist, einige der Reputationsschäden zu beheben, die durch den holprigen Start von Bing AI verursacht wurden.
Wird es trotzdem funktionieren? Das ist schwer zu beurteilen; Es ist ein guter Anfang, dafür zu sorgen, dass das gesamte Unternehmen die Risiken eines unverantwortlichen Einsatzes von KI versteht, aber ich bin nicht davon überzeugt, dass es ausreicht. Crampton merkt an, dass mehrere der aufgelösten Ethik-Teammitglieder in die Benutzerforschungs- und Designteams „eingeschleust“ wurden, um ihr Fachwissen zur Hand zu haben, was gut zu sehen ist.
Zensur, aber diesmal ist es wirklich gut (ich verspreche es)
Natürlich gibt es einen ganz anderen Weg, um sicherzustellen, dass KIs nicht für schändliche Zwecke verwendet werden – Zensur.
Wie ich aus erster Hand weiß, haben ChatGPT (und die meisten anderen Chatbots) ziemlich strenge Schutzprotokolle eingeführt. Sie können es nicht dazu bringen, vorzuschlagen, dass Sie etwas potenziell Schädliches oder Kriminelles tun, und es weigert sich standhaft, sexuelle Inhalte zu produzieren. Mit dem richtigen Know-how können Sie diese Barrieren umgehen, aber zumindest sind sie da.
Nvidia vor kurzem stellte eine neue KI-Sicherheitssoftware vor namens NeMo Guardrails, das einen dreigleisigen Ansatz verfolgt, um zu verhindern, dass maschinelle Lernprogramme abtrünnig werden. Um es schnell zusammenzufassen, diese „Leitplanken“ sind in drei Bereiche unterteilt: Sicherheit, Schutz und Aktualität. Die Sicherheitsschienen verhindern, dass der Bot auf Dinge auf Ihrem Computer zugreift, die er nicht sollte, während die Sicherheitsschienen daran arbeiten, Fehlinformationen zu bekämpfen, indem sie die Zitate der KI in Echtzeit überprüfen.
Die interessantesten der drei sind jedoch die aktuellen Leitplanken. Wie der Name schon sagt, bestimmen diese, welche Themen der Chatbot verwenden kann, wenn er einem Benutzer antwortet, was in erster Linie dazu dient, den Bot beim Thema zu halten und nicht verwandte Tangenten zu verhindern. Sie ermöglichen jedoch auch das Setzen von „verbotenen“ Themen.
Das Problem mit topischen Leitplanken
Mit Tools wie NeMo können Unternehmen einer KI effektiv verbieten, ein ganzes Thema in irgendeiner Form zu diskutieren. Nvidia hat offensichtlich großes Vertrauen in die Software und führt sie für Geschäftsanwender ein, sodass wir davon ausgehen können, dass sie zumindest funktioniert vernünftig gut – was, ehrlich gesagt, großartig sein könnte!
Wenn wir Leitplanken in öffentlich zugängliche KI-Modelle fest codieren können, die sie daran hindern, für Betrüger zu arbeiten oder illegale pornografische Inhalte zu erstellen, ist das eine gute Sache. Allen, die anderer Meinung sind, sage ich Folgendes: ChatGPT ist für Kinder leicht zugänglich. Wenn Sie der Meinung sind, dass buchstäbliche Kinder KI-generiertem Schmutz ausgesetzt sein sollten, möchte ich nicht mit Ihnen über KI diskutieren.
Es gibt jedoch bestimmte Probleme bei der Verwendung dieser Art von Zensur als Instrument, um die Zügel von KI-gestützter Software festzuhalten. Als Bloomberg Kürzlich wurde berichtet, dass ChatGPT-Alternativen, die in China auftauchen, ganz klar vom Staat zensiert werden und unfähig gemacht werden, verbotene Themen, die als politisch zu umstritten gelten, wie die Proteste auf dem Platz des Himmlischen Friedens von 1989 oder die unabhängige Nation Taiwan, angemessen zu diskutieren.
Ich möchte hier nicht zu politisch werden, aber ich denke, wir sind uns alle einig, dass diese Art der Zensur die „schlechte“ Art der Zensur ist. Online-Zensur in China ist leider alltäglich, aber stellen Sie sich vor, ChatGPT dürfte nicht über den Tod von George Floyd oder das Pequot-Massaker sprechen, weil diese Themen von Politikern als zu „sensibel“ erachtet wurden? Betrachtet man den aktuellen Stand des Weltgeschehens, ist es eine beunruhigend glaubwürdige Zukunft.
Wer beobachtet die Wächter?
Kommen wir noch einmal auf das eigentliche Problem mit KI zurück: uns. Wer bewacht die Leitplanken? Es ist alles schön und gut für Microsoft zu sagen, dass es Pläne vorantreibt, KI ethisch zu halten, aber was Crampton wirklich meint, ist, dass die KI des Technologieunternehmens sich an die Ethik von Microsoft halten wird – nicht der Welt. Das Weiße Haus enthüllte eine „AI-Bill of Rights“ letztes Jahr, und wieder, das ist die Vorstellung einer Präsidialverwaltung, wie KI-Ethik aussehen sollte, keine demokratisch beschlossene.
Um es klar zu sagen, ich sage nicht wirklich, dass Microsoft ein unethisches Unternehmen ist, wenn es um KI geht. Das überlasse ich Elon Musk und seinen Lächerlichkeiten „Anti-Wake“-Chatbot-Pläne. Aber es muss anerkannt werden, dass alle Regeln, denen eine KI folgen muss, zuerst von Menschen ausgewählt und programmiert werden müssen.
Letztendlich ist Transparenz König. KI sieht sich bereits ernsthaften Gegenreaktionen ausgesetzt, da sie in immer mehr Bereiche unseres Lebens eindringt, sei es bei Snapchat-Benutzern Review-Bombing des neuen KI-Assistenten der App oder ChatGPT wird wegen Verleumdung verklagt in Australien. Sogar Geoffrey Hinton, der berühmte „Godfather of AI“, hat davor gewarnt die Gefahren, die von KI ausgehen. Wenn sie Ärger vermeiden wollen, müssen Chatbot-Ersteller vorsichtig vorgehen.
Ich hoffe wirklich, dass der neue Ansatz von Microsoft (und Tools wie die Leitplanken von Nvidia) einen positiven Einfluss darauf haben, wie wir sicher und verantwortungsbewusst mit KI umgehen. Aber es bleibt noch viel zu tun – und wir müssen diejenigen kritisch im Auge behalten, die über die Regeln entscheiden, an die sich KIs halten müssen.