Aber wussten Sie, dass Informatiker bereits in den 1960er Jahren mit Chatbots zusammengearbeitet haben? Heute spulen wir zurück und schauen uns den revolutionären Chatbot der 60er Jahre an, der offiziell als ELIZA bekannt war. Wir werfen einen genaueren Blick auf die seltsame Welt der Chatbots und untersuchen die Existenz von ELIZA und die Einflüsse, die es auf chatgpt, wie wir es kennen, hatte.

Die Chatbot-Hintergrundgeschichte

Es war Ende der 1960er Jahre und Joseph Weizenbaum, ein MIT-Informatiker, hatte gerade die Arbeit an seinem revolutionären Chatbot ELIZA abgeschlossen. Weizenbaum wurde 1923 in Berlin geboren und floh 1935 mit seiner Familie aus dem Land, um den politischen Unruhen zu entgehen. Weizenbaum kam in die Vereinigten Staaten, wo schließlich sein Weg zur Informatik beginnen sollte.

Nach einer Zeit bei der Luftwaffe studierte Weizenbaum Informatik und arbeitete schließlich in der Industrie. Man muss bedenken, dass Computer damals keine tragbaren Geräte waren, die in unsere Taschen passten. Tatsächlich passen sie oft kaum in einen Raum!

Als außerordentlicher Professor am MIT war Weizenbaum besessen davon, wie Computer über Sprache direkt mit Menschen interagieren können. Diese frühe Verbindung zwischen Computern und menschlicher Sprache sollte den Grundstein für seinen eigenen Chatbot legen und schließlich den Grundstein für die KI-Entwicklung von Programmen wie ChatGPT, Siri und Alexa legen.

Treffen Sie ELIZA

Weizenbaum glaubte, dass der effektivste Weg, eine Verbindung zwischen menschlicher Sprache und Computern herzustellen, darin bestünde, die Struktur einer Therapiesitzung nachzuahmen. Die allgemeine Idee wäre, dass ELIZA sich auf Schlüsselwörter konzentriert und durch eine Neuformatierung der ursprünglichen Bemerkung kontinuierlich offene Fragen stellt.

Siehe auch  Die sieben Möglichkeiten, wie Cyberkriminelle ChatGPT für ihre Angriffe nutzen

Eliza wurde 1966 fertiggestellt und Weizenbaum bot MIT-Studenten die Möglichkeit, mit dem Chatbot zu interagieren. Dieser Prozess bestand aus Nachrichten, die von den Schülern in den Computer eingegeben wurden. Die Antworten wurden dann von ELIZA bereitgestellt und an eine elektronische Schreibmaschine und einen Drucker weitergeleitet.

Eliza war darauf programmiert, sich auf Schlüsselwörter wie „Freundin“, „deprimiert“, „was“, „Mutter“ und „Vater“ zu konzentrieren. Für den Fall, dass ELIZA Schwierigkeiten hatte, die Fragen des Benutzers zu interpretieren, konnte das Programm auf „Bitte fahren Sie fort“, „Das ist sehr interessant“ oder „Verstehe“ zurückgreifen. Obwohl sie unspezifisch waren, trugen die Sätze in vielerlei Hinsicht dazu bei, die Illusion zu erzeugen, dass man mit einem Menschen interagierte und gleichzeitig daran arbeitete, den Gesprächsfluss aufrechtzuerhalten.

Ob Sie es glauben oder nicht! Während des gesamten Prozesses wurde den Schülern gesagt, sie sollten beim Stellen von Fragen keine Fragezeichen verwenden, da ELIZA diese als Aufforderung zum Löschen einer Zeile interpretierte!

Mehr als ein Computer?

Weizenbaum war anfangs zufrieden mit der Resonanz, die die Benutzererfahrungen mit ELIZA hervorriefen, aber es gab eine Sache, die ihm auffiel und die er als äußerst besorgniserregend empfand. Im Laufe der Zeit bemerkte Weizenbaum, dass Benutzer begannen, tiefgreifende persönliche Informationen preiszugeben und nach Hilfe suchten, ähnlich wie bei einer Therapiesitzung.

Diese Beobachtung veranlasste Weizenbaum schließlich dazu, zur Vorsicht aufzurufen, wenn er sich beim menschlichen Denken zu stark auf Computer verlässt.

YouTube Video

Als Weizenbaum sah, wie vielfältig die Reaktionen der Benutzer auf ELIZA waren und wie schnell es einigen gelang, ein Computerprogramm mit menschlicher Interaktion in Verbindung zu bringen, war er angesichts der Vorstellung, dass Computer zu menschlichem Denken und Gefühlen fähig seien, überdrüssig. Elizas eindimensionale Interaktion mit PARRY verfestigte Weizenbaums Bedenken weiter.

Siehe auch  Paar aus Colorado nutzt den KI-gestützten Roboter ChatGPT, um die Trauung durchzuführen

Waren Weizenbaums Bedenken berechtigt?

Wenn ich auf das Jahr 2023 zurückkomme, kann ich nicht anders, als darüber nachzudenken, was Weizenbaum über ChatGPT gedacht hätte. Ich möchte Ihnen ein Zitat von Weizenbaum hinterlassen Die New York Times zum Thema Computer, die die menschliche Intelligenz ersetzen:

„Es gibt Aspekte im menschlichen Leben, die ein Computer nicht verstehen kann. Es ist notwendig, ein Mensch zu sein. Liebe und Einsamkeit haben mit den tiefsten Konsequenzen unserer biologischen Konstitution zu tun. Ein solches Verständnis ist für den Computer grundsätzlich unmöglich.“

Ich denke, Weizenbaum würde im Zeitalter der fortgeschrittenen KI mit ChatGPT an seinen frühen Warnungen festhalten und weiterhin zur Vorsicht raten, während wir mit Volldampf in die KI vordringen.

Da haben Sie es also – von ELIZA bis hin zu ChatGPT sind die Menschen weiterhin darauf fixiert, die Computertechnologie auf ein unheimliches Niveau zu bringen. Haben Sie Erfahrungen mit Chatgpt? Lass es uns unten in den Kommentaren wissen!


ERKUNDEN SIE DAS SELTSAME PERSÖNLICH!

Entdecken Sie Hunderte seltsamer und ungewöhnlicher Artefakte und erleben Sie unglaubliche interaktive Dinge, wenn Sie ein Ripley’s Odditorium besuchen!

FINDEN SIE EINE ATTRAKTION IN IHRER NÄHE

Quelle: Lernen Sie ELIZA kennen: den Chatbot der 60er Jahre, der den Grundstein für ChatGPT legte

4.6/5 - (14 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein