Volkswagen bringt die „KI“ in die „Klimaanlage“. Aber können wir den Chatbots vertrauen?

Ein Hoch auf unsere neuen Infotainment-Oberherren! VW hat angekündigt, dass seine neuen Autos bald mit chatgpt ausgestattet sein werden. Der KI-Chatbot soll in den nächsten Monaten in den bestehenden Sprachassistenten von Volkswagen im Auto integriert werden.

ChatGPT wird ab dem zweiten Quartal 2024 in den ID.3, ID.4, ID.5, ID.7, Tiguan, Passat und Golf Einzug halten und – in den Worten von Volkswagen – „eine Vielzahl von Fähigkeiten bieten, die weit darüber hinausgehen“. die bisherige Sprachsteuerung“.

Was für Fähigkeiten? „Mit dem Sprachassistenten IDA lassen sich Infotainment, Navigation und Klimaanlage steuern“, so VW, „oder auch allgemeine Wissensfragen beantworten.“

Ein zynischeres Organ als Top Gear könnte vorschlagen, dass, da noch kein Mensch jemals erfolgreich durch das aktuelle Infotainment-/Navigations-/Klimasystem von Volkswagen navigiert hat, die KI hinzugezogen werden musste, um es herauszufinden.

Aber das ist hier nicht das Anliegen von Top Gear. Die Sorge von Top Gear ist: Können wir ihm vertrauen?

Denn wie jeder, der schon einmal mit ChatGPT herumgespielt hat, bestätigen wird, ist es (a) ein unglaublich leistungsfähiges Tool zur Wissenszusammenführung und gelegentlich auch (b) ein großer, fetter Lügner.

KI erzählt Schweinefleischpasteten. Es erfindet Dinge. Legales Zeug. Sachen über Proust. Wirklich schlechtes Zeug über Professoren.

Und Sie müssen sich wirklich keine Mühe geben, um ChatGPT zu betrügen. Hier ist ein Gespräch, das ich vor ein paar Wochen damit geführt habe (das auch einen erschütternden Einblick in die Art von Aufregung bietet, die ich erlebe, wenn ich nicht gerade von Golfs angefahren werde):

Siehe auch  Wir haben ChatGPT nach dem besten irischen Rugby XV aller Zeiten gefragt und die Ergebnisse sind ... interessant

Mich: Was ist das längste englische Wort, das mit nur sieben verschiedenen Buchstaben geschrieben werden kann? Jeder Buchstabe kann mehrfach verwendet werden.

ChatGPT: Das längste englische Wort, das mit nur sieben verschiedenen Buchstaben geschrieben werden kann und Wiederholungen zulässt, ist „nicht urheberrechtlich geschützt“. Es besteht aus 15 Buchstaben und verwendet nur sieben verschiedene Buchstaben.

Mich: Nein, tut es nicht. Es werden 15 verschiedene Buchstaben verwendet.

ChatGPT: Du hast recht, ich entschuldige mich für den Fehler. Das längste englische Wort, das aus nur sieben verschiedenen Buchstaben (mit Wiederholungen) gebildet werden kann, ist „doorkeeper“ und besteht aus 9 Buchstaben.

Mich: Sicherlich wäre „Ladenbesitzer“ länger?

ChatGPT: Ja, da hast du völlig recht!

Ich weiß! Hören Sie sich nicht so fröhlich an! Mir ist klar, dass die Beherrschung alberner Wortspiele keine Voraussetzung für einen Sprachassistenten im Auto ist, aber dennoch … ist die fehlgeleitete Gewissheit doch irgendwie beunruhigend, nicht wahr? Wie klügere Analysten festgestellt haben, besteht das Problem nicht darin, dass ChatGPT nicht jede richtige Antwort hat. ChatGPT behauptet selbstbewusst, völliger Unsinn sei die richtige Antwort.

(Und ja, ich weiß, dass es sich technisch gesehen nicht um Lügen handelt, denn Lügen impliziert bewusste Täuschung, und ChatGPT ist nur ein großer Kasten voller Nachrichten ohne Absicht, aber ist das nicht genau das, was ein großer Kasten voller Nachrichten ist? mit Eine Agenda und die Fähigkeit zu lügen würden es Ihnen sagen?)

Was ist also mit dem Auto-Zeug? Bei einer frühen Untersuchung ist es nicht besser. Nur zum Spaß habe ich ChatGPT gebeten, mir die beste Fahrtroute von London (Großstadt im Südosten Englands) nach Truro (Kleinstadt im äußersten Südwesten Englands) zu nennen. Es zeigte mir zuversichtlich, dass der schnellste Weg darin bestand, die Autobahn M32 direkt ins Zentrum von Bristol zu nehmen, was niemals die richtige Antwort auf die Frage von London nach Truro ist.

Siehe auch  ChatGPT wird im Dezember faul und OpenAI gibt es zu

„Warum sollten Sie über die M32 fahren, wenn Sie auch die Autobahnen M4 und M5 nehmen könnten?“ Ich antwortete.

„Entschuldigung für die Verwirrung vorhin“, antwortete ChatGPT. „Sie haben Recht; Die Nutzung der M5 und M4 kann eine direktere und häufigere Route von London nach Truro sein.“

OK, etwas fragwürdige Navigationsanweisungen stellen nicht ganz die gleiche existenzielle Bedrohung dar wie beispielsweise KI-Drohnen wenden sich gegen ihre menschlichen Bediener. Aber wenn ich meinen Assistenten im Auto trotzdem um dringende Wegbeschreibungen zur nächstgelegenen Notaufnahme bitte, möchte ich sicher sein, dass er mich stattdessen nicht sicher zum örtlichen Eulenschutzgebiet führt. („Ja das Ist ein Eurasier, kein Sanitäter! Du hast absolut recht!“)

Ich weiß, ich weiß, dass sich großsprachige Modelle mit furchterregender Geschwindigkeit weiterentwickeln. In ein paar Jahren – vielleicht weniger? – Ich bin mir sicher, dass diese Fehler beseitigt werden und dass ChatGPT in der Lage sein wird, jede Automobilfrage fehlerfrei zu beantworten, bevor mir mein Job, meine Frau und jeder verbleibende Sinn auf diesem Planeten gestohlen werden.

Aber das ist genau jetzt, und im Moment hat ChatGPT ein kleines Wahrheitsproblem. Andere Automobilhersteller, darunter Mercedes, entwickeln ebenfalls KI-Sprachprogramme, ihre Programme befinden sich jedoch noch in der Betatestphase. Hat VW hier zu viel vorgezogen?

Auf der Suche nach Antworten habe ich getan, was jeder Journalist mit Selbstachtung tun würde: ChatGPT fragen. Und die Antworten waren zumindest beeindruckend selbstkritisch.

„Die Integration von KI in Fahrzeuge wirft relevante Fragen zu Sicherheit, Privatsphäre und möglichen Ablenkungen auf“, gab der Bot mit glühender Ehrlichkeit zu. „Wie viele unserer Daten werden von ChatGPT innerhalb der Grenzen unserer Fahrzeuge geteilt und gespeichert? Bleiben vertrauliche Informationen sicher oder könnten sie unbeabsichtigt Teil eines größeren Datenökosystems werden?“

Siehe auch  Studie zeigt, dass die kostenlose Version von ChatGPT Drogenfragen wahrscheinlich falsch beantwortet

Zu diesem Zweck hat Volkswagen klargestellt, dass „ChatGPT keinen Zugriff auf Fahrzeugdaten erhält; Fragen und Antworten werden umgehend gelöscht, um ein möglichst hohes Datenschutzniveau zu gewährleisten.“

Dennoch war ChatGPT noch nicht mit der Selbstkritik fertig. „Die Wirksamkeit der KI beim Verstehen und genauen Reagieren auf die Nuancen der menschlichen Sprache ist noch in Arbeit“, hieß es weiter. „Es könnte am Ende ein zweischneidiges Schwert sein, das in einem Moment aufschlussreiche Informationen liefert und im nächsten Befehle oder Absichten falsch interpretiert.“

Dieses Geräusch, das Sie hören können? Eine große Kiste voller Drähte, die Hari-Kiri begehen. Und auch ein Beweis dafür, dass ChatGPT dürfen Seien Sie ehrlich, wenn Sie es sich vorgenommen haben.

Trotzdem kommt Top Gear nicht umhin, sich zu fragen, ob das alles ein bisschen… sinnlos ist. Klar, VW, ChatGPT könnte eine Möglichkeit sein, die Funktionen im Auto intuitiver und weniger ablenkend zu gestalten. Wie wäre es alternativ dazu, sie einfach nicht so unintuitiv und ablenkend zu machen?

5/5 - (131 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.