DIE Automobilindustrie arbeitet daran, das Benutzererlebnis in Autos zu verbessern und einen nahtloseren Übergang von Smart Homes zu Smart Cars zu ermöglichen. Das heißt, die gleichen digitalen Assistenten, die Sie in Ihrem Smart Home nutzen, sind seit einigen Jahren auch in Ihrem Auto verfügbar.

Diese Systeme waren jedoch allgemeiner und beschränkten sich oft darauf, nur bestimmte Befehle zu unterstützen, z. B. das Entriegeln der Tür oder das Starten des Motors.

Innenansicht und automatisches selbstgesteuertes Fahren mit Smartphone-Verbindung, Smart-Home-Steuerung, Elektro-Smart-Car-Technologie und rechtem Leerraum für Text. BEIGETRAGENES FOTO

Basierend auf diesen leistungsstarken KI-Sprachmodellen wie chatgpt könnten Autohersteller ihre eigenen digitalen Assistenten bauen und das KI-Modell mit automobilspezifischen Informationen trainieren. Ähnlich wie ChatGPT beispielsweise mit linux– und Unix-Manpages sowie den Programmiersprachen C und Python trainiert wurde, könnte man sich vorstellen, dass ein Autohersteller seinen digitalen Assistenten mit Informationen aus dem Benutzerhandbuch des Autos sowie Informationen zur Unterstützung gängiger Anwendungsfälle trainiert einschließlich Routenplanung, Integration mit Smart Homes und Geräten, Laden usw.

Dies würde es einem Benutzer ermöglichen, problemlos Fragen zu einer blinkenden Warnleuchte auf dem Armaturenbrett zu stellen, eine effiziente Route zum Flughafen zu planen, das Garagentor zu öffnen oder ein Benutzergerät anzuschließen, einen Ladeplatz zu finden und zu reservieren usw., ohne sich durchwühlen zu müssen B. ein umfangreiches Benutzerhandbuch oder verwenden und verwalten Sie mehrere Geräte oder Systeme.

Aber wie sieht es mit den Risiken aus? Es ist äußerst wichtig, zu berücksichtigen, welche Art von Trainingsdaten verwendet werden, und Richtlinien anzuwenden, die definieren, welche Antworten mit welcher Art von Informationen zulässig sind. Ähnlich wie die frühe Nutzung von ChatGPT mit begrenzten Einschränkungen es ihm ermöglichte, Malware und Hacking-Tools zu schreiben oder an Informationen zu gelangen, die in böswilliger Absicht verwendet werden könnten, könnte auch ein digitaler Assistent in Ihrem Auto missbraucht werden, um möglicherweise an bestimmte schädliche Informationen zu gelangen, z. B. wie B. um Schlüssel zu klonen oder nicht autorisierte Befehle auszuführen, was dazu führen könnte, dass Angreifer Autos stehlen.

Siehe auch  Wie Journalisten Chatbots mit künstlicher Intelligenz (KI) wie ChatGPT – Nairobi News nutzen können

Der Einsatz eines digitalen Assistenten in Ihrem Auto würde zwar viele Vorteile bieten und das Benutzererlebnis definitiv verbessern, es ist jedoch auch wichtig, die Risiken zu berücksichtigen. Daher ist es für Automobilunternehmen unerlässlich, darüber nachzudenken, welche Trainingsdaten verwendet werden, und darüber nachzudenken, in den Antworten gewisse Einschränkungen für den Inhalt vorzusehen, um Missbrauch oder Handlungen mit böswilliger Absicht zu verhindern.

Darüber hinaus hat Owasp die „OWASP Top 10 for LLM Applications“ veröffentlicht, die eine gute Informationsquelle für Automobilunternehmen sind, die sie bei der Entwicklung ihrer KI-Systeme berücksichtigen sollten. Es ist wichtig, sich der verschiedenen Arten von Cybersicherheitsbedenken oder -angriffen bewusst zu sein, um geeignete Sicherheitsmaßnahmen zu entwickeln. Bei einem Prompt-Injection-Angriff handelt es sich beispielsweise darum, dass ein Angreifer das KI-System mit bestimmten Daten füttert, damit es sich auf eine Weise verhält, für die es nicht vorgesehen war.

Die Offenlegung sensibler Informationen könnte erfolgen, wenn es einem Angreifer gelingt, bestimmte IP-bezogene Daten oder datenschutzbezogene Daten zu extrahieren. Das KI-Modell selbst könnte auch Ziel eines Training Data Poisoning-Angriffs sein, bei dem es durch das Training mit falschen Daten verunreinigt wird. Es besteht auch die Gefahr des KI-Modelldiebstahls, bei dem Angreifer den Inhalt des Modells zurückentwickeln oder analysieren könnten.

Darüber hinaus haben frühere Studien gezeigt, dass KI-Systeme in 80 Prozent der Fälle entsprechende Inhalte generieren, in 20 Prozent der Fälle jedoch scheinbar nur Inhalte erfinden, sogenannte „KI-Halluzinationen“. Daher ist es wichtig zu überlegen, für welche Aufgaben das KI-System verwendet wird, und eine übermäßige Abhängigkeit vom KI-System zu vermeiden.

Dennis Kengo Oka ist der Hauptstratege für Automobilsicherheit bei der Synopsys Software Integrity Group, einem Unternehmen, das integrierte Lösungen bereitstellt, die die Art und Weise, wie Entwicklungsteams Software erstellen und bereitstellen, verändern.

Siehe auch  Die ChatGPT-App von OpenAI kann jetzt das Web durchsuchen – allerdings nur über Bing
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein