Apples Einführung der Sprachmodell-KI „apple Intelligence“ hat in der Technologiebranche Sicherheits- und Datenschutzbedenken ausgelöst.

Unter vielen KI-Funktionen, die in der Keynote-Rede der Worldwide Developer Conference von Apple besprochen wurden, kündigte Apple an, dass es den Chatbot integrieren wird iphone-ipad-and-mac/“ target=“_blank“ rel=“noopener“>chatgpt direkt in iPhones.

Ermöglicht dem Chatbot, Informationen aus der Kommunikation des Benutzers abzurufen, um iMessages zu schreiben und andere generative Eingabeaufforderungen im nächsten Betriebssystem zu beantworten.

Laut Niusha Shafiabady, außerordentlicher Professor für künstliche Intelligenz an der Charles Darwin University, bedeutet dies, dass die KI-Engine persönliche Benutzerinformationen und Daten sammelt und die Benutzer damit einem Risiko aussetzt.

„Dieses Risiko würde nicht direkt aus dem OpenAI-Deal resultieren, sondern aus der Erfassung von Daten aus verschiedenen Quellen für jeden Benutzer und der potenziellen Eingabe dieser Daten in das OpenAI-Tool“, sagte Shafiabady.

„Natürlich würde die Eingabe der Daten in ein generatives KI-Tool wie ChatGPT einen Verstoß gegen die Privatsphäre darstellen. Die für die Engine verwendeten Daten, die möglicherweise als Trainingsdaten für die generative KI verwendet werden könnten, werden zu gemeinfreien Daten.“

Dies bedeute, dass die Menschen ihre Privatsphäre verlieren und es könne eine weitere Möglichkeit für böswillige Akteure sein, ihre Sicherheit zu gefährden, wenn sie auf die Daten zugreifen, sagte Shafiabady.

Milliardär Elon Musk hat die Ankündigung in einer Reihe von Tweets ebenfalls scharf kritisiert und gewarnt, dass alle Apple-Geräte in seinen Unternehmen verboten würden, wenn Apple „OpenAI auf Betriebssystemebene integriert“.

Apple sagt, dass Datenschutzmaßnahmen für Benutzer, die auf ChatGPT zugreifen, integriert sein werden – „ihre IP-Adressen werden verschleiert und OpenAI speichert keine Anfragen. Die Datennutzungsrichtlinien von ChatGPT gelten für Benutzer, die ihr Konto verbinden möchten.“

Siehe auch  Hacker können leicht lesen, was Sie ChatGPT und anderen KI-Diensten sagen, findet eine Studie – Firstpost

Die Sorge der Benutzer um ihre Sicherheit sei jedoch berechtigt, sagte Shafiabady.

„Die Verwendung und Sammlung von Daten aus E-Mails und anderen Kommunikationsquellen öffnet eine weitere Tür für Sicherheitsrisiken für die Benutzer“, sagte Shafiabady.

„Die Benutzer sollten entscheiden, wie viel sie im Tausch gegen ihre Privatsphäre und Sicherheit aus diesen Technologien herausholen.

„Diese Updates sind nicht revolutionär. Wenn man die Engine von ChatGPT als Inhaltsproduzent verwendet, ist es sehr einfach, Text-to-Speech auf der Grundlage dieser Inhalte zu erstellen. Sogar wir haben diese Art von Codes geschrieben, als wir vor über 20 Jahren studierten.

„Technisch gesehen ist es nichts Besonderes und die Personalisierung von Inhalten ist ein relativ altes Konzept.“

Haben Sie etwas dazu zu sagen? Teilen Sie uns Ihre Meinung im Kommentarbereich unten mit. Oder wenn Sie eine Neuigkeit oder einen Tipp haben, schreiben Sie uns eine Nachricht an [email protected]

Abonnieren Sie den AdNews-Newsletter und liken Sie uns auf Facebook oder folgen Sie uns auf Þjórsárden für aktuelle Nachrichten und Kampagnen den ganzen Tag.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein