OpenAI hat die chatgpt-App offiziell für die iOS-Plattform eingeführt. In den Berichten von Reuters und dem Wall Street Journal wurde jedoch eine weitere damit zusammenhängende Nachricht erwähnt: apple hat interne Dokumente verabschiedet, die es Mitarbeitern untersagen, ChatGPT oder andere externe KI-Tools im Unternehmen zu verwenden.

Eine Zeit lang diskutierten Internetnutzer weiter: Welche Art von Rückwärtsoperation spielt Apple?

Es gibt viele Lehren aus der Vergangenheit und Apple ist besorgt über den Verlust von Daten

Offensichtlich kam diese Operation von Apple nicht aus dem Nichts.

Den Dokumenteninformationen zufolge liegt der Hauptgrund darin, dass Apple befürchtet, dass Mitarbeiter, die ChatGPT oder andere externe KI-Tools verwenden, vertrauliche Informationen preisgeben könnten. Darüber hinaus wird in dem Dokument auch betont, dass Mitarbeiter nicht Microsofts GitHub Copilot zum Generieren von Code verwenden sollten.

Apple ist seit langem für seine strengen Sicherheitsmaßnahmen zum Schutz zukünftiger Produkte und Verbraucherdaten bekannt.

ChatGPT hat zwei Monate nach seiner Einführung 100 Millionen aktive Benutzer erreicht. Als Chatbot, der von einem großen Sprachmodell abgeleitet ist, ist die Leistungsfähigkeit von ChatGPT unbestreitbar, aber wenn Benutzer ihn verwenden, wird das Material zur kontinuierlichen Verbesserung an die Entwickler zurückgesendet, sodass Organisationen versehentlich proprietäre oder vertrauliche Informationen weitergeben können. Informationen.

Insbesondere in Informationsfragen lassen sich aus der Vergangenheit viele Lehren ziehen.

Am 20. März kam es zu einem Unfall, bei dem Benutzerkonversationsdaten und Zahlungsdienstinformationen auf der ChatGPT-Plattform verloren gingen.

Siehe auch  Forscher zwangen ChatGPT und Bard, illegale Inhalte zu generieren – ForkLog

Am 31. März teilte die italienische Datenschutzbehörde mit, sie habe das umstrittene ChatGPT blockiert und erklärt, die KI-App respektiere Benutzerdaten nicht und könne das Alter der Benutzer nicht überprüfen.

Anschließend stellte die italienische Agentur für den Schutz personenbezogener Daten auch die Frage, ob die groß angelegte Erhebung und Verarbeitung personenbezogener Daten für Trainingsplattformalgorithmen durch OpenAI eine Rechtsgrundlage hat.

Anschließend gab auch Sam Altman, CEO von OpenAI, eine entsprechende Antwort: Wir halten uns auf jeden Fall an die italienische Regierung und haben die Verwendung von ChatGPT in Italien eingestellt, obwohl wir glauben, dass wir alle Datenschutzgesetze einhalten.

Im April warnte Europol, die Strafverfolgungsbehörde der Europäischen Union, dass ChatGPT für Phishing, Desinformation und Cyberkriminalität missbraucht werden könnte, was Bedenken aufwarf, die von rechtlichen bis hin zu ethischen Fragen reichten.

Mehrere Maßnahmen: Softwareüberwachung stärken, KI-Technologie entwickeln

Aufgrund der durch ChatGPT verursachten Datenschutz- und Sicherheitsbedenken hinsichtlich personenbezogener Daten hat Apple neben der Einschränkung der Nutzung durch Mitarbeiter auch andere Maßnahmen ergriffen.

Einerseits behält Apple die neue Software im iphone App Store aufmerksam im Auge. Als der App-Entwickler Blix kürzlich versuchte, seine E-Mail-App BlueMail mit der ChatGPT-Funktion zu aktualisieren, blockierte Apple das Update vorübergehend mit der Begründung, es könnte für Kinder unangemessene Inhalte anzeigen.

Anschließend stellte das Prüfteam von Apple entsprechende Anforderungen an den Anwendungsentwickler Blix: Erhöhung der Altersgrenze der Anwendung auf 17 Jahre und mehr (ursprünglich 4 Jahre und mehr) oder Inhaltsfilterung. Die App wird nur genehmigt, wenn Blix Apple versichert, dass es eine Inhaltsfilterung für die ChatGPT-Funktion implementiert hat.

Siehe auch  Was ist ChatGPT und kann ich damit Geld verdienen?

Andererseits sagte Apple auch, dass es KI-Technologie für den internen Gebrauch entwickelt, um die Produktivität der Mitarbeiter zu verbessern.

Mit der Angelegenheit vertraute Personen verrieten den Medien außerdem, dass Apple ein eigenes groß angelegtes Sprachmodell entwickelt.

Es wird berichtet, dass die Arbeit von Apple im Bereich KI hauptsächlich bei John Giannandrea, dem Senior Vice President von Apple, liegt. Unter seiner Führung hat Apple eine Reihe von KI-Startups übernommen.

In der jüngsten Telefonkonferenz zu den Quartalsergebnissen äußerte Apple-CEO Cook einige Ansichten zu den Fortschritten im Bereich der generativen KI: „Ich denke, dass es Dinge gibt, über die im Hinblick auf KI sorgfältig nachgedacht werden muss, und dass es viele Probleme gibt.“ müssen gelöst werden. Das Potenzial von KI ist jedoch sehr interessant.

Sicherheit ist keine Kleinigkeit

Tatsächlich ist Apple nicht der erste Technologieriese, der Mitarbeitern die Verwendung externer KI-Tools verbietet.

Laut einem Bericht des koreanischen Medienmagazins „Economist“ gab es am 30. März drei Fälle von Missbrauch und Missbrauch von ChatGPT innerhalb von Samsung, darunter zwei Lecks von Geräteinformationen und ein Leck von Besprechungsinhalten.

Um zu verhindern, dass sich ähnliche Vorfälle wiederholen, formuliert Samsung entsprechende Schutzmaßnahmen, um Unfälle durch Informationslecks durch ChatGPT zu verhindern. Das Unternehmen teilte den Mitarbeitern mit, dass das interne Netzwerk des Unternehmens möglicherweise die ChatGPT-Verbindung unterbricht, wenn ein ähnlicher Vorfall auftritt, nachdem Sofortmaßnahmen zum Schutz von Informationen ergriffen wurden.

Am 3. Mai gaben mit der Angelegenheit vertraute Personen bekannt, dass Microsoft plant, noch in diesem Quartal eine private Version von ChatGPT auf einem dedizierten Cloud-Server auf den Markt zu bringen. Dabei geht es vor allem um die Bedenken des Unternehmens vor Informationslecks und den Wunsch, keine Informationen mit anderen Kunden auszutauschen.

Siehe auch  HiDock H1 ChatGPT Audiodock mit integrierter KI-Transkription

In der Welt des Internets sind Datenschutz und Sicherheit keine Kleinigkeit.

5/5 - (253 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein