Microsoft, der Technologieriese, der stark in OpenAI investiert hat, sorgte kürzlich für Schlagzeilen, weil er chatgpt vorübergehend verbot.

Die Entscheidung von Microsoft, den Zugriff auf ChatGPT einzuschränken, war ein heißes Thema. Trotz erheblicher Investitionen in OpenAI hat das Unternehmen ChatGPT wegen Sicherheits- und Datenbedenken vorübergehend verboten. Microsoft hat ChatGPT verboten, obwohl es fast 3 Milliarden US-Dollar in seine Entwicklung gepumpt hat, mit der Zusage, weitere 10 Milliarden US-Dollar zu zahlen.

In einem internen Memo äußerte Microsoft Bedenken hinsichtlich der Nutzung eines Drittanbieterdienstes. Sie mahnte zur Vorsicht, trotz der von OpenAI eingebauten Schutzmaßnahmen.

Was sind die Gründe für diese Entscheidung?

Microsoft, das stark in OpenAI, den Erfinder von ChatGPT, investiert hat, hat beschlossen, den Zugriff auf diesen Chatbot einzuschränken. Der angegebene Grund? Sicherheits- und Datenbedenken. Diese Wahl ist überraschend, da Microsoft ungefähr injiziert hat 3 Milliarden Dollar bei der Entwicklung von ChatGPT. Darüber hinaus plant das Unternehmen Investitionen 10 Milliarden mehr.

Sie hat es gerechtfertigt dieses vorübergehende Verbot durch mögliche Risiken, die mit der Nutzung eines externen Dienstes eines Drittanbieters verbunden sind. Sie betonte auch, dass ihre Mitarbeiter äußerst vorsichtig sein müssten. Diese Warnung spiegelt sich in einem internen Memo wider, das an Microsoft-Mitarbeiter gesendet wurde. Es erinnert an die von OpenAI integrierten Schutzmaßnahmen, unterstreicht jedoch die externe Natur von ChatGPT.

Wiederherstellen des Zugriffs auf ChatGPT: ein Microsoft-Fehler

Diese Entscheidung von Microsoft war jedoch nur von kurzer Dauer. Kurz nach Bekanntgabe des Verbots stellte das Unternehmen den Zugriff auf ChatGPT wieder her und erklärte, dass das Verbot ein Fehler gewesen sei. Laut einem Microsoft-Sprecher war dies ein Prüfung von Kontrollsystemen, die versehentlich aktiviert wurden für alle Mitarbeiter. Diese Erklärung zeigt, dass auch große Unternehmen bei der Verwaltung ihrer technologischen Ressourcen Fehler machen können.

Siehe auch  Bewerbung mit ChatGPT: Immer mehr Jobsuchende lassen die KI schreiben

Trotz dieser Kehrtwende wirft der Vorfall wichtige Fragen zum Vorgehen großer Technologieunternehmen auf. Dies betrifft den internen Einsatz künstlicher Intelligenz, insbesondere wenn diese von Entwicklungspartnern stammt. Microsofts Vorsicht in Die Verwendung von ChatGPT spiegelt ein gewisses Misstrauen widerauch gegenüber gemeinsam entwickelten Technologien.

YouTube Video
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein