In Bezug auf eine Umfrage vor kurzem veröffentlicht Laut Cox Communications (einem Kunden meiner Firma) haben im vergangenen Jahr zwei Drittel der Kleinunternehmer in KI für ihr Unternehmen investiert, und 53 Prozent planen, im Jahr 2024 noch mehr in KI zu investieren.
Nein, die meisten dieser Unternehmen betreiben noch keine Roboter oder entwickeln ihre eigenen großen Sprachmodelle … noch nicht. „In KI investiert“ bedeutet – im Jahr 2024 – dass kleine Unternehmen und ihre Mitarbeiter hauptsächlich generative KI-Plattformen wie chatgpt, google Gemini, Microsoft Copilot und Anthropic für eine Reihe von Backoffice-Aufgaben verwenden, wie z. B. Hilfe bei der Analyse von Tabellenkalkulationen, Teilnahme und Aufzeichnung von Meetings, Verfassen von E-Mails, Durchführen von Recherchen, Erstellen von Richtlinien und Analysieren von Verträgen.
Aber es gibt hier Bedenken.
Die Nutzung dieser Plattformen erfordert, dass Mitarbeiter Daten teilen und hochladen. Und angesichts der enormen Fortschritte bei KI-Assistenten kann man davon ausgehen, dass Unternehmen in den nächsten Jahren auf solche Cloud-basierten KI-Plattformen wie diese zurückgreifen werden, um ihre Geschäfte effizienter zu führen. ChatGPT 4o kann bereits Gespräche „sehen“ und „hören“. Googles Gemini erkennt alles in einem Büro, auch wo eine verlorene Brille ist oder erkennt Softwarecode, der auf einem offenen Monitor angezeigt wird. All diese Informationen werden irgendwohin geleitet, um verarbeitet zu werden, oder? Das werden sie. Sie gelangen direkt in die Hände dieser großen Technologieunternehmen. Sollten wir uns Sorgen machen? Verdammt richtig, das sollten wir.
Während Regierungen, Gouverneure Und Technologieunternehmen Während Unternehmen Verordnungen, Mandate und Versprechen zur sicheren Nutzung von KI erlassen, haben sie ein ebenso dringendes Problem: Angesichts der Datenmenge, die diese KI-Apps benötigen, um ihre Versprechen einzuhalten, stellt sich die Frage, wie privat und sicher unsere tatsächlichen Daten sind. Achtung, Spoiler: Die Antwort wird Sie nicht glücklich machen.
Daten von OpenAI Datenschutzrichtlinie ist Microsoft und Google nicht unähnlich. Das Unternehmen sagt, es werde Ihre Daten nicht verkaufen und sie nur mit Ihrer Zustimmung weitergeben. Seine Richtlinien sehen jedoch vor, dass es Ihre Daten für Folgendes verwenden kann:
– Bereitstellung und Verbesserung von Diensten.
-Mit dir kommunizieren.
-Sicherstellung der Einhaltung gesetzlicher Anforderungen.
– Führen Sie Recherchen und Analysen durch.
– Erhöhen Sie die Sicherheit und verhindern Sie Betrug.
All diese Verwendungsmöglichkeiten geben OpenAI großen Spielraum. Ist die Nutzung der firmeneigenen Daten beispielsweise notwendig, um „die Dienste zu verbessern“? Oder „neue Funktionen zu entwickeln“? Oder um „auf rechtmäßige Anfragen zu reagieren“? Viel Glück beim Kampf gegen die Armee von Anwälten, die zur Verteidigung dieser Maßnahmen eingesetzt werden. Und welchen Unterschied würde das zu diesem Zeitpunkt machen? Ihre Daten wären bereits in das „Lernmodell“ des Unternehmens eingesaugt worden.
Also nein, Ihre Daten sind nicht vollständig privat. Und sie sind auch nicht vollständig sicher. Ich bin sicher, dass OpenAI die besten und intelligentesten Sicherheitsexperten beschäftigt, um sicherzustellen, dass die kritischen Informationen, die Sie hochgeladen haben, geschützt, sicher und frei von Datenlecks sind. Genau wie Twitter/X, Adobe, Dropbox und LinkedIn. Oder Trello, Vanderbilt University, Boeing und Sony. Fühle mich jetzt besser?
Dies ist eine Meinungskolumne, also hier meine Meinung: Die Daten Ihres Unternehmens sind weder vollständig privat noch vollständig sicher, egal ob bei OpenAI, Google, Microsoft oder einer anderen KI-Plattform. Sicher, diese Unternehmen haben alle Richtlinien, aber sie sind so verfasst, dass sie ihren eigenen Interessen dienen, und können leicht gegen jede kleine Organisation verteidigt werden, die es wagt, sie in Frage zu stellen. Und ja, ihre Sicherheitsprotokolle sind von unendlich höherer Qualität, als sich die meisten Unternehmen leisten können. Aber wie wir gesehen haben, bietet nichts davon eine 100-prozentige Garantie.
Wie gehen meine intelligentesten Kunden mit diesen Bedenken um? Auf die gleiche Weise, wie sie mit allen Problemen umgehen, die ihre Entscheidungen beeinflussen. Indem sie Risiken und Chancen abwägen.
Zukünftige KI-Tools werden unsere Daten nutzen, um viele Kernfunktionen in unseren Unternehmen auszuführen, vom Einräumen von Regalen bis hin zur autonomen Problembehebung. Ja, es besteht das Risiko von Datenverlust oder -missbrauch, und kluge Unternehmensleiter werden diese Risiken gegen die Vorteile abwägen, so wie wir es als Einzelpersonen jedes Mal tun, wenn wir Auto fahren, Fast Food essen, im Meer schwimmen oder ein Blind Date mit jemandem haben, den wir online kennengelernt haben.
Das Risiko, dass Ihre Daten gestohlen oder ohne Ihr Wissen oder Ihre Zustimmung verwendet werden, ist sehr real. Die Vorteile der Nutzung von KI-Plattformen wie ChatGPT – besserer Kundenservice, höhere Umsätze, höhere Produktivität und in der Folge mehr Gewinn – sind jedoch beträchtlich. Es wird nie eine konkrete Antwort auf das Problem des Datenschutzes oder der Datensicherheit geben. Nur eine fortlaufende Bewertung dessen, was auf dem Spiel steht.