Da immer mehr Unternehmen generative KI einsetzen, kann ihr unkontrollierter Einsatz eine Vielzahl beispielloser Herausforderungen mit sich bringen. Jede Organisation, die KI am Arbeitsplatz einsetzt oder dies plant, muss die damit verbundenen potenziellen rechtlichen und geschäftlichen Risiken berücksichtigen.

Folgendes müssen Sie wissen:

Datenprivatsphäre

Um generative KI und Werkzeuge für maschinelles Lernen zu trainieren, werden große Mengen ungefilterter Daten aus dem Internet entfernt. Diese Vorgehensweise verstößt möglicherweise gegen wichtige Datenschutzgesetze – insbesondere gegen die Datenschutz-Grundverordnung (DSGVO) der EU.

Die DSGVO schreibt vor, dass die Erhebung personenbezogener Daten in ihrem Umfang begrenzt sein und einem vordefinierten Zweck dienen muss. Angesichts der großen Menge an KI-Modellen auf dem Markt ist es jedoch durchaus möglich, dass einige Modelle dadurch gegen die DSGVO oder andere Gesetze verstoßen Datenerfassung und Trainingsmethoden.

Die DSGVO gibt europäischen Bürgern das Recht, die Löschung ihrer Daten aus den Aufzeichnungen einer Organisation zu verlangen – ein Artikel, der als „Recht auf Vergessenwerden“ bezeichnet wird. Obwohl der Umfang dieser Anfrage begrenzt ist, ist unklar, wie diese Bestimmung auf KI-Modelle wie chatgpt angewendet wird. Diese Unsicherheit hat dazu geführt, dass bestimmte Organisationen sowie Regierungen auf der ganzen Welt dies getan haben hat den Einsatz generativer KI vorübergehend verboten oder zu diskutieren mögliche Gesetzgebung um seine Entwicklung und Anwendungen einzuschränken.

Das Daten-Scraping hat auch eine Reihe von Bedenken im Zusammenhang damit aufgeworfen midjourney-deviantart” rel=”noreferrer noopener”>Copyright-Verletzung, PlagiatUnd InhaltseigentümerSchiff– wo Künstler, Verleger und Programmierer haben angegeben, dass ihre Werke ohne ihr Wissen oder ihre Erlaubnis verwendet wurden. Aufgrund von Rechtsverletzungen und mangelnder Akkreditierung sind bereits zahlreiche Klagen gegen KI-Firmen entstanden. Daher muss jede Organisation, die KI am Arbeitsplatz einsetzt, sicherstellen, dass sie die relevanten Datenschutzbestimmungen einhält.

Siehe auch  OpenAI gibt erste Partnerschaft mit einer Universität bekannt

Falsche Informationen und Fehlinformationen

Obwohl der Einsatz von Chatbots und KI in Unternehmen erhebliche Vorteile bietet, sollten sich Unternehmen der möglichen rechtlichen Risiken bewusst sein, die falsche Antworten mit sich bringen können. Unternehmen müssen sich darüber im Klaren sein, dass generative KI zwar maßgebliche Antworten liefert, aber nicht jede Antwort völlig korrekt ist.

Es ist bekannt, dass generative KI-Systeme „halluzinieren“ oder Informationen erfinden, die wahr erscheinen, aber falsch sind. Beispielsweise wurde kürzlich festgestellt, dass ChatGPT unbegründete Ansprüche gegen Einzelpersonen erhebt nicht vorhandene Nachrichtenartikel. ChatGPT hatte es auch gemacht falsche Behauptungen gegen einen gewählten australischen Beamten mit der Begründung, er habe wegen Bestechung eine Gefängnisstrafe verbüßt. Daher müssen Unternehmen, die diese Technologien in ihre täglichen Arbeitsabläufe integrieren möchten, berücksichtigen, dass KI-Software Mitarbeitern, Kunden und anderen Interessengruppen möglicherweise falsche Informationen liefern könnte.

Mögliche Sicherheitsrisiken beim Einsatz von KI

Unternehmen müssen sich darüber im Klaren sein, welche Art von Informationen sie KI-Anbietern und deren Modellen zur Verfügung stellen. Sogar im aktuellen Stand des maschinellen Lernens KI-Forscher sind manchmal unsicher, wie generative KI personenbezogene Daten speichert. Je nachdem, wie KI in einer Organisation eingesetzt wird, könnte daher die Kompromittierung dieses Modells oder eine böswillige interne Nutzung ein großes Risiko darstellen.

Bleiben Sie mit Flashpoint den Bedrohungen immer einen Schritt voraus

Auch wenn unklar ist, welche Risiken der zunehmende Einsatz von KI in Unternehmen mit sich bringt, wissen wir das doch Bedrohungsakteure diskutieren aktiv über die Fähigkeiten von ChatGPT und andere KI-Modelle. Um den Bedrohungsakteuren immer einen Schritt voraus zu sein, müssen Unternehmen die neuesten Entwicklungen in der Bedrohungslandschaft kennen. Melden Sie sich an für Kostenlose Testphase Heute.

Siehe auch  Alibaba begann damit, sein eigenes Analogon von ChatGPT in seine Anwendungen zu integrieren
4.9/5 - (267 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein