Salesforce vor kurzem gefunden dass 67 % der leitenden IT-Führungskräfte darauf drängen, in den nächsten 18 Monaten generative KI in ihren Unternehmen einzuführen, wobei ein Drittel dies als ihre oberste Priorität bezeichnet.

Gleichzeitig hat die Mehrheit dieser leitenden IT-Führungskräfte Bedenken, was passieren könnte. Unter anderem hat der Bericht Vorbehalte gefunden dass 59 % glauben, dass generative KI-Ausgaben ungenau sind und 79 % Sicherheitsbedenken haben.

Mit der Einführung generativer KI geben Unternehmen gleichzeitig Gas und versuchen gleichzeitig, an der Engine zu arbeiten. Diese Dringlichkeit ohne Klarheit ist ein Rezept für Fehltritte.

Das hat eine gemeinnützige Organisation für Essstörungen namens NEDA herausgefunden in letzter Zeit nachdem ein 6-köpfiges Helpline-Team und 20 Freiwillige durch einen Chatbot namens Tessa ersetzt wurden.

Eine Woche später musste NEDA deaktivieren Tessa, als aufgezeichnet wurde, wie der Chatbot schädliche Ratschläge gab, die Essstörungen verschlimmern könnten.

Ich habe einmal auf einem von Procter & Gamble veranstalteten Gipfel zur digitalen Transformation gesprochen. Einer ihrer Anwälte sprach über die Herausforderung, in Zeiten der digitalen Transformation Dringlichkeit und Schutzmaßnahmen in Einklang zu bringen. Sie erzählte von einem Modell, das mir im Gedächtnis geblieben ist, nämlich der Bereitstellung von „Freiheit innerhalb eines Rahmens“.

Steven Mills, Chief AI Ethics Officer von BCG, kürzlich befürwortet für einen „Freiheit innerhalb eines Rahmens“-Ansatzes für KI. Wie er es ausdrückte:

„Es ist wichtig, dass die Leute die Möglichkeit bekommen, mit diesen Technologien zu interagieren und sie zu nutzen; Mit dem Experimentieren aufzuhören ist nicht die Lösung. KI wird im gesamten Unternehmen von Mitarbeitern entwickelt, unabhängig davon, ob Sie davon wissen oder nicht …

„Anstatt zu versuchen, so zu tun, als ob es nicht passieren würde, sollten wir schnell eine Reihe von Richtlinien aufstellen, die Ihren Mitarbeitern zeigen, wo die Leitplanken sind … und verantwortungsvolle Innovationen und verantwortungsvolles Experimentieren aktiv fördern.“

Eine der von Salesforce vorgeschlagenen Sicherheitsmaßnahmen sind „Human-in-the-Loop“-Workflows. Zwei Architekten der Ethical AI Practice von Salesforce, Kathy Baxter und Yoav Schlesinger, Leg es Hier entlang:

Siehe auch  Neue Studie unterstreicht erneut die politische Voreingenommenheit von ChatGPT

„Nur weil etwas automatisiert werden kann, heißt das nicht, dass es automatisiert werden sollte. Generative KI-Tools sind nicht immer in der Lage, emotionale oder geschäftliche Zusammenhänge zu verstehen oder zu erkennen, wann Sie falsch liegen oder Schaden anrichten.

„Menschen müssen einbezogen werden, um die Ergebnisse auf Genauigkeit zu überprüfen, Verzerrungen herauszufinden und sicherzustellen, dass die Modelle wie beabsichtigt funktionieren. Im weiteren Sinne sollte generative KI als eine Möglichkeit gesehen werden, die menschlichen Fähigkeiten zu erweitern und Gemeinschaften zu stärken, und nicht, sie zu ersetzen oder zu verdrängen.“

Hier sind einige verwandte Cartoons, die ich im Laufe der Jahre gezeichnet habe:

„Wenn das Marketing ein Tagebuch führen würde, wäre es dieses.“

– Ann Handley, Chief Content Officer von MarketingProfs

Jetzt bestellen

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein