chatgpt kann die Fähigkeiten von Leistungsschwachen verbessern. Diese Technologie kann die Kluft zwischen Leistungsträgern und Leistungsträgern verringern.
Der richtige Einsatz der Technologie der künstlichen Intelligenz kann für Unternehmen von Vorteil sein. Um technologische Fähigkeiten mit menschlicher Arbeit in der Geschäftswelt zu verbinden, ist eine intensive Schulung erforderlich.
Eine Studie der Harvard Business School mit dem Titel „Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality“ gibt Aufschluss über den Einsatz dieser Technologie in der Arbeitswelt.
Lesen Sie auch: „Online“-Kredite lösen Schuldenfallen aus
Untersuchungen mit Mitarbeitern des Beratungsunternehmens Boston Consulting Group (BCG) als Befragten ergaben, dass Mitarbeiter, die ChatGPT nutzten, ihre Kollegen deutlich übertrafen.
BCG-Mitarbeiter in mehreren Ländern wurden gebeten, eine Aufgabe zu erledigen. Im Einklang mit dem Kerngeschäft von BCG werden sie gebeten, Lösungen für von Kunden vorgelegte Geschäftsprobleme zu entwickeln.
Die Mitarbeiter werden dann mit verschiedenen Fällen konfrontiert, die ihre Aufgabe waren. Sie führten das Experiment mit Unterstützung einer Gruppe von Forschern der Harvard Business School, der MIT Sloan School of Management, der Wharton School an der University of Pennsylvania und der University of Warwick durch.
Die Untersuchung ergab, dass die durch künstliche Intelligenz unterstützte Gruppe im Durchschnitt 12,2 Prozent mehr Aufgaben erledigte als die andere Gruppe. Außerdem erledigten sie Aufgaben 25,1 Prozent schneller und mit 40 Prozent hochwertigeren Ergebnissen im Vergleich zur Gruppe, die keine künstliche Intelligenz nutzte.
Die durch künstliche Intelligenz unterstützte Gruppe erledigte im Durchschnitt 12,2 Prozent mehr Aufgaben als die andere Gruppe.
Verwendung großes Sprachmodell (LLM) oder große Sprachmodelle zum Verstehen menschlicher Sprache wie ChatGPT scheinen bei Aufgaben, die Kreativität oder Innovation erfordern, eine bessere Leistung zu erbringen, wenn auch manchmal auf Kosten der Genauigkeit.
Diese Studie ergab jedoch, dass die Fähigkeit von LLMs, Aufgaben nach menschlichen Maßstäben oder besser zu erledigen, stark schwankte. Die Ergebnisse entsprechen nicht unbedingt den Erwartungen, die auf der menschlichen Wahrnehmung der Aufgabenschwierigkeit basieren.
Anna Russell, Beraterin für Datenanalyse und Leiterin von Polynomial Solutions, erklärte, dass Menschen sehr vorsichtig sein müssen, wenn sie LLM für einen Auftrag nutzen. Die Öffentlichkeit muss verstehen, ob die Aufgabe im Rahmen der Möglichkeiten der Einrichtung liegt oder nicht.
Anna sagt, dass ein LLM für Aufgaben, die innerhalb begrenzter Grenzen liegen, wie etwa die kreative Produktidee, sehr vorteilhaft ist. Dies umfasst alles von der Erledigung von Aufgaben bis hin zur Verbesserung der Produktionsqualität und der Mitarbeiterproduktivität.
Lesen Sie auch: Das „Start-up“-Ökosystem in Indonesien beginnt auseinanderzufallen
Darüber hinaus sind die Leistungsverbesserungen größer, wenn die Teilnehmer in der effektiven Nutzung des LLM geschult werden, als wenn sie sich selbst überlassen bleiben. In diesem Zusammenhang kann die Schulung die Bedeutung einer qualitativ hochwertigen Unterweisung beim Einsatz von Werkzeugen der künstlichen Intelligenz hervorheben.
Der an dieser Forschung beteiligte Forscher, nämlich Saren Rajendran, erzählte Geschäftseingeweihter hat Benutzer der generativen Intelligenz-Technologie auch daran erinnert, vorsichtig zu bleiben. Obwohl Forschungsergebnisse zeigen, dass künstliche Intelligenz „sehr gut“ darin ist, Menschen bei der Ausführung einiger Aufgaben zu unterstützen, sollten Benutzer bei der Verwendung der Technologie vorsichtig sein, um Fehler zu vermeiden.
Die Ergebnisse von BCG sind auch eine Warnung für Arbeitnehmer, die darüber nachdenken, ChatGPT zur Unterstützung ihrer Arbeit zu nutzen. Seit der Einführung von ChatGPT im vergangenen November nutzen Arbeitnehmer in verschiedenen Branchen die Technologie der generativen Intelligenz.
Dies geschieht beispielsweise zur Entwicklung Codierung, Marketingmaterialien erstellen und Lernpläne erstellen. Allerdings wird dieser Schritt manchmal ohne Benachrichtigung der Vorgesetzten unternommen. In Wirklichkeit sind die Ergebnisse von ChatGPT nicht perfekt und können „Halluzinationen“ enthalten.
Die Technologiepublikation CNET sorgte Anfang des Jahres für Aufsehen, nachdem den Lesern aufgefallen war, dass eine Reihe von Artikeln, die mit künstlicher Intelligenz erstellt wurden, sachliche Fehler enthielten. Bis zum 28. September hatte der Medienwächter NewsGuard 487 unzuverlässige Nachrichtenseiten mit künstlicher Intelligenz identifiziert, die kaum oder gar nicht von Menschen kontrolliert werden. Dies bedeutet, dass das Schreiben erfolgreich war und es nicht den geringsten Verdacht hinsichtlich des ursprünglichen Entwurfs des Artikels gab.
Die Gesellschaft scheint der Technologie in Bereichen zu misstrauen, in denen sie einen großen Beitrag leisten kann. Gleichzeitig setzt die Gesellschaft zu viel Vertrauen in die Technologie in Bereichen, in denen sie inkompetent ist.
BCG erwähnte in einem Artikel auf seinem Blog eine andere Seite des bisherigen Einsatzes künstlicher Intelligenz. Ihre Ergebnisse verdeutlichen ein Paradoxon: Die Gesellschaft scheint der Technologie in Bereichen, in denen sie einen übergroßen Beitrag leisten kann, offenbar kein Vertrauen zu schenken. Gleichzeitig setzt die Gesellschaft zu viel Vertrauen in die Technologie in Bereichen, in denen sie inkompetent ist.
Daher müssen Entscheidungsträger kritisch über die Arbeit ihrer Organisationen nachdenken und darüber, welche Aufgaben von generativer Intelligenz profitieren können. Sie müssen die Umsetzung angehen, indem sie die Dateninfrastruktur sicherstellen, rigorose Experimente durchführen und bestehende Talentstrategien überarbeiten. Führungskräfte müssen ihre Entscheidungen ständig überdenken, da sich die Möglichkeiten der künstlichen Intelligenz weiterentwickeln.