Neu-Delhi,AKTUALISIERT: 16. Juli 2023 10:00 IST

Von Divyanshi Sharma: Im Januar dieses Jahres tauchten Berichte auf, dass der Technologieriese google wegen chatgpt von OpenAI, dem KI-Chatbot, der ein paar Tage nach seiner Einführung im November 2022 viral ging, den Schlaf verlor. Und erst nächsten Monat stellte Google seinen eigenen KI-Chatbot vor, Bard , mit ChatGPT-ähnlichen Funktionen. Allerdings konnte die Welt Bard erst im Mai dieses Jahres nach dem Google I/O-Event erleben. Obwohl Bard bereits vor Mai für ausgewählte Nutzer verfügbar war, konnten die meisten von uns im Mai den KI-Chatbot von Google nutzen. Und viele Menschen begannen, ihre Erfahrungen in den sozialen Medien zu teilen. In jüngerer Zeit hat Bard einige wichtige Updates erhalten und es sieht so aus, als ob Googles KI-Chatbot mit der Zeit noch besser wird, wie CEO Sundar Pichai versprochen hat.

Allerdings sind die Verantwortlichen für die Ausbildung von Bard mit ihren Arbeitsbedingungen nicht wirklich zufrieden. Mehrere Vertragsarbeiter meldeten sich und teilten Bloomberg mit, dass sie „überarbeitet, unterbezahlt und gestresst“ seien, während sie Bards Antworten überprüften.

Google-Vertragsarbeiter geben an, unterbezahlt zu sein, betonte er

Ein Bloomberg-Bericht enthüllt, dass generative KI-Tools wie Bard mithilfe von LLMs trainiert werden. Ihre Antworten werden jedoch von echten Menschen überprüft, deren Hauptaufgabe darin besteht, Feedback zu den Antworten des KI-Chatbots zu geben, sie auf Vorurteile zu überprüfen, etwaige Fehler zu kennzeichnen usw. Google setzt für diese Aufgabe Vertragsarbeiter ein, und Tausende von Arbeitern sind im Einsatz um Bards Reaktion zu überprüfen und zu verbessern. Allerdings sind diese Arbeiter mit den Arbeitsbedingungen nicht wirklich zufrieden.

Siehe auch  Rob Leathern hat Google verlassen. Jetzt möchte er über KI und ChatGPT sprechen.

Der Bericht zitiert sechs Vertragsarbeiter, die sagen, dass „die Größe ihrer Arbeitsbelastung und die Komplexität ihrer Aufgaben zugenommen hat“, seit das Unternehmen in einen Wettbewerb mit OpenAI eingetreten ist. Ohne entsprechende Schulung wurden die Vertragsarbeiter gebeten, Antworten zu Themen von Medizin bis Recht zu überprüfen. Die Veröffentlichung untersuchte auch Dokumente, in denen den Arbeitern „verschachtelte Anweisungen“ gegeben wurden. In dem Bericht heißt es auch, dass den Arbeitern eine äußerst knappe Frist von nur drei Minuten eingeräumt wurde, um Bards Antworten zu prüfen.

„So wie es jetzt aussieht, sind die Leute verängstigt, gestresst, unterbezahlt und wissen nicht, was los ist“, sagte einer der Auftragnehmer der Veröffentlichung und fügte hinzu: „Und diese Kultur der Angst ist nicht förderlich für die Qualität und Teamarbeit.“ das du von uns allen willst.

Darüber hinaus warnte ein Google-Vertragsmitarbeiter den Kongress im Mai in einem Brief, dass Bard zu einem „fehlerhaften und gefährlichen Produkt“ werden könnte, da die Auftragnehmer aufgefordert werden, Inhalte innerhalb so enger Fristen zu überprüfen.

Der Bericht fügte außerdem hinzu, dass diese Vertragsarbeiter für ihre Arbeit nur 14 US-Dollar pro Stunde erhielten.

Aussage eines Google-Sprechers

Unterdessen sagte ein Google-Sprecher gegenüber Business Insider, dass Vertragsarbeiter nur eine der Möglichkeiten seien, mit denen das Unternehmen Bards Antworten teste. Sie verlassen sich auch auf andere Wege.

„Menschen mit qualitativ hochwertigen Informationen zu verbinden, ist der Kern unserer Mission. Wir unternehmen umfangreiche Arbeit, um unsere KI-Produkte verantwortungsvoll zu entwickeln, einschließlich strenger Tests, Schulungen und Feedbackprozesse, die wir über Jahre hinweg verfeinert haben, um die Faktizität zu betonen und Vorurteile zu reduzieren. Menschliche Bewertung – von Personen innerhalb und außerhalb von Google – ist einer von vielen Ansätzen, mit denen wir unsere Produkte verbessern“, sagte der Sprecher und fügte hinzu: „Bewertungen haben keinen direkten Einfluss auf die Ergebnisse unserer Modelle und sind keineswegs die einzige Möglichkeit, die wir bewerben.“ Genauigkeit.“

Siehe auch  Richtern wurde die Genehmigung erteilt, ChatGPT zur Unterstützung bei der Erstellung von Gerichtsurteilen zu verwenden ... trotz Warnungen kann KI fiktive Fälle erfinden, die nie stattgefunden haben
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein