„Die größte Herausforderung, über die ich immer noch nachdenke: Wofür sind LLMs im Hinblick auf die Hilfsbereitschaft wirklich nützlich?“ Cathy Pearl, User Experience Lead bei Bard, schrieb laut Bloomberg im August im Chat. „Als würde man wirklich einen Unterschied machen. TBD!“
„Meine Faustregel ist, LLM-Ausgaben nicht zu vertrauen, es sei denn, ich kann sie unabhängig überprüfen“, sagte Dominik Rabiej, leitender Produktmanager bei Bard, im Juli. „Ich würde es gerne so weit bringen, dass es möglich ist, aber es ist noch nicht so weit.“
KI-gestützte Chatbots neigen zu Halluzinationen und erfinden oft Fakten oder stellen sie falsch dar. Googles Bard hat zum Beispiel fälschlicherweise gesagt, dass es eine gäbe google-bard-microsoft-openai-chatgpt-2023-10″ id=“7090d14a-75c6-418f-b198-8832fe8d08d5″>Waffenstillstand zwischen Gaza und Israel trotz der jüngsten gewalttätigen Eskalation zwischen den beiden Nationen.
Ein Vertreter von Google sagte gegenüber Insider: „Das ist völlige Routine und nicht überraschend. Seit wir Bard als Experiment gestartet haben, sind wir gespannt auf das Feedback der Leute, was ihnen gefällt und wie wir das Erlebnis weiter verbessern können. Unser Diskussionskanal mit Leuten, die.“ Die Nutzung von Discord ist eine von vielen Möglichkeiten, wie wir das tun.“
Dies ist auch nicht das erste Mal, dass Google-Mitarbeiter Zweifel an Googles Vorstoß zur generativen KI geäußert haben.
Von Insider erhaltene durchgesickerte Audioaufnahmen zeigten, dass einige Google-Mitarbeiter über die Auswirkungen besorgt waren Googles aggressiver Vorstoß zur Entwicklung generativer KI. Im Mai bombardierten Google-Mitarbeiter Führungskräfte mit Fragen zur Strategie des Unternehmens und fragten, ob es zu stark auf KI fokussiert sei, berichtete Insider zuvor.