google hat Nutzer von chatgpt gewarnt, da der Technologieriese behauptet, dass durch die Verwendung des KI-Bots „Halluzinationen“ entstehen könnten.
Der Bot – allgemein als Chatbot bezeichnet – musste, ähnlich wie ein Baby, trainiert werden, um kompetent mit Menschen kommunizieren zu können, und dieses Training wurde mithilfe der OpenAI-Technologie durchgeführt.
Das führt dazu, dass das Gespräch mit dem Chatbot unheimlich menschenähnliche Reaktionen hervorruft, die Sie zunächst vielleicht abschrecken.
Doch die Chefs von Google warnen davor, dass diese Bots dazu neigen, falsche Informationen weiterzugeben. Mit anderen Worten: Die Informationen, die sie weitergeben, sind nur so genau und zuverlässig wie die Technologie, die sie ausbildet, und diese Technologie wurde von Menschen entwickelt, die von Natur aus Fehler machen können.
Mehr lesen: Die Bank of Ireland kündigt die Einführung von 664 „hochmodernen“ Geldautomaten in allen Filialen an
Das als „Halluzinationen“ bezeichnete Phänomen wird auf die ChatGPT-Software übertragen, da der Bot Menschen leicht massenhaft falsch informieren könnte, was zu einer bereits als Pandemie von Fehlinformationen einzustufenden Situation beiträgt.
Das berichtet der Daily Record dass ein leitender Vizepräsident von Google, Prabhakar Raghavan, mit der deutschen Zeitung Welt am Sonntag sprach und sagte: „Diese Art von künstlicher Intelligenz, über die wir sprechen, kann manchmal zu etwas führen, das wir Halluzination nennen. Das wird dann so ausgedrückt.“ dass eine Maschine eine überzeugende, aber völlig fiktive Antwort liefert.
„Die riesigen Sprachmodelle hinter dieser Technologie machen es für Menschen unmöglich, jedes erdenkliche Verhalten des Systems zu überwachen. Aber wir wollen es in einem ausreichend großen Maßstab testen, um am Ende mit den Metriken zufrieden zu sein, die wir zur Überprüfung der Faktizität verwenden.“ der Antworten.
„Wir überlegen, wie wir diese Möglichkeiten in unsere Suchfunktionen integrieren können, insbesondere für Fragen, auf die es nicht nur eine Antwort gibt.“
Er fuhr fort: „Natürlich spüren wir die Dringlichkeit, aber wir spüren auch die große Verantwortung. Wir haben einen sehr hohen Anspruch an uns selbst. Und es ist auch mein Ziel, führend bei Chatbots zu sein, was die Integrität der Informationen betrifft, aber auch.“ die Verantwortung, die wir übernehmen.
„Nur so können wir das Vertrauen der Öffentlichkeit bewahren.“
Einer der ursprünglichen Gründer von OpenAI, Elon Musk, beschrieb die Fähigkeiten von ChatGPT mit den Worten „beängstigend gut“ und fügte hinzu, dass wir „nicht weit von einer gefährlich starken KI entfernt sind“.
Sam Altman, CEO von OpenAI, erklärte zuvor: „Ich stimme der Nähe zu einer gefährlich starken KI zu, im Sinne einer KI, die beispielsweise ein enormes Cybersicherheitsrisiko darstellt. Und ich denke, wir könnten zu einer echten AGI gelangen.“ [Artifical General Intelligence] im nächsten Jahrzehnt, also müssen wir auch das Risiko dafür äußerst ernst nehmen.“
Treten Sie dem aktuellen Nachrichtendienst des Irish Mirror auf WhatsApp bei. Klicken dieser Link um aktuelle Nachrichten und aktuelle Schlagzeilen direkt auf Ihr Telefon zu erhalten. Darüber hinaus bieten wir unseren Community-Mitgliedern Sonderangebote, Werbeaktionen und Werbung von uns und unseren Partnern. Wenn Ihnen unsere Community nicht gefällt, können Sie jederzeit vorbeischauen. Wenn Sie neugierig sind, können Sie unsere lesen Datenschutzerklärung.