OpenAI hat die Browsing-Funktion wieder in chatgpt eingeführt, nachdem es sie im Juli vorübergehend deaktiviert hatte.

ChatGPT kann nun im Internet surfen, um Nutzer mit aktuellen Informationen zu versorgen, gab die Muttergesellschaft OpenAI bekannt.

Der Chatbot war zuvor für die Nutzung von Daten bis September 2021 geschult und konnte keine Echtzeitinformationen bereitstellen.

Am Mittwoch gab das von Microsoft unterstützte OpenAI auf X, ehemals Twitter, bekannt, dass das neue Update es ihm ermöglicht, über den Stichtag im September 2021 hinauszugehen und auf aktuelle Informationen im Internet zuzugreifen.

OpenAI sagte, dass die Option „Mit Bing durchsuchen“ jetzt für Benutzer der kostenpflichtigen Versionen von ChatGPT verfügbar sei, und fügte hinzu: „Wir werden sie bald auf alle Benutzer ausweiten.“

OpenAI hatte zuvor eine Funktion getestet, die es Benutzern ermöglichte, über die Bing-Suchmaschine innerhalb seines Premium-Angebots ChatGPT Plus auf die neuesten Informationen zuzugreifen.

Diese Funktion wurde in integriert Mai wurde jedoch zwei Monate später deaktiviert, da befürchtet wurde, dass Benutzer damit Paywalls umgehen könnten.

Die neue Integration funktioniert ähnlich wie Bard, ein Chatbot, der im März dieses Jahres von google entwickelt und eingeführt wurde.

„OpenAI versucht, Googles Marktanteile zu erobern“, sagte Alex Hanna, Forschungsdirektor am Distributed AI Research Institute und ehemaliger Forschungswissenschaftler bei Ethical AI bei Google, gegenüber Al Jazeera.

Datenschutzbedenken

Es gab auch Datenschutzbedenken hinsichtlich des Zugriffs auf Echtzeitinformationen: Der Bot könnte schädliches Material, Fehlinformationen und urheberrechtlich geschützte Inhalte online aufspüren und den Benutzern anzeigen, wie die BBC zuvor berichtet hatte.

Siehe auch  Etherscan wirbt für die ChatGPT-Integration, hebt jedoch die Mängel des Chatbots hervor

Darüber hinaus müssen Benutzer ihren Chatverlauf aktivieren, damit das neue Browser-Plugin funktioniert, was bedeutet, dass sie sich dafür entscheiden, ihre persönlichen Daten mit dem Model zu teilen.

„Menschen laufen Gefahr, dass ihre rechtlichen Daten gelöscht werden. Untersuchungen haben gezeigt, dass bei bestimmten Arten von Eingabeaufforderungen bestimmte Arten privater Informationen über diese verschiedenen Systeme durchgesickert sind“, sagte Hanna. „Wir wissen nicht, was durchgesickert ist, nur weil diese Unternehmen ihre Datenquellen so privat gehalten haben.“

OpenAI sagte, die neueste Funktion würde es Websites ermöglichen, zu steuern, wie ChatGPT mit ihnen interagieren kann.

Hanna sagte, dass ChatGPT Halluzinationen oder Fehlinformationen und ungenaue Informationen anzeigen kann.

Sie fügte hinzu, dass KI-Tools und Suchmaschinen rassistische und geschlechtsspezifische Vorurteile aufrechterhalten, wie Untersuchungen, darunter das Buch von Safiya Noble, belegen Algorithmen der Unterdrückung Dies zeigt, wie sich Suchmaschinenergebnisse für Suchanfragen zu schwarzen und weißen Frauen unterscheiden und Rassismus und Sexismus innerhalb der Algorithmen aufdecken.

Anfang dieser Woche führte OpenAI Sprach- und Bildfunktionen in den Chatbot ein, was im Internet gemischte Reaktionen hervorrief.

Während einige Benutzer die Aktualisierungen feierten, befürchteten andere, dass die KI zu menschenähnlich werden könnte.

Einige Benutzer wiesen darauf hin, dass die Updates kleinere KI-Startups und Softwareentwickler ersetzen könnten, während andere von der Verwendung von ChatGPT abrieten und Bedenken hinsichtlich der jüngsten Klagen gegen die Verletzung von Urheberrechten und geistigen Eigentumsrechten durch OpenAI äußerten.

5/5 - (471 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein