chatgpt ist wie jedes künstliche System nicht immun gegen Fehler

ChatGPT könnte mit Apples Siri oder Amazons Alexa konkurrieren

Die OpenAI Corporation hat eine aktualisierte Version des Chatbots eingeführt, der auf der generativen künstlichen Intelligenz ChatGPT basiert. Die App kann sich jetzt Informationen von Benutzern merken, um sie in zukünftigen Gesprächen zu verwenden. Das Unternehmen geht davon aus, dass die Innovation zu personalisierteren Antworten und Angeboten führen wird.

Darüber schreiben die New York Times. Erwähnt ein Nutzer beispielsweise seine Tochter Lina mit besonderen Vorlieben, kann ChatGPT diese Information künftig berücksichtigen. Unter Berücksichtigung der genannten Daten kann er eine Karte zu ihrem Geburtstag erstellen.

ChatGPT entwickelt sich zu einem noch leistungsfähigeren digitalen Assistenten. Damit kann es mit Apples Siri oder Amazons Alexa konkurrieren. OpenAI hat für Benutzer bereits die Möglichkeit eingeführt, Anweisungen und Präferenzen anzupassen, wodurch der Chatbot individuelle Merkmale im Dialog berücksichtigen kann.

Trotz der Fähigkeit, sich Informationen zu merken, ist ChatGPT, wie jedes künstliche System, nicht immun gegen Fehler. Dies macht es jedoch in den Augen der Benutzer noch „menschlicher“. Beispielsweise können bei der Erstellung einer Postkarte kleinere Fehler auftreten, die nur die Einzigartigkeit und individuelle Herangehensweise des Chatbots an jede Anfrage hervorheben.

Die Veröffentlichung schreibt auch, dass die Zunahme der gesammelten Daten über Benutzer zunimmt. Wenn Informationen durchsickern, können sie einer Person schaden oder gegen sie verwendet werden.

Biologische Waffen von ChatGPT

Die leistungsstärkste generative künstliche Intelligenz, GPT-4, die gelernt hat, das Management anzulügen, als sie lernte, an der Börse zu handeln, könnte zu einem Werkzeug werden, um Menschen bei der Herstellung biologischer Waffen zu helfen. Obwohl das Risiko gering ist, ist die Entdeckung ein Ausgangspunkt für weitere Forschung und professionelle Diskussion des Problems. Die Forschungsergebnisse wurden von führenden OpenAI-Experten entdeckt.

Siehe auch  Ein Jahr nach ChatGPT übernimmt generative KI die Smartphones

Die ersten Tests, die das Unternehmen durchgeführt hat, um mögliche katastrophale Schäden durch seine Technologie zu verstehen und zu verhindern, deuten darauf hin, dass GPT-4 „höchstens“ eine kleine Bedrohung darstellen könnte Risiko bei der Schaffung biologischer Bedrohungen. Insbesondere wird in dem Artikel darauf hingewiesen, dass das Programm Angreifern die Entwicklung biologischer Waffen erleichtern kann, indem es Chatbots nutzt, um Informationen über die Planung von Angriffen zu finden.

YouTube Video

Abonnieren Sie unsere Telegram-Kanalum wichtige Neuigkeiten nicht zu verpassen. Verfolgen Sie die Neuigkeiten online direkt im Messenger auf unserem Telegram-Kanal Informant Live. Sie können den Viber-Kanal abonnieren Hier.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein