ChatGPT könnte mit Apples Siri oder Amazons Alexa konkurrieren
Die OpenAI Corporation hat eine aktualisierte Version des Chatbots eingeführt, der auf der generativen künstlichen Intelligenz ChatGPT basiert. Die App kann sich jetzt Informationen von Benutzern merken, um sie in zukünftigen Gesprächen zu verwenden. Das Unternehmen geht davon aus, dass die Innovation zu personalisierteren Antworten und Angeboten führen wird.
Darüber schreiben die New York Times. Erwähnt ein Nutzer beispielsweise seine Tochter Lina mit besonderen Vorlieben, kann ChatGPT diese Information künftig berücksichtigen. Unter Berücksichtigung der genannten Daten kann er eine Karte zu ihrem Geburtstag erstellen.
ChatGPT entwickelt sich zu einem noch leistungsfähigeren digitalen Assistenten. Damit kann es mit Apples Siri oder Amazons Alexa konkurrieren. OpenAI hat für Benutzer bereits die Möglichkeit eingeführt, Anweisungen und Präferenzen anzupassen, wodurch der Chatbot individuelle Merkmale im Dialog berücksichtigen kann.
Trotz der Fähigkeit, sich Informationen zu merken, ist ChatGPT, wie jedes künstliche System, nicht immun gegen Fehler. Dies macht es jedoch in den Augen der Benutzer noch „menschlicher“. Beispielsweise können bei der Erstellung einer Postkarte kleinere Fehler auftreten, die nur die Einzigartigkeit und individuelle Herangehensweise des Chatbots an jede Anfrage hervorheben.
Die Veröffentlichung schreibt auch, dass die Zunahme der gesammelten Daten über Benutzer zunimmt. Wenn Informationen durchsickern, können sie einer Person schaden oder gegen sie verwendet werden.
Biologische Waffen von ChatGPT
Die leistungsstärkste generative künstliche Intelligenz, GPT-4, die gelernt hat, das Management anzulügen, als sie lernte, an der Börse zu handeln, könnte zu einem Werkzeug werden, um Menschen bei der Herstellung biologischer Waffen zu helfen. Obwohl das Risiko gering ist, ist die Entdeckung ein Ausgangspunkt für weitere Forschung und professionelle Diskussion des Problems. Die Forschungsergebnisse wurden von führenden OpenAI-Experten entdeckt.
Die ersten Tests, die das Unternehmen durchgeführt hat, um mögliche katastrophale Schäden durch seine Technologie zu verstehen und zu verhindern, deuten darauf hin, dass GPT-4 „höchstens“ eine kleine Bedrohung darstellen könnte Risiko bei der Schaffung biologischer Bedrohungen. Insbesondere wird in dem Artikel darauf hingewiesen, dass das Programm Angreifern die Entwicklung biologischer Waffen erleichtern kann, indem es Chatbots nutzt, um Informationen über die Planung von Angriffen zu finden.
Abonnieren Sie unsere Telegram-Kanalum wichtige Neuigkeiten nicht zu verpassen. Verfolgen Sie die Neuigkeiten online direkt im Messenger auf unserem Telegram-Kanal Informant Live. Sie können den Viber-Kanal abonnieren Hier.