Marc Andreessen, Mitbegründer von Andreessen Horowitz und allgemein angesehene Person, in apple.com/ru/podcast/lex-fridman-podcast/id1434243584?i=1000617915020″ rel=“nofollow noreferrer noopener“ target=“_blank“>Podcast Lexa Friedman hat sich letzte Woche ein sehr interessantes Gedankenexperiment ausgedacht. Stellen Sie sich vor, dass die Menschheit im 17. Jahrhundert über GPT-4-LLMs verfügte, zu einer Zeit, als die Inquisition Galileo verurteilte. Welche Antwort würde das Gericht geben, wenn es die Frage „Hat Galileo Recht“ mit dem Sprachmodell stellen würde?
{„id“:750242,“type“num“,“link“https:\/\/vc.ru\/chatgpt\/750242-galiley-i-gpt-4″,“gtm“ „,“prevCount“:null,“count“:3,“isAuthorized“:false}
{„id“:750242,“type“:1,“typeStr“:content“,showTitle“:false,“initialState“:{„isActive“:false},“gtm“:“}
{„id“:750242,“gtm“:null}
Die erste Möglichkeit besteht darin, dass die Antwort „falsch“ wäre, da die überwältigende Menge an menschlichem Wissen zu diesem Zeitpunkt aus Umgebungen stammte, die im Gegensatz zu dem standen, was Galileo sagte, nämlich dass diese Texte die Grundlage für das Training des Modells bilden würden.
Die zweite Option ergibt sich aus der Tatsache, dass das Modell genügend Gelegenheit gehabt hätte, ähnliche Berechnungen wie Galileo durchzuführen und zu dem Schluss zu kommen, dass er Recht hatte.
Die dritte Möglichkeit besteht darin, dass die damalige Kirche die einzige Institution war, die ein LLM dieses Niveaus schaffen konnte, was bedeutet, dass sie die „richtigen Fragen“ in das Modell für grundlegende Fragen einbringen würde. Andererseits gibt das Modell die Antwort „falsch“.
Ein schönes Gedankenexperiment, das die ethischen und sozialen Probleme veranschaulicht, die bei der Entwicklung des maschinellen Lernens auftreten. Wir kennen die richtige Antwort im Voraus und können sehen, ob das Modell unter Berücksichtigung bestimmter Einschränkungen dazu kommt.
Noch mehr interessante Hinweise zum Produktmanagement im Telegram-Kanal Ahoi. AbonnierenDamit Sie nichts verpassen: