Meta hat gerade ein neues KI-Modell vorgestellt. Das Modell unter der Leitung des französischen Forschers Yann LeCun ist näher am menschlichen Gehirn als chatgpt und andere und zielt darauf ab, generative KIs zu ersetzen …

Am Rande der VivaTech-Messe in Paris, Yann LeCunder französische Forscher, der bei Meta für künstliche Intelligenz zuständig ist, hat ein neues KI-Modell vorgestellt: „JEPA“ („Joint Embedding Predictive Architecture“).

Dieses Modell ist für gedacht „Überwindung wichtiger Einschränkungen der modernsten KI-Systeme von heute“, erklärt Meta in einer Pressemitteilung. Während der Präsentation bestand Yann LeCun auch darauf, „JEPA“ von anderen Modellen zu distanzieren, beispielsweise von GPT, das OpenAIs unverzichtbares ChatGPT antreibt.

„Die heutige KI und das maschinelle Lernen sind wirklich scheiße. Menschen haben gesunden Menschenverstand, Maschinen nicht.sagt Yann LeCun.

Der Suchende hat sich immer gezeigt sehr kritisch im Hinblick auf die auf dem Markt befindlichen Sprachmodelle. Im Januar hatte LeCun bereits festgestellt, dass ChatGPT alles andere als revolutionär sei. Für ihn, „ChatGPT ist nicht besonders innovativ“ auf der technischen Seite.

Lesen Sie auch: Meta will sein ChatGPT bis Ende 2023 einführen … und es für Werbung nutzen

Eine neue Art von KI-Modell

Meta ist entschlossen, besser als seine Konkurrenten zu sein und bietet ein KI-Modell an, das ein wenig lernt wie eine menschliche Intelligenz. Die Funktionsweise des Systems unterscheidet sich daher stark von der eines Modells wie GPT oder Googles PaLM2. Diese basieren auf einer riesigen Datenbank. Mithilfe dieser Informationen versuchen die KI-Modelle, anhand der Frage des Benutzers die logischste Wortfolge zu erraten. Tatsächlich verstehen diese KIs die von ihnen generierten Texte nicht. Sie simulieren lediglich Reflexion. Bildgeneratoren wie DALL-E, Adobe Firefly oder midjourney funktionieren auf die gleiche Weise.

Siehe auch  Diese Lichttechnologie wird ChatGPT 25-mal leistungsfähiger machen

Dies ist beim neuen Meta-Modell nicht der Fall. Anstatt einen Berg von von Menschen erstellten Daten zu aggregieren, vergleicht „JEPA“. abstrakte Darstellungen Bilder oder Töne. Dieser Ansatz zwingt die KI zur Einrichtung „ein internes Modell der Außenwelt“, wodurch er leichter lernen kann.

Auf diese Weise ahmt das Modell die Funktionsweise eines menschlichen Gehirns nach. Jeden Tag analysiert Ihr Geist unbewusst viele Daten, um die Welt um ihn herum zu verstehen. Wie der menschliche Intellekt kann das Modell jonglieren abstrakte Konzepte statt Wortfolgen.

” Unsere Arbeit […] basiert auf der Tatsache, dass der Mensch allein durch passives Beobachten enorm viel Grundwissen über die Welt erlernt.“Vorwärtsziel.

Mit diesem Ansatz versteht das Modell die ihm anvertrauten Daten wirklich. Die KI ist nicht gezwungen, die Antworten auf die Fragen ihrer Nutzer anhand der wahrscheinlichsten Wortfolge zu erraten. Theoretisch dürfte „JEPA“ also nicht „halluzinieren“, also sachlich falsche Informationen generieren. Dies ist der Hauptfehler generativer KI. Ihre Behauptungen sind alles andere als zuverlässig, weil sie nicht wirklich verstanden haben, wovon sie reden. Aus diesem Grund fällt es den Generatoren schwer, bestimmte Elemente wie menschliche Hände oder Ohren zu entwerfen.

« Wenn Sie (ein Modell) mit 1.000 oder 2.000 Milliarden Token trainieren, scheint es in der Lage zu sein, es zu verstehen. Aber er macht dumme Fehler, ob sachlich oder logisch „Sagt Yann LeCun.

Darüber hinaus hebt sich „JEPA“ durch seine hohe Effizienz von anderen großen Sprachmodellen ab. Laut der Meta-Pressemitteilung benötigt die KI im Gegensatz zu anspruchsvolleren Systemen wie GPT keine nennenswerten Ressourcen für den Betrieb.

Siehe auch  4 Möglichkeiten, ChatGPT für das Zeitmanagement zu nutzen

Das Ende der generativen KI?

Für Meta, « „Generative Methoden konzentrieren sich zu sehr auf Details, anstatt Gesamtkonzepte zu erfassen.“ ebenso wie sein neues System. Laut Yann LeCun sind auch generative KIs vom Verschwinden bedroht, weil „Wir werden etwas Besseres haben, um sie zu ersetzen“ :

„Breitsprachliche Modelle sind heute noch nützlich, aber in fünf Jahren werden sie nicht mehr verwendet“.

Auf dem Papier stellt das Modell einen weiteren Schritt auf dem Weg dar allgemeine künstliche Intelligenz, das große Ziel von OpenAI und anderen Tech-Titanen. Diese Art von KI ist noch weit von den aktuellen Technologien entfernt und kann sich weiterentwickeln und an die ihr übertragenen Aufgaben anpassen, auch wenn sie nicht für deren Ausführung programmiert ist.

„Generative Modelle gehören der Vergangenheit an, wir werden sie zugunsten prädiktiver Architekturen aufgeben“sagt der Forscher, der 2019 den Alan-Turing-Preis gewann.

Meta hat den Forschern den gesamten „JEPA“-Code zur Verfügung gestellt. Das Open-Source-Strategie zielt darauf ab, die Forschung zu KI anzuregen, indem Entwickler ermutigt werden, sich diese Technologie anzueignen. Das hat die Menlo-Park-Gruppe bereits mit ihren bisherigen Innovationen geschafft, etwa MusicGen, der KI, die Musik auf Basis eines kurzen Textes generiert, oder LLaMA, für Large Language Model Meta AI.

Quelle :

Meta

4.8/5 - (167 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein