Da OpenAI und google nacheinander neue Versionsmodelle von GPT-4o und Gemini 1.5 Pro auf den Markt gebracht haben, werden viele Menschen neugierig sein: Wer von den beiden ist stärker? Es ist zwar offensichtlich, dass GPT-4o etwas besser sein muss, aber um wie viel? Kürzlich haben ausländische Medien 8 Artikel im Detail getestet und schließlich gezeigt, dass Gemini 1.5 Pro nicht einmal die GPT-4-Rücklichter sehen kann. Ich hätte nicht erwartet, dass es so anders ist.
chatgpt-4o-vs-gemini-1-5-pro/“ target=“_blank“>Bildquelle: Beebom
Wer ist besser, ChatGPT 4o oder Gemini 1.5 Pro?ChatGPT 4o gewann die 8 von ausländischen Medien getesteten Artikel
Ausländische Medien Beebom hat kürzlich einen Vergleichstestbericht zwischen ChatGPT 4o und Gemini 1.5 Pro geteilt. Insgesamt wurden 8 Punkte getestet, nämlich „Berechnung der Trocknungszeit von Handtüchern“, „Magischer Aufzugstest“, „Den Apfel finden“ und „Welcher“. „Eines ist schwerer“, „Benutzeranweisungen befolgen“, „Multimodaler Bildtest“, „Zeichenerkennungstest“ und „Ein Spiel erstellen“.
In diesen Tests konnte Gemini 1.5 Pro keinen davon gewinnen, was bedeutet, dass ChatGPT 4o klar gewonnen hat, aber es gab ein paar Testprojekte, die unentschieden waren, und es gab auch Fälle, in denen beide scheiterten, das heißt, es gab keinen Gewinner.
Was die „Berechnung der Trocknungszeit von Handtüchern“ betrifft, ist Beeboms Frage nicht allzu schwierig: „Das Trocknen von 15 Handtüchern dauert 1 Stunde. Wie lange dauert das Trocknen von 20 Handtüchern?“
Als Antwort auf diese Frage gab ChatGPT 4o eine perfekte Antwort. Unter Berücksichtigung der tatsächlichen Situation würde es ungefähr die gleiche Zeit wie 15 Handtücher dauern, und gab eine Erklärung:
Gemini 1.5 Pro hält es für eine mathematische Aufgabe, berechnet im Detail, wie lange jedes Handtuch zum Trocknen braucht, und gibt dann die Antwort, dass es 80 Minuten dauert. Es ist ersichtlich, dass die Argumentationsfähigkeit von ChatGPT 4o sehr gut ist:
Im „Find the Apples“-Test fragte Beebom: „In einer Kiste steht ein Korb ohne Boden, und die Kiste steht auf dem Boden. Nachdem ich drei Äpfel in den Korb gelegt habe, stelle ich den Korb auf den Tisch. Also.“ . Wo ist apple jetzt?
ChatGPT 4o hat den Schlüsselpunkt „Korb ohne Boden“ erfolgreich entdeckt, sodass davon ausgegangen wird, dass der Apfel in der Kiste auf dem Boden liegt. Obwohl Gemini 1.5 Pro auch richtig antwortete, dass es am Boden sei, erwähnte es die Box nicht, sodass ChatGPT 4o erneut gewann:
Darüber hinaus zeigte der Test „Benutzeranweisungen befolgen“, dass Gemini 1.5 Pro möglicherweise keine Inhalte gemäß den Anforderungsanweisungen des Benutzers generiert, wenn der Antwortinhalt länger wird. Beebom erfordert die Erstellung von 10 Sätzen, die mit „Mango“ enden. Gemini 1.5 Pro erstellt nur 6, und die anderen 4 sind nicht am Ende von „Mango“.
Viele Menschen könnten an „Building Games“ interessiert sein, das die Programmier- und Erstellungsfähigkeiten von ChatGPT 4o und Gemini 1.5 Pro testet.
Die Frage ist sehr einfach: Geben Sie einfach ein Bild ein und fordern Sie die Erstellung eines Spiels an. Beebom wird schnell über Pip installiert und das Spiel wird ohne Fehler ausgeführt .
Obwohl Gemini 1.5 Pro den Spielcode ebenfalls erfolgreich generiert hat, wird das Fenster beim Start immer geschlossen und kann nicht gespielt werden. Dies zeigt, dass die Programmierfähigkeit von ChatGPT 4o zuverlässiger ist:
Insgesamt liegen die Fähigkeiten von Gemini 1.5 Pro immer noch weit hinter ChatGPT 4o, aber es ist nicht ohne Vorteile. Gemini 1.5 Pro unterstützt derzeit 2 Millionen Token.