[ad_1]

CNN

Wir haben genug von künstlicher Intelligenz gesehen, um zu wissen, dass der Begriff oft eine Fehlbezeichnung ist. Öffentlich verfügbare KI-Programme produzieren immer noch urkomisch erzählende Momente von Nichtintelligenz als Konzepte wie Ohren, die richtige Anzahl von Finger, ein natürlicher Stimmrhythmus oder ein zusammenhängender komplexer Gedanke entgehen ihnen weiterhin. Es macht Spaß, diese Grenzen zu finden. Es macht Spaß, uns einzureden, dass die Computer noch weit davon entfernt sind, unsere Kultur zu verschlucken.

Es macht noch mehr Spaß, dies durch unförmige, unheilige Bastelprojekte zu erreichen.

chatgpt, eine öffentlich verfügbare KI zum Erlernen von Sprachen, wurde nicht für die Erstellung von Dingen wie Häkel- oder Strickmustern entwickelt. Da es sich bei solchen Mustern jedoch um eine Form der Sprache handelt, ist es theoretisch möglich, dass das Programm eine solche erstellt. Viele neugierige Bastler haben es versuchtmit immer absurderen Ergebnissen.

Diese Übung ist nicht nur urkomisch, sondern wirft auch ein sehr faszinierendes Dilemma auf: Was passiert, wenn man ein Programm, das speziell auf Sprache trainiert wurde, bittet, etwas außerhalb dieses Bereichs zu schaffen?

Lassen Sie uns einige von ChatGPT generierte Muster häkeln und es herausfinden.

Ein paar Anmerkungen zu meiner Methodik:

  • Für jedes Häkelmuster, das ich erstellt habe, habe ich die Eingabeaufforderung „Erstellen Sie ein Häkelmuster für (leer)“ verwendet.
  • Ich habe mich genau an die Häkelanleitung gehalten. Wo es Unstimmigkeiten im Muster gab, etwa eine falsche Maschenzählung oder eine unsinnige Anweisung, habe ich nach Treu und Glauben versucht, eine Lösung zu finden.
  • Ich habe Objekte und Konzepte ausgewählt, die für Häkelprojekte nicht sehr verbreitet sind. Es wurden viele Fragen dazu aufgeworfen, inwieweit Programme wie ChatGPT Ideen generieren, die bereits von anderen erstellt wurden, und ich wollte so nah wie möglich an den Kern der Kreativität von ChatGPT herankommen.

Dies sollte das Kontrollprojekt sein: Ein einfaches Objekt mit einer eindeutigen Form, das in unzähligen Häkelanleitungen im Internet wiederholt wurde.

Genau das hat mir ChatGPT gegeben. War es eine Banane? Nicht einmal im reinsten Sinne. War es etwas, was ein extrem begrenztes, in binärem Glibber schwebendes Geheimdienstsystem einer Banane annähern würde? Womöglich.

Auf den ersten Blick sehen die Häkelanleitungen von ChatGPT genauso aus und lesen sich genauso wie Häkelanleitungen. Es gibt sogar lustige kleine Einführungen, und das Programm kann Begriffe klar nachahmen, die jeder Bastler kennt – wie zum Beispiel „einen Stich machen“. Es wusste auch, wie viele 3D-Häkelprojekte beginnen: Als Kreis.

Sobald die Anweisungen jedoch über ein paar gemeinsame Anfangsstiche hinausgingen, entwickelte sich das Projekt normalerweise zu einem von zwei Dingen: Sphären oder völliger Unsinn. Hier wusste es genug, um Anweisungen für eine Banane und eine Schale zu geben. Alles danach waren nur noch Kugeln.

Da die Banane mein Verständnis der Häkelgrenzen von ChatGPT radikal verändert hat, habe ich beschlossen, sie zurückzunehmen. Was würde das Programm aus einer vagen, qualitativen Sprache wie „seltsam“ oder „Kreatur“ machen?

Siehe auch  Die KI-App Character.ai holt in den USA zu ChatGPT auf

Du wirst es nie erraten. (Eine Sphäre.)

Dieses Muster führte zu einigen verschiedenen Teilen: einem Körper (Kugel), zwei röhrenförmigen Beinen (lange Kugeln) und zwei Ohren. Es wurde nicht angegeben, wie sie zusammengesetzt werden sollten, so dass der Ersteller selbst bestimmen konnte, wie „seltsam“ sie sind.

Während ChatGPT ein sprachlich zusammenhängendes Muster erstellen kann, war es deutlich weniger gut darin, die „Kunst“ des Ganzen zu spezifizieren, etwa wie das Werk auf eine Weise zusammengesetzt werden sollte, die die Grenzen der euklidischen Geometrie nicht sprengt. In einer traditionellen Häkelanleitung werden in der Montageanleitung bestimmte Orte und Methoden zum Anbringen der Teile sowie Fotos oder Notizen zu besonders kniffligen Schritten angegeben.

„Fühlen Sie sich frei, mit verschiedenen Farben, Garnstärken und zusätzlichen Verzierungen zu experimentieren, um Ihr Geschöpf einzigartig zu machen“, endete die Anleitung, nachdem keine Anleitung für den Zusammenbau gegeben wurde. „Viel Spaß beim Häkeln!“

Ich wusste, dass dies ein Problem sein würde, sobald eine Notiz mit der Aufschrift „Ein Ohr grün und ein Ohr braun“ erstellt wurde.

In der Einleitung zu den Anweisungen brachte ChatGPT sein Wissen zum Ausdruck, dass Baby Yoda auch als „Das Kind“ bekannt ist. Anschließend wurde „Das Kind“ – Sie haben es erraten – als eine Reihe von Kugeln dargestellt.

Dies ist ein guter Zeitpunkt, um etwas mehr Hintergrundwissen darüber vorzustellen wie ChatGPT funktioniert und warum es so große Probleme mit Dingen wie Häkelmustern hat.

„Es ist wichtig zu bedenken, dass es sich hier um eine eingeschränkte KI handelt“, sagte Casey Miller, ein Computerprogrammierer aus Kennesaw, Georgia. „Im Gegensatz zu dem, was wir wahrscheinlich als allgemeine KI bezeichnen würden, hat ChatGPT absolut keine Ahnung, was es den Leuten zurückspuckt und warum.“

Eine enge KI wird auf eine bestimmte Fähigkeit trainiert. Im Beispiel von ChatGPT besteht die Fähigkeit darin, auf eine Weise zu antworten, die so menschlich wie möglich klingt. Theoretisch wäre es möglich, eine KI zu entwickeln, die erstaunliche Häkelmuster generiert, aber das würde eine sehr spezielle Schulung und Programmierung erfordern.

„Eine allgemeine KI könnte zum Beispiel jeden beim Schach schlagen und sich dann umdrehen und ein wahnsinnig kompliziertes Häkelmuster erstellen. Aber eine Sprach-KI kann nicht häkeln“, fuhr Miller fort. „Es weiß nur, wie Menschen über Häkeln sprechen oder wie wir Muster normalerweise schriftlich vermitteln. Es ist nicht in der Lage zu interpretieren, was diese Muster tatsächlich erzeugen.“

Faire Warnung: Das ist es, was mich kaputt gemacht hat. Alles, was Sie danach sehen werden, ist eine Abscheulichkeit, ein Angriff auf die natürliche Ordnung, der Sie bis ins Mark erschrecken sollte.

Siehe auch  KI kommt: George RR Martin verklagt die Macher von ChatGPT, nachdem ein Fan damit die letzten beiden Bücher von „A Song Of Ice And Fire“ fertiggestellt hat

Zumindest war es keine Kugel.

Auch hier war ich gespannt, was ChatGPT mit einer ziemlich abstrakten Anfrage machen würde. Zunächst schien es eine sehr logische Parade zu sein:

„Um ein Häkelmuster zu erstellen, das die Antarktis darstellt, müsste man eine strukturierte Oberfläche schaffen, die der eisigen Landschaft ähnelt“, heißt es in der Antwort von ChatGPT. „Hier ist ein Muster, das die Essenz der Antarktis einfängt.“

Das Muster wies mich an, eine Anfangsmaschenkette zu erstellen und dann jede Maschenreihe darauf aufzubauen, wodurch viele flache Häkelmuster wie Decken entstehen. So weit, ist es gut. Ich habe mit 14 angefangen.

Das Problem wurde schnell deutlich, als ich in der Anleitung dann aufgefordert wurde, in jeden vorhandenen Stich fünf Stiche einzufügen.

Siehst du es? Es rast auf uns zu, wie ein entgegenkommender, immer größer werdender Zug.

Ein paar Zeilen später erhielt ich die gleichen Anweisungen. Ein paar Reihen später wiederholte es die Anweisung noch einmal: Fünf Maschen in jede Masche.

Bei der dritten Reihe mit mehr Maschen hatte ich keine 14 Maschen mehr in einer flachen Form. Ich machte 1.750 Stiche zu etwas, das einem kriechenden Korallenriff ähnelte. ChatGPT hatte mir mit seinem nicht vorhandenen Verständnis für Dinge wie Zeit, Garnmengen oder die Grenzen der menschlichen Vernunft die Häkelversion eines Fraktals gegeben. Hätte ich das Muster wie beschrieben fertiggestellt, würde ich in jeder Reihe mehr als 35.000 Maschen machen. Vernünftigerweise habe ich bei 1.750 angehalten.

Während ich arbeitete, fragte ich mich, ob ich unabsichtlich ein grobes Modell des Universums webte. Ich überlegte, welche Gleichung ich lösen müsste, um vorherzusagen, wie sich die Zeit oder vielleicht der Raum anordnen würde, wenn sie Reihe für Reihe exponentiell nach außen platzt und sich in sich selbst zusammenfaltet. Wenn ich wüsste, wie, könnte ich mich hier und jetzt wiederfinden, eingebettet in einer versteckten Gletscherspalte?

Als ich dieses Stück anderen zeigte, bat ich sie zu erraten, was es war. „Ein Gehirn“, sagten sie. „Ein Luffa!“

Nein, ihr Idioten. Es ist die Antarktis.

Ich gebe zu, das war optimistisch von mir. Ich dachte, etwas mit einer sehr spezifischen und einfachen Form wäre für ChatGPT einfacher anzunähern und ein sehr erkennbares und einzigartig konturiertes Gebäude wie Dubais Burj Al Arab schien die perfekte Mischung aus räumlicher Einfachheit und Unklarheit über Häkelmuster zu sein.

Zumindest wäre es keine Kugel!

(Es war eine Kugel.)

Es hat sehr viel Spaß gemacht zu sehen, wie ChatGPT die Dinge nahm, die es als Sprachmodell leicht wissen konnte (Das Burj Al Arab ist in Dubai! Es ist ein Favorit unter Architekturbegeisterten! Es hat ein Segel!) und es mit Dingen kombinierte es konnte nie begreifen (Was ist ein Segel! Was ist die dimensionale Grenze der menschlichen Schöpfung!). Das Ergebnis war das Burj Al Arab, sofern es in „The Flintstones“ einen gab.

Siehe auch  Die Malware Infostealer hat 101.000 ChatGPT-Konten gestohlen

Ich sah im Burj Al Arab-Test Potenzial und entschied mich für ein anderes Gebäude, von dem ich sicher war, dass es ChatGPTs Angewohnheit, alles kugelförmig darzustellen, durchbrechen würde. Der Nachbar des Burj Al Arab, der Burj Khalifa, schien eine gute Wahl zu sein. Es ist so spitz! So groß!

Sagten Sie eine spitze, hohe Kugel? ChatGPT kann das!

Wenn Sie beim Häkeln noch nie den Tränen nahe waren, kann ich sagen, dass es ein einzigartiges Erlebnis ist. Was an den Anweisungen von ChatGPT wirklich ärgerlich war, was so unsinnig war, dass es der schönen Entropie des menschlichen Denkens nahekam, war die Art und Weise, wie das Programm das Konzept eines Turms und seine Beziehung zu dem von mir geschaffenen Gebäude wahrnahm.

Nachdem ich den langen Noppen der Hauptstruktur angefertigt hatte (ein sehr ungünstiger Anfang), wies mich ChatGPT an, ein Stück Garn von der Oberseite des Gebäudes „an der Seite des Gebäudes entlang nach unten zu wickeln und so ein Spiralmuster zu bilden“, „das allmählich reduziert wird“. Abstand zwischen den einzelnen Wicklungen.“

„Jetzt haben Sie Ihr eigenes kleines Häkelmodell des Burj Khalifa!“, zwitscherte es in der Anleitung. „Dieses ikonische Gebäude kann ein großartiges Ausstellungsstück oder ein Geschenk für Architekturliebhaber sein.“

Mit den Worten von TS Eliot, Das habe ich überhaupt nicht gemeint;

Das ist es überhaupt nicht.

Vielleicht ist dreidimensionales Häkeln zu viel für eine sprachlernende KI. Vielleicht würde eine Rückkehr zu den Grundlagen dabei helfen, etwas zu schaffen, nur ein einzelnes Objekt, das auch nur die geringste Ähnlichkeit mit meinen Eingabeaufforderungen aufweist.

Das anfängliche Ergebnis dieser Aufforderung war so unsinnig, dass ich die Antwort neu generierte. Dann habe ich es noch einmal versucht. Diese Objekte nacheinander zu erschaffen, war, als würde man zusehen, wie etwas darum kämpft, geboren zu werden. Häkeler mit Adleraugen erkennen vielleicht Ausschnitte von etwas, das ein verständliches Herzmuster hätte sein können. Bei der vierten Iteration wurde sogar eine passable Annäherung an die Form erzielt. Lernte es, oder war es, wie eine Horde Affen auf Schreibmaschinen, einfach nur Glück?

Ich habe aus dieser Eingabeaufforderung ein paar weitere Muster generiert und kann Ihnen versichern, dass es nicht besser geworden ist.

Wenn es eine Weisheit gibt, die ich aus diesem Experiment gewonnen habe, dann die, dass die menschliche Intelligenz grundsätzlich interdisziplinär ist. Die Sprache gerät ins Blickfeld, was sich mit dem Gedächtnis oder der Persönlichkeit usw. verfängt. Künstliche Intelligenzprogramme funktionieren nicht wirklich so. Vielleicht kann es eine Sache wirklich gut machen – vielleicht sogar ein paar Dinge. Aber sobald man es über die ihm zugewiesene Fähigkeit hinaus drückt, klumpt es ganz nach unten.

[ad_2]

4.7/5 - (107 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein