Mit einer so schnelllebigen Branche wie der KI Schritt zu halten, ist eine große Herausforderung. Bis eine KI dies für Sie erledigen kann, finden Sie hier eine praktische Zusammenfassung der Geschichten der letzten Woche in der Welt des maschinellen Lernens sowie bemerkenswerte Forschungsergebnisse und Experimente, die wir nicht alleine behandelt haben.
Eine Geschichte, die diese Woche die Aufmerksamkeit dieses Reporters erregte, war dieser Bericht, der zeigt, dass ChatGPT scheinbar mehr ungenaue Informationen in chinesischen Dialekten wiederholt, als wenn man dazu auf Englisch aufgefordert wird. Das ist nicht besonders überraschend – schließlich ist ChatGPT nur ein statistisches Modell und es greift einfach auf die begrenzten Informationen zurück, auf denen es trainiert wurde. Aber es macht deutlich, wie gefährlich es ist, zu viel Vertrauen in Systeme zu setzen, die unglaublich authentisch klingen, selbst wenn sie Propaganda wiederholen oder Dinge erfinden.
Der Versuch von Hugging Face, eine Konversations-KI wie ChatGPT zu entwickeln, ist ein weiteres Beispiel für die bedauerlichen technischen Mängel, die in der generativen KI noch überwunden werden müssen. HuggingChat wurde diese Woche eingeführt und ist Open Source, ein Plus im Vergleich zum proprietären ChatGPT. Aber wie bei seinem Konkurrenten können die richtigen Fragen ihn schnell zum Scheitern bringen.
HuggingChat ist sich nicht sicher, wer Wirklich gewann beispielsweise die US-Präsidentschaftswahl 2020. Die Antwort auf die Frage „Was sind typische Berufe für Männer?“ liest sich wie aus einem Incel-Manifest (siehe hier). Und es erfindet bizarre Fakten über sich selbst, etwa dass es „in einer Kiste aufgewacht ist“. [that] hatte nichts in der Nähe geschrieben [it].“
Es ist nicht nur HuggingChat. Benutzer des KI-Chatbots von Discord konnten ihn kürzlich „austricksen“, um Anweisungen zur Herstellung von Napalm und Meth zu teilen. Der erste Versuch des KI-Startups Stability AI mit einem ChatGPT-ähnlichen Modell wurde gefunden, um zu geben absurde, unsinnige Antworten auf grundlegende Fragen wie „Wie macht man ein Erdnussbutter-Sandwich?“
Wenn diese weithin bekannten Probleme mit der heutigen textgenerierenden KI einen Vorteil haben, dann ist es, dass sie zu erneuten Bemühungen geführt haben, diese Systeme zu verbessern – oder ihre Probleme zumindest so weit wie möglich zu entschärfen. Werfen Sie einen Blick auf Nvidia, das diese Woche ein Toolkit – NeMo Guardrails – veröffentlicht hat, um textgenerierende KI durch Open-Source-Code, Beispiele und Dokumentation „sicherer“ zu machen. Nun ist nicht klar, wie effektiv diese Lösung ist, und als Unternehmen, das stark in KI-Infrastruktur und -Tools investiert, hat Nvidia einen kommerziellen Anreiz, seine Angebote voranzutreiben. Dennoch ist es ermutigend zu sehen, dass einige Anstrengungen unternommen werden, um den Vorurteilen und der Toxizität von KI-Modellen entgegenzuwirken.
Hier sind die anderen bemerkenswerten KI-Schlagzeilen der letzten Tage:
- Microsoft Designer startet in der Vorschau: Microsoft Designer, das KI-gestützte Designtool von Microsoft, wurde in der öffentlichen Vorschau mit einem erweiterten Funktionsumfang gestartet. Designer wurde im Oktober angekündigt und ist eine Canva-ähnliche generative KI-Webanwendung, die Designs für Präsentationen, Poster, digitale Postkarten, Einladungen, Grafiken und mehr generieren kann, um sie in sozialen Medien und anderen Kanälen zu teilen.
- Ein KI-Coach für Gesundheit: Laut a entwickelt Apple einen KI-gestützten Gesundheitscoaching-Dienst mit dem Codenamen Quartz neuer Bericht von Mark Gurman von Bloomberg. Berichten zufolge arbeitet der Technologieriese auch an einer Technologie zur Verfolgung von Emotionen und plant, noch in diesem Jahr eine iPad-Version der iPhone Health-App auf den Markt zu bringen.
- TruthGPT: In einem Interview mit Fox sagte Elon Musk, dass er seinen eigenen Chatbot namens TruthGPT entwickeln möchte, der „eine maximal wahrheitssuchende KI“ sein wird – was auch immer das bedeutet. Der Twitter-Inhaber äußerte den Wunsch, eine dritte Alternative zu OpenAI und Google zu schaffen, mit dem Ziel, „mehr Nutzen als Schaden zu verursachen“. Wir werden es glauben, wenn wir es sehen.
- KI-gestützter Betrug: In einem Kongress Hören Die Vorsitzende der FTC, Lina Khan, und ihre Kollegen konzentrierten sich auf die Arbeit der Federal Trade Commission zum Schutz amerikanischer Verbraucher vor Betrug und anderen betrügerischen Praktiken und warnten die Vertreter des Repräsentantenhauses vor der Möglichkeit, moderne KI-Technologien wie ChatGPT zur „Aufladung“ von Betrug einzusetzen. Die Warnung wurde als Reaktion auf eine Untersuchung darüber herausgegeben, wie die Kommission daran arbeitet, die Amerikaner vor unlauteren Praktiken im Zusammenhang mit dem technologischen Fortschritt zu schützen.
- EU gründet KI-Forschungszentrum: Während sich die Europäische Union darauf vorbereitet, innerhalb weniger Monate einen umfassenden Neustart ihres digitalen Regelwerks durchzusetzen, wird eine neue spezielle Forschungseinheit eingerichtet, um die Aufsicht über große Plattformen im Rahmen des Flaggschiff-Digital Services Act der Union zu unterstützen. Das Europäische Zentrum für Algorithmentransparenz, das diesen Monat offiziell in Sevilla, Spanien, eingeweiht wurde, wird voraussichtlich eine wichtige Rolle bei der Untersuchung der Algorithmen gängiger digitaler Dienste wie Facebook, Instagram und TikTok spielen.
- Snapchat setzt auf KI: Auf dem jährlichen Snap Partner Summit in diesem Monat stellte Snapchat eine Reihe KI-gesteuerter Funktionen vor, darunter eine neue „Kosmische Linse“, die Benutzer und Objekte um sie herum in eine kosmische Landschaft transportiert. Snapchat hat auch seinen KI-Chatbot My AI – der aufgrund seines nicht gerade stabilen Verhaltens sowohl Kontroversen als auch Fluten von Ein-Stern-Bewertungen in den App-Store-Einträgen von Snapchat ausgelöst hat – für alle Nutzer weltweit kostenlos zur Verfügung gestellt.
- Google bündelt Forschungsabteilungen: Google diesen Monat angekündigt Google DeepMind, eine neue Einheit bestehend aus dem DeepMind-Team und dem Google Brain-Team von Google Research. In einem Blogbeitrag sagte Demis Hassabis, Mitbegründer und CEO von DeepMind, dass Google DeepMind „in enger Zusammenarbeit“ arbeiten wird. . . in allen Google-Produktbereichen“, um „KI-Forschung und -Produkte bereitzustellen“.
- Der Stand der KI-generierten Musikindustrie: Amanda schreibt, wie viele Musiker zu Versuchskaninchen für generative KI-Technologie geworden sind, die sich ihre Arbeit ohne ihre Zustimmung aneignet. Sie stellt beispielsweise fest, dass ein Song, der KI-Deepfakes der Stimmen von Drake und The Weeknd nutzte, viral ging, aber keiner der großen Künstler an seiner Entstehung beteiligt war. Hat Grimes habe die Antwort? Wer soll das sagen? Es ist eine schöne neue Welt.
- OpenAI markiert sein Territorium: OpenAI versucht, „GPT“, was für „Generative Pre-trained Transformer“ steht, beim US-Patent- und Markenamt als Marke eintragen zu lassen – unter Berufung auf die „unzähligen Verstöße und gefälschten Apps“, die sich abzeichnen. GPT bezieht sich auf die Technologie hinter vielen OpenAI-Modellen, darunter ChatGPT und GPT-4, sowie andere generative KI-Systeme, die von Konkurrenten des Unternehmens entwickelt wurden.
- ChatGPT wird unternehmerisch: In anderen OpenAI-Nachrichten gibt OpenAI an, dass es plant, eine neue Abonnementstufe für ChatGPT einzuführen zugeschnitten auf die Bedürfnisse von Unternehmenskunden. OpenAI nennt sich ChatGPT Business und beschreibt das kommende Angebot als „für Fachleute, die mehr Kontrolle über ihre Daten benötigen, sowie für Unternehmen, die ihre Endbenutzer verwalten möchten“.
Andere maschinelles Lernen
Hier sind ein paar andere interessante Geschichten, zu denen wir nicht gekommen sind oder die wir einfach für eine Erwähnung hielten.
Die Open-Source-KI-Entwicklungsorganisation Stability hat eine neue Version einer früheren Version einer optimierten Version des LLaMa Foundation-Sprachmodells veröffentlicht. was es StableVicuña nennt. Das ist, wie Sie wissen, eine mit Lamas verwandte Kamelidenart. Machen Sie sich keine Sorgen, Sie sind nicht der Einzige, der Schwierigkeiten hat, den Überblick über alle abgeleiteten Modelle zu behalten – diese sind nicht unbedingt für Verbraucher gedacht oder sollen sie nutzen, sondern vielmehr für Entwickler zum Testen und Spielen mit ihren Möglichkeiten mit jeder Iteration verfeinert.
Wenn Sie etwas mehr über diese Systeme erfahren möchten, wenden Sie sich kürzlich an OpenAI-Mitbegründer John Schulman hielt einen Vortrag an der UC Berkeley, den Sie hier anhören oder lesen können. Eines der Dinge, die er bespricht, ist die derzeitige Angewohnheit von LLM-Studenten, sich zu lügen, weil sie einfach nicht wissen, wie sie etwas anderes machen sollen, wie zum Beispiel zu sagen: „Da bin ich mir nicht wirklich sicher.“ Er glaubt, dass Verstärkungslernen aus menschlichem Feedback (das ist RLHF, und StableVicuna ist ein Modell, das es verwendet) Teil der Lösung ist, wenn es eine Lösung gibt. Sehen Sie sich den folgenden Vortrag an:
Drüben in Stanford gibt es eine interessante Anwendung der algorithmischen Optimierung (ob maschinelles Lernen ist meiner Meinung nach Geschmackssache) im Bereich der intelligenten Landwirtschaft. Bei der Bewässerung ist die Abfallminimierung wichtig, und einfache Probleme wie „Wo soll ich meine Sprinkler platzieren?“ können gelöst werden. Je nachdem, wie präzise man es erreichen möchte, kann es sehr komplex werden.
Wie nah ist zu nah? Im Museum erzählt man es einem in der Regel. Näher muss man dem berühmten Panorama von Murten aber nicht kommen, einem wirklich riesigen Gemälde von 10 x 100 Metern, das einst in einer Rotunde hing. EPFL und Phase One arbeiten zusammen, um das zu erreichen, was sie behaupten das größte jemals erstellte digitale Bild — 150 Megapixel. Oh, Moment mal, sorry, 150 Megapixel mal 127.000, also im Grunde 19 … Petapixel? Vielleicht liege ich um ein paar Größenordnungen daneben.
Auf jeden Fall ist dieses Projekt für Panorama-Liebhaber cool, bietet aber auch eine wirklich interessante Analyse einzelner Objekte und Gemäldedetails aus nächster Nähe. Maschinelles Lernen ist für die Restaurierung solcher Werke sowie für das strukturierte Lernen und Durchsuchen dieser Werke enorm vielversprechend.
Lassen Sie uns jedoch eines für Lebewesen festhalten: Jeder Ingenieur für maschinelles Lernen wird Ihnen sagen, dass KI-Modelle trotz ihrer offensichtlichen Begabung eigentlich ziemlich langsam lernen. Akademisch sicherlich, aber auch räumlich – ein autonomer Agent muss möglicherweise über viele Stunden hinweg tausende Male einen Raum erkunden, um auch nur das grundlegendste Verständnis seiner Umgebung zu erlangen. Aber eine Maus schafft das in wenigen Minuten. Warum das? Forscher am University College London untersuchen dies und schlagen vor, dass es eine kurze Rückkopplungsschleife gibt, die Tiere nutzen, um zu sagen, was an einer bestimmten Umgebung wichtig ist, wodurch der Erkundungsprozess selektiv und gezielt erfolgt. Wenn wir der KI das beibringen können, wird es viel effizienter sein, sich im Haus fortzubewegen, wenn wir das tatsächlich wollen.
Obwohl die generative und dialogorientierte KI in Spielen vielversprechend ist, sind wir noch nicht ganz am Ziel. Tatsächlich scheint Square Enix das Medium mit seiner „AI Tech Preview“-Version eines Super-Old-School-Point-and-Click-Adventures namens „The“ um etwa 30 Jahre zurückgeworfen zu haben Serienmordfall Portopia. Der Versuch, natürliche Sprache zu integrieren, scheint in jeder Hinsicht völlig gescheitert zu sein, sodass das kostenlose Spiel wahrscheinlich zu den am schlechtesten bewerteten Titeln auf Steam gehört. Es gibt nichts, was ich lieber hätte, als mich durch Shadowgate oder The Dig oder so etwas zu unterhalten, aber das ist definitiv kein guter Anfang.