Der wachsende Liste von Unternehmen, die KI integrieren in ihre Apps und Plattformen mussten ihre eigenen Problemumgehungen erstellen und kontinuierlich optimieren, um mit der Neigung von KI umzugehen lügen, betrügen, stylen, leihen oder tauschen. Jetzt versucht Nvidia, mehr Entwicklern eine einfachere Möglichkeit zu bieten, der KI zu sagen, dass sie ihre Falle schließen soll.
Am Dienstag, Nvidia geteilt seine sogenannten „NeMo Guardrails“, die das Unternehmen als eine Art One-Size-Fits-All-Zensur-Bot für Apps bezeichnete, die von großen Sprachmodellen unterstützt werden. Die Software ist Open Sourceund soll auf häufig verwendete moderne Toolkits wie LangChain. Nach Angaben des Unternehmens Technischer Blogverwendet NeMo ein KI-spezifisches Subsystem namens Colang als eine Art Schnittstelle, um zu definieren, welche Arten von Einschränkungen für die KI-Ausgabe jede App haben möchte.
Diejenigen, die NeMo verwenden, können den Chatbots helfen, beim Thema zu bleiben und verhindern, dass sie Fehlinformationen ausspucken, giftige oder unverblümt rassistische Antworten anbieten oder Aufgaben wie das Erstellen von bösartigem Code ausführen. Nvidia sagte, dass es bereits mit Zapier, einem Unternehmen für Webanwendungen für Geschäftszwecke, zusammenarbeitet.
Jonathan Cohen, Vice President of Applied Research bei Nvidia TechCrunch dass das Unternehmen zwar seit Jahren am Guardrails-System arbeitet, aber vor einem Jahr festgestellt hat, dass dieses System gut funktionieren würde GPT-Modelle von OpenAI. Die NeMo-Seite sagt, dass es auf älteren Sprachmodellen wie GPT-3 von OpenAI und T5 von Google funktioniert. Nvidia sagt, dass es auch auf einigen funktioniert KI-Bilderzeugungsmodelle wie Stable Diffusion 1.5 und Imagen. Ein Nvidia-Sprecher bestätigte gegenüber Gizmodo, dass NeMo mit „allen großen LLMs, die von LangChain unterstützt werden, einschließlich GPT-4 von OpenAI“, zusammenarbeiten soll.
Dennoch bleibt unklar, wie viel Gutes eine Open-Source-Leitplanke bewirken könnte. Während Wir werden möglicherweise in absehbarer Zeit kein „GPT-5“ bekommenOpenAI hat es bereits versucht Massenvermarktung seines GPT-4-Modells mit seinem API-Zugriff. Stability AI, die Macher von Stable Diffusion, ist mit seinem „XL“-Modell auch auf Unternehmen ausgerichtet. Beide Unternehmen haben versucht, den Kunden zu versichern, dass es bereits Sperren gibt Schlechte Inhalte in den Tiefen der Trainingsdaten der KI gefundenobwohl wir es besonders mit GPT-4 sind gezwungen, OpenAIs Wort dafür zu nehmen.
Und selbst wenn es in einer Software implementiert ist, die es am besten unterstützt, wie LangChain, ist es nicht so, dass NeMo alles erfassen wird. Unternehmen, die bereits KI-Systeme implementiert haben, mussten das auf die harte Tour erfahren. Bing AI von Micorosoft hat seine Reise Anfang dieses Jahres begonnen und die Benutzer sofort Möglichkeiten gefunden, es zu missbrauchen, um „Heil Hitler“ zu sagen und andere rassistische Äußerungen zu machen. Jedes Update das gab der KI etwas mehr Spielraum bewies, wie ihre KI ausgenutzt werden konnte.
Und selbst wenn die KI explizite Sperren für bestimmte Inhalte hat, bedeutet das nicht, dass sie immer perfekt ist. Letzte Woche, Snapchat nahm seinen auf „My AI“ ChatGPT basierenden Chatbot aus der Beta und zwang es allen seinen Benutzern auf. Ein Benutzer hat bewiesen, dass er es kann manipulieren Sie die KI, um das N-Wort zu sagenobwohl die Versuche anderer Benutzer mit derselben Eingabeaufforderung durch vorhandene Blöcke auf der KI vereitelt wurden.
Aus diesem Grund wurden die meisten Implementierungen von KI in einer Art „Beta“-Format veröffentlicht. Google hat rief die Veröffentlichung seiner Barden-KI an ein „Test“ während ständig versuchen, „verantwortungsvolle“ KI-Entwicklung hochzureden. Microsoft hat seine Bing-KI, die auf ChatGPT von OpenAI basiert, für eine begrenzte Anzahl von Benutzern zum Start freigegeben. Moderne KI-Chatbots sind die schlimmsten Lügner. Sie lügen, ohne zu wissen, was sie sagen, ist unwahr. Sie können schädliche, gefährliche und oft absurde Inhalte posten ohne etwas von dem zu verstehen, was es sagte.
KI-Chatbots sind schlimmer als jedes Kind, das Obszönitäten in einem Walmart schreit, weil das Kind schließlich lernen kann. Wenn sie gerufen wird, gibt die KI vor, sich zu entschuldigen, aber ohne die Lerndaten oder -prozesse der KI zu ändern, wird sich eine KI niemals ändern. Das Beste, was die meisten KI-Entwickler tun können, um die schlimmsten Impulse der KI zu unterbinden, ist, sie in einen Käfig zu stecken, wie man ihn in der Höhle des Löwen im örtlichen Zoo findet. Sie brauchen hohe Mauern, um die KI in Schach zu halten, und selbst dann stecken Sie Ihre Hand nicht durch die Gitterstäbe.
Und Sie können nicht vergessen, dass dies alles ein großes Geschäft für Nvidia ist. Diese Leitplanken sollen die bestehende KI-Software-Suite des Unternehmens für Unternehmen fördern. Nvidia ist bereits einer der größten Player im KI-Bereich, zumindest was die Hardware betrifft. Die KI-Trainingschips A100 und neuere H100 machen mehr als 90 % des globalen Marktes für diese Art von GPU aus. Berichten zufolge hat Microsoft versucht, einen Weg zu finden, einen eigenen KI-Trainingschip zu entwickeln und unter dem Joch von Nvidias Dominanz herauskommen.