Warum braucht die Welt so viele chatgpt-Klone?
Im Internet finden Sie Dutzende Alternativen zu ChatGPT für jeden Geschmack und Geldbeutel. In die Schnittstelle integriert sind sowohl kostenlose Dienste, beispielsweise Telegram-Chats, als auch verschiedene kostenpflichtige Optionen auf bestimmten Plattformen. Aber sie alle basieren auf einem großen Sprachmodell, dem Large Language Model (LLM). Und jedes Unternehmen hat seine eigene Vorstellung davon, wie LLM genutzt werden kann.
Jemand wiederholt gründlich die Funktionalität anderer Chatbots. Da bringt jemand etwas Neues mit. Im Allgemeinen verfolgt niemand die Schaffung großer, großer Modelle wie GPT. Hier findet eher ein „Wettrüsten“ bei der Automatisierung aller Prozesse statt: Wie bereitet man Daten richtig für die Übermittlung an LLM vor, wie schreibt man eine Eingabeaufforderung usw. Aus diesem Grund veröffentlichen Unternehmen so oft ihre eigenen ChatGPT-Alternativen – jedes sieht darin seine Einzigartigkeit und nutzt sie auf seine eigene Weise.
Man kann eine solche Motivation als PR nicht ignorieren. Für einen Entwickler ist die Veröffentlichung seines Bots eine Gelegenheit, dem gesamten Markt zu zeigen, wie er Automatisierung bei der Arbeit mit LLM nutzen kann. Und selbst die größten Unternehmen beteiligen sich an dieser Eitelkeitsmesse: Sber zum Beispiel, gestartet GigaChat, Yandex – YandexGPT. Bei Yandex befindet sich der Chatbot noch im Testmodus, das Unternehmen bietet jedoch bereits die Integration in Geschäftsanwendungen und Webdienste an. Im September öffnete Sber den Zugang zu GigaChat für jedermann in Form eines Chatbots auf Telegram. Zuvor stand der Dienst Sber-ID-Benutzern zur Verfügung und war eine Art zusätzlicher Anreiz, Kunde des Ökosystems zu werden.
Forbes.Ideen für Unternehmen
Kanal über Startups, neue Ideen und kleine Unternehmen
Erstellen Sie Ihr eigenes ChatGPT: Wo fangen Sie an?
Jedes Unternehmen oder jeder Entwickler hat sicherlich seine eigenen Gründe, eine Alternative zu ChatGPT zu entwickeln. Aber alle russischen Spieler haben ein Problem: Wenn wir über das ursprüngliche ChatGPT von OpenAI sprechen, dann braucht man für die Verbindung ein VPN, eine ausländische Nummer und eine ausländische Karte zum Bezahlen – das ist unpraktisch, wenn viele Mitarbeiter in einem Unternehmen Chat nutzen alltägliche Probleme lösen. Der Besitz eines eigenen Chatbots minimiert die Unannehmlichkeiten aufgrund der geringen Investition, die für die Erstellung erforderlich ist.
Die Zusammenarbeit mit einigen Chatbots auf dem Markt gewährleistet keine Vertraulichkeit der Informationen, da häufig nicht klar ist, wie die vom Benutzer gesendeten Anfragen verarbeitet werden. Wenn diese Anfragen sensible Daten enthalten, kann der Einsatz solcher Bots gegen die Informationssicherheitsrichtlinien der Unternehmen verstoßen. Aus diesem Grund konzentrieren sich Chatbots häufig auf Unterhaltungsfunktionen. In diesem Zusammenhang ist es notwendig, Lösungen zu entwickeln, die auf eigenen Servern (on-premise) gehostet werden können. Nur so kann die Datensicherheit gewährleistet werden.
Schließlich gibt es noch das Problem des banalen Sparens. ChatGPT oder seine hochwertigen Analoga sind kostenpflichtige Lösungen. Wenn viele Mitarbeiter in einem Unternehmen sie nutzen, wird monatlich ein ordentlicher Betrag für den Zugriff auf den Bot ausgegeben. Mit Ihrem Chatbot können Sie diese Kosten reduzieren.
Deshalb nutzen wir bei red_mad_robot Daisy – einen Chatbot, den wir im Juli 2023 eingeführt haben – als Unternehmenslösung. Alle Mitarbeiter können sich per Unternehmens-E-Mail mit dem Bot verbinden und ihn nutzen – mit gewissen Einschränkungen, aber kostenlos. Und wir sehen bereits Produktivitätssteigerungen bei einigen Problemen, die Mitarbeiter mithilfe des Bots lösen: vom Schreiben von Code bis zur Generierung von Texten und Bildern. Obwohl der Bot ursprünglich als KI-Assistent für den allgemeinen Benutzer konzipiert war, zeigte er eine solche Wirksamkeit, dass er zu einem integralen Bestandteil des internen Arbeitsablaufs wurde.
Ein Unternehmens-KI-Bot kann dabei helfen, spezifische Anfragen für einen bestimmten Geschäftsbereich zu automatisieren. Die Digitalagentur Advertalyze hat Chad entwickelt, einen Aggregator für neuronale Netze, bei dem Sie auf Anfrage Texte und Illustrationen in einem einzigen Fenster bestellen können. Bei der Produktion von Inhalten oder Werbebannern nutzte das Unternehmen neuronale Netze, erkannte jedoch irgendwann, dass die Verwendung ausländischer SIM- und Bankkarten nicht mehr unbequem war. Wir beschlossen, unseren eigenen Service zu entwickeln: Wir bereiteten ein MVP vor, testeten es im Team und brachten es dann auf den Markt. Es stellte sich heraus, dass viele Menschen ähnliche Schmerzen hatten, sodass Chad auch ohne Fortschritte schnell loslegte. Derzeit sind die neuronalen Netze DALL-E und ChatGPT mit der Plattform verbunden – sie reagieren über die API auf Benutzeranfragen. midjourney wird dort bald hinzugefügt und es ist geplant, weitere neuronale Netze und Dienste anzubinden.
Das Startup TextMark hat einen eigenen SaaS-Dienst entwickelt: einen KI-Bot, der als Assistent eines SMM-Spezialisten fungiert. Er weiß, wie man Inhalte erstellt, Veröffentlichungen plant, vorgefertigte Artikel schreibt und bestehende umschreibt. Dieses Tool kann auch SEO-Artikel in großen Mengen generieren. Die Einzigartigkeit besteht darin, dass es in Echtzeit die Artikel der Wettbewerber aus dem Internet sammelt, den Kontext und aktuelle Suchergebnisse berücksichtigt und so bereits optimierte Texte erstellt. Darüber hinaus generiert es alles im HTML-Format – Sie können es sofort veröffentlichen und müssen keine Zeit mit dem Layout verschwenden.
So wählen Sie einen KI-Bot aus
Aus Nutzersicht gibt es drei Hauptparameter, anhand derer Sie einen generativen Chatbot auswählen können: UX/UI, Preis und Funktionalität.
Die Benutzerfreundlichkeit wird wahrscheinlich der erste Faktor sein. Es hängt alles davon ab, wie eine Person an den Umgang mit Technologie gewöhnt ist: ob es für sie beispielsweise bequem ist, einen Chatbot zu Telegram hinzuzufügen, oder ob sie lieber eine separate Anwendung herunterladen möchte. Einige Unternehmen erstellen auch eine separate Weboberfläche – einigen wird diese Art der Verwendung des Bots am besten gefallen.
Der zweite Punkt sind natürlich die Kosten. Es gibt keine völlig kostenlosen generativen Chatbots. Genauer gesagt gibt es „Shareware“ mit der Möglichkeit eines Upgrades auf eine Premium-Version. Diejenigen Entwickler, die behaupten, dass ihr Produkt völlig kostenlos sei, verwenden entweder Modelle alten Stils oder überhaupt kein GPT – sondern beispielsweise die nichtkommerziellen Lizenzen LLaMA oder Alpaca: Das sind relativ neue Frameworks, und sie haben noch nicht alle die Funktionalität von GPT. Modelle aus Open-Source können auch kostenlos sein und einige Aufgaben meistern sie auch gut, allerdings nicht in dem Maße wie GPT von OpenAI. Um auf einen qualitativ hochwertigen Chatbot zuzugreifen, müssen Sie also Geld ausgeben – und hier liegt es am Benutzer, wie viel er bereit ist auszugeben und welchem Entwickler er mehr vertraut, ob er bereit ist, für den Namen zu viel zu bezahlen usw.
Nun zur Frage der Funktionalität. Der Preis hier garantiert nicht die Verfügbarkeit einer großen Anzahl von Optionen – im Gegenteil, Sie können die angenehmste Funktionalität, die Sie benötigen, zu einem erschwinglichen Preis kaufen. Sie müssen beispielsweise Sprachnachrichten transkribieren, Bilder generieren, eine Verbindung zu GPT herstellen und eine ausreichende Anzahl von Anfragen pro Monat haben – solche Optionen sind auf dem Markt verfügbar.
Die Zukunft generativer Chatbots
Derzeit verwenden KI-Bots ein Single-Modal-Large-Language-Modell, was bedeutet, dass sie nur einen Datentyp akzeptieren. Menschen senden eine SMS, das neuronale Netzwerk kann mit Text, Code oder einem Bild antworten. Zukünftig werden Entwickler versuchen, ein multimodales System zu schaffen.
Im Multimodal Language Model (MLM) nutzen Bots verschiedene Arten von Inhalten: Sie können ein Video, ein Foto, ein Dokument akzeptieren. Und unter der Haube wird alles so arrangiert, dass der Bot mit verschiedenen Dateitypen arbeiten kann.
Der aktuelle Wettlauf um Chatbots könnte dazu führen, dass Entwickler gute Treiber für verschiedene Arten von Modalitäten entwickeln, das heißt für verschiedene Arten von Daten. Schließlich fügen Menschen benutzerdefinierten Chatbots eine Vielzahl von Funktionen hinzu. Zum Beispiel: „Senden Sie uns ein Word-Dokument und wir können Ihnen sagen, worum es geht, eine kurze Zusammenfassung erstellen und diese als separate Datei speichern.“ Oder „Geben Sie uns eine Audioaufnahme, wir transkribieren sie und teilen sie nach Sprechern auf“ oder „Laden Sie eine Videoaufnahme hoch, wir transkribieren sie, unterteilen die Daten in Kategorien, klassifizieren sie und fügen sie der Datenbank hinzu.“ All dies wird dazu führen, dass wir in Zukunft intelligente Assistenten „in unserer Tasche“ haben werden, die gleichzeitig Daten verarbeiten und als Wissensbasis fungieren können.
Es ist mittlerweile offensichtlich, dass klassische neuronale Netze wie ChatGPT oder Midjorney in ihrer Rohform für Unternehmen und Marktspezialisten wenig Nutzen bringen. Laut einer Statistik des Entwicklers Chad sind die meisten Nutzer des Dienstes Schüler und Studenten. Daher liegt die Zukunft neuronaler Netze in Nischen, in denen KI-Technologien an die Bedürfnisse eines bestimmten Unternehmens und bestimmter Produkte angepasst werden. Sie können beispielsweise Eingabeaufforderungen für ChatGPT schreiben, sodass das neuronale Netzwerk zu einer unternehmensweiten Wissensdatenbank für Unternehmen wird. Oder erstellen Sie ein separates Produkt wie das neuronale Netzwerk „Sprachunterricht“ von DuoLingo. All dies sind Wachstumspunkte für Unternehmen.
Infolgedessen wird es bei jeder Anwendung generativer Chatbots einige wenige Führungskräfte geben. Die Wirtschaft verändert sich, aber KI-Assistenten werden den Menschen nicht vollständig ersetzen. Sie werden Prozesse beschleunigen und verbessern, mit ihrer Hilfe werden Unternehmen effizienter – aber das bedeutet nicht, dass keine Menschen benötigt werden.
Die Meinung der Herausgeber stimmt möglicherweise nicht mit der Sichtweise des Autors überein