Zahlen Sie an die KI
Die KI-Chatbot-Kriege sind in vollem Gange, mit OpenAI und verschiedenen potenziellen Konkurrenten – beides google-ai-search-journalism“ rel=“nofollow noopener“ target=“_blank“ data-ylk=“slk:large;elm:context_link;itc:0″ class=“link „>groß Und klein – im Wettstreit um den ersten Platz in der Branche.
Heutzutage herrscht ein unglaublicher Hype um die Technologie, und die Investitionen strömen weiterhin in Strömen. Aber in der jetzigen Form haben Chatbots eine Achillesferse, die sie auf lange Sicht zu einem großen Problem machen könnte chatgpt-hidden-cost-gpu-compute/“ rel=“nofollow noopener“ target=“_blank“ data-ylk=“slk:The Washington Post reports;elm:context_link;itc:0″ class=“link „>Die Washington Post Berichte: Der Betrieb kostet eine Menge Geld.
Jedes Mal, wenn ein Benutzer diese Chatbots etwas fragt, kostet das die Unternehmen, die sie betreiben, Geld. Im Klartext: Der Betrieb ist extrem teuer und ein klares Einnahmemodell ist nicht in Sicht.
Mit anderen Worten: Die Zukunft der generativen KI ist nach wie vor ungewiss, da Unternehmen in einem Wettlauf darum konkurrieren, die steigenden Kosten niedrig zu halten und gleichzeitig neue Benutzer zu gewinnen – deren Service wiederum noch mehr kostet.
Chips ahoi
Selbst bei abonnementbasierten Modellen wie dem ChatGPT Pro-Plan von OpenAI für 20 Dollar pro Monat sind Benutzer auf nur 25 Nachrichten alle drei Stunden beschränkt, was verdeutlicht, wie rechenintensiv der Prozess ist.
Dies ist eine Realität, der sich KI-Unternehmen schmerzlich bewusst sind, insbesondere da die Vorräte an dringend benötigten Computerchips – insbesondere Grafikprozessoren (GPUs) – schwinden.
„Wir versuchen, Systeme zu entwerfen, die das Engagement nicht maximieren“, sagt OpenAI-CEO Sam Altman sagte den Mitgliedern des Kongresses während einer Anhörung im Senat letzten Monat. „Tatsächlich mangelt es uns so sehr an GPUs. Je weniger Menschen unsere Produkte nutzen, desto besser.“
„GPUs sind derzeit erheblich schwieriger zu bekommen als Medikamente“, sagte Elon Musk, CEO von Tesla Planung sein eigenes Anti-„Woke“-KI-Startup, sagte bei a Wallstreet Journal Gipfel Im vergangenen Monat.
Angesichts der steigenden Kosten entscheiden sich sogar einige der größten Player in der Technologiewelt wie Google dafür, ihre Aktivitäten zu verkleinern und sich auf große Sprachmodelle zu konzentrieren, die viel kleiner sind als andere derzeit verfügbare Modelle WaPo.
Wo die Zukunft des Marktes bleibt, bleibt abzuwarten.
„Irgendwann sind Sie am Ende der Hype-Kurve angelangt, und das Einzige, worauf Ihre Investoren an diesem Punkt achten werden, ist Ihr Endergebnis“, sagte Tom Goldstein, Informatikprofessor an der University of Maryland WaPo.
Dennoch werden die Unternehmen es wahrscheinlich weiterhin versuchen.
„Obwohl es teuer ist“, fügte Goldstein hinzu, „ist es immer noch weitaus günstiger als menschliche Arbeitskraft.“
Mehr zu KI-Chatbots: OpenAI-Konkurrent sagt, sein Chatbot habe ein rudimentäres Gewissen