Letztes Jahr, im Juni, als Sam Altman in Indien war, wurde er gefragt: Was würde ein indisches Unternehmen brauchen, um so etwas wie chatgpt zu entwickeln? Seine Antwort auf diese Frage ging viral, weil sie in gewisser Weise ablehnend gegenüber dem war, was Inder mit KI tun könnten. Altman hatte gesagt: Inder können versuchen, eine KI wie ChatGPT aufzubauen, aber sie werden scheitern. Fast ein Jahr später gibt es Versuche, indienspezifische Large Language Models (LLMs) zu entwickeln. Aber die jüngsten Ereignisse in diesem Bereich, insbesondere in den letzten 10 Tagen, zeigen, dass die Bemühungen, so etwas wie ChatGPT aufzubauen, tatsächlich stecken bleiben.

Zwei Dinge stechen besonders hervor: Krutrim, ein von Ola eingeführtes Tool, und die jüngsten Richtlinien, die am Freitag vom Ministerium für Elektronik und Informationstechnologie (Meity) herausgegeben wurden.

Lassen Sie uns zuerst über Krutrim sprechen. Krutrim wird als Indiens eigene LLMs und als selbst entwickeltes KI-Tool wie ChatGPT angepriesen und letzten Monat der Öffentlichkeit zugänglich gemacht. Innerhalb weniger Tage verpuffte die Aufregung um das in Indien hergestellte KI-Tool. Die Leute begannen damit zu interagieren und stellten schnell fest, dass das KI-Tool unausgegoren ist. Es lieferte den Leuten viele ungenaue Informationen, es halluzinierte viel – im Sinne einer erfundenen Information – und in einem Fall platzte es sogar heraus, dass es von OpenAI erstellt und entwickelt worden sei. Dies führte dazu, dass viele spekulierten, dass Krutrim wahrscheinlich nichts anderes als ein schicker Wrapper auf etwas wie ChatGPT ist. Die Vorwürfe waren schwerwiegend genug, dass Ola reagierte, was das Unternehmen in einem Tweet tat. Das Unternehmen sagte: „Wir haben das Problem untersucht und festgestellt, dass die Hauptursache ein Datenleckproblem aus einem der Open-Source-Datensätze ist, die bei unserer LLM-Feinabstimmung verwendet wurden.“

Screenshot: @Krutrim/X

Ungeachtet dessen zeigten seine Einführung und der anschließende Aufruhr um seine Produktion, dass Krutrim definitiv nicht für die Hauptsendezeit bereit war, und es zeigte auch, dass wir wahrscheinlich nicht mithalten werden, wenn dies das ist, was ein indisches Unternehmen im LLM-Bereich am besten kann mit Leuten wie ChatGPT in Kürze.

Siehe auch  Einem Anwalt drohen Sanktionen, nachdem er ChatGPT genutzt hat, um einen Brief voller gefälschter Zitate zu verfassen

Lassen Sie uns dennoch ein wenig freundlich zu Krutrim sein und die Dinge ins rechte Licht rücken. Denn nur wenige Tage, nachdem Krutrim den öffentlichen Test nicht bestanden hatte, fiel auch Googles Gemini durch. Und wie! Über seine Probleme mit Bildern historischer Persönlichkeiten hinaus sorgte google Gemini in Indien für Aufruhr, nachdem es einige Meinungen und Ansichten über Premierminister Narender Modi als Fakten herausplatzte.

Die Regierung lässt den Hammer fallen

Nun sind LLMs fehlbar. Im KI-Bereich stehen wir noch am Anfang, und wenn ein Unternehmen wie Google es nicht hinbekommt, sollten wir gegenüber kleineren Unternehmen und Start-ups wie Ola nicht zu hart vorgehen. Doch nach dem Krutrim-und-Gemini-Fiasko scheint die indische Regierung nach dem klassischen Motto von jemandem zu handeln, der einen Hammer hat: Jedes Problem ist ein Nagel.

Dies ist wahrscheinlich auch der Grund, warum die indische Regierung eine strenge Empfehlung herausgegeben hat, die sich wahrscheinlich auf die Art und Weise auswirken wird, wie indische Unternehmen im Land KI-Tools wie ChatGPT entwickeln. Und wenn in einem freizügigen Umfeld die besten indischen Unternehmen, die bisher etwas wie Krutrim geschafft haben, in einem restriktiveren Umfeld so etwas erreichen würden, wäre das vielleicht gar nicht möglich.

Am Freitag gab Meity seine Empfehlung heraus, in der es heißt: „Die Verwendung von unzureichend getesteten, unzuverlässigen Modellen künstlicher Intelligenz (wie LLMs, generativer KI, Software(n) oder Algorithmen) und deren Verfügbarkeit für Benutzer im indischen Internet.“ Dies muss mit ausdrücklicher Genehmigung der indischen Regierung erfolgen.“

Dies führte zu einem Aufruhr bei vielen Technologen, Experten und Personen aus der KI-Branche, die die neue Empfehlung als schädlich für Indiens Bemühungen bezeichneten, so etwas wie ChatGPT zu schaffen.

Siehe auch  ChatGPT wird ein Jahr alt und markiert einen wichtigen Meilenstein für generative KI

Einige Tage später, am Montag, stellte der Unionsminister für IT, Rajeev Chandrasekhar, klar. Er sagte, diese Regel ziele in erster Linie auf große Plattformen und nicht auf Startups. „Die Beratung richtet sich an bedeutende Plattformen und die Einholung einer Erlaubnis bei Meity gilt nur für große Plattformen und gilt nicht für Start-ups“, schrieb Chandrasekhar.

Aber nicht alle sind überzeugt. Stattdessen glauben sie, dass indische Startups und Unternehmen, die sich mit KI befassen, ihre Bemühungen ins Ausland verlagern würden, insbesondere zu einer Zeit, in der Dubai offenbar auch stark in die Schaffung einer KI-fähigen Infrastruktur und eines politischen Raums investiert.

Aravind Srinivas, CEO von Perplexity AI, zitierte einen Nachrichtenbericht über neue Empfehlungen und sagte: „Schlechter Schachzug Indiens.“ Er war nicht allein. Ähnliche Ansichten äußerte Bindu Reddy, CEO von Abacus AI, und sagte: „Indien hat sich gerade von seiner Zukunft verabschiedet … Jedes Unternehmen, das ein GenAI-Modell einsetzt, benötigt jetzt die Genehmigung der indischen Regierung. Das heißt, Sie benötigen jetzt eine Genehmigung für den bloßen Einsatz eines 7b.“ Open-Source-Modell.“

Screenshot von @AravSrinivas/X
Screenshot von @bindureddy/X

Andere Technologieexperten betonten ebenfalls, dass sich die Empfehlung wahrscheinlich auf die Arbeit an KI-Tools in Indien auswirken werde. „Dieser Hinweis mag gut gemeint sein, ist aber übertrieben … Er beeinträchtigt die Innovation“, sagt Mishi Choudhary gegenüber India Today Tech. „Die Tatsache, dass Klarstellungen für ein Advisory herausgegeben werden müssen, zeigt uns, dass es überstürzt war und nur ein Problem angehen sollte, das durch Googles Gemini verursacht wurde. KI braucht Vorschriften und Leitplanken wie die Kennzeichnung, aber nicht wie die aktuelle.“

Choudhary ist Technologieanwalt und Online-Bürgerrechtsaktivist und außerdem Gründer von SFLC.in.

Neil Shah, Vizepräsident bei Counterpoint Research, stimmt zu, dass bei der KI-Entwicklung Vorsicht geboten ist. Er sagt aber auch, dass es die KI-Entwicklung in Indien verlangsamen wird. „Die indischen Regulierungsbehörden stellen sicher, dass ethikgesteuerte KI Vorrang vor wirtschaftsgesteuerter KI hat, was die allgemeine KI-Verbreitung in Indien verlangsamen könnte, bis die KI-gesteuerten Plattformen die Ergebnisse präzise, ​​ohne Fehlinformationen und nutzbar liefern“, sagte er.

Siehe auch  Jugendliche nutzen und hören häufiger von ChatGPT als Eltern: Umfrage

Thomas George, Präsident von CyberMedia Research, sagte, dass die Regierung ihre Bedenken mit den Bedürfnissen der Branche in Einklang bringen müsse. „Es ist zwingend erforderlich, dass ein empfindliches Gleichgewicht zwischen der Förderung von Transparenz und Innovation im KI-Sektor und gleichzeitigem Schutz der Privatsphäre und der Rechte an geistigem Eigentum besteht“, sagt er.

Hatte Altman Recht?

Um auf Sam Altman und seine Herausforderung an indische Unternehmen und Technologen zurückzukommen: Bisher hat Altman einigermaßen recht behalten. Allerdings ist es noch zu früh, um zu sagen, dass indische Unternehmen so etwas wie ChatGPT nicht aufbauen können.

In Indien gibt es weitere LLM-Bemühungen, von denen einige möglicherweise sogar einen größeren Umfang haben als Krutrim. Auch diese Dinge brauchen Zeit. Aber es ist klar, dass der Aufbau eines zuverlässigen LLM nicht etwas ist, das ein Unternehmen innerhalb von Monaten bewältigen kann, und indische Unternehmen stehen vor großen Herausforderungen – vor allem Herausforderungen im Zusammenhang mit Talent und Infrastruktur, wie zum Beispiel riesigen Farmen von Top-GPUs. Nur zum Kontext: Mark Zuckerberg von Meta gibt dieses Jahr viel Geld für den Kauf von 350.000 H100 Nvidia-Grafikkarten aus. Diese GPUs werden dann zum Trainieren von KI-Modellen verwendet.

Dies sind zwei Hauptthemen, die Srinivas kürzlich in einem Interview hervorgehoben hat. Aber die letzten Tage zeigen, dass Indiens KI-Pläne nicht nur mit diesen beiden Hindernissen konfrontiert sind. Es gibt jetzt auch den politischen Raum, und es ist möglich, dass, wenn der Meity-Ratgeber Bestand hat und religiös durchgesetzt wird, alle Unternehmen, die in Indien im KI-Bereich tätig sind, schwer getroffen werden.

Herausgegeben von:

Nandini Yadav

Veröffentlicht auf:

5. März 2024

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein