An diesem Punkt haben Sie chatgpt ausprobiert. Sogar Joe Biden hat ChatGPT ausprobiert, und diese Woche machte seine Regierung eine große Show, indem sie KI-Führungskräfte wie Microsoft-CEO Satya Nadella und OpenAI-CEO Sam Altman ins Weiße Haus einlud, um zu diskutieren, wie sie machen könnten.verantwortliche KI.“

Aber vielleicht, nur vielleicht, wissen Sie immer noch nicht genau, was KI angeht – wie funktioniert dieses Zeug, ist es magisch und wird es uns alle umbringen? – aber das will ich nicht wahrhaben.

Kein Problem. Wir sind für Sie da: Wir haben den größten Teil des Frühlings damit verbracht, mit Leuten zu sprechen, die im Bereich KI arbeiten, in KI investieren, versuchen, Unternehmen in KI aufzubauen – sowie mit Leuten, die der Meinung sind, dass der aktuelle KI-Boom übertrieben oder vielleicht gefährlich fehlgeleitet ist. Über das Ganze haben wir eine Podcast-Serie gemacht, die man sich drüben anhören kann Medien neu codieren.

Aber wir haben auch eine Auswahl aufschlussreicher – und oft widersprüchlicher – Antworten herausgezogen, die wir auf einige dieser sehr grundlegenden Fragen erhalten haben. Das sind Fragen, die das Weiße Haus und alle anderen bald klären müssen, da die KI nicht verschwindet.

Lesen Sie weiter – und keine Sorge, wir sagen niemandem, dass Sie verwirrt sind. Wir sind alle verwirrt.

Wie groß ist der aktuelle KI-Boom wirklich?

Kevin Scott, Chief Technology Officer, Microsoft: Ich war 12 Jahre alt, als die PC-Revolution stattfand. Ich war in der Graduiertenschule, als die Internetrevolution passierte. Ich leitete gleich zu Beginn der mobilen Revolution, die mit dieser massiven Umstellung auf Cloud Computing zusammenfiel, ein mobiles Startup. Das fühlt sich für mich sehr nach diesen drei Dingen an.

Dror Berman, Mitbegründer, Innovation Bestreben: Mobile war eine interessante Zeit, weil es einen neuen Formfaktor bot, der es Ihnen ermöglichte, einen Computer mit sich zu führen. Ich denke, wir stehen jetzt in einer ganz anderen Zeit: Wir sind jetzt in einen uns zugänglich gewordenen grundlegenden Intelligenzblock eingeführt worden, der sich im Grunde auf all das öffentlich verfügbare Wissen stützen kann, das die Menschheit extrahiert und dokumentiert hat. Es ermöglicht uns, all diese Informationen auf eine Weise abzurufen, die in der Vergangenheit nicht möglich war.

Gary Marcus, Unternehmer; emeritierter Professor für Psychologie und Neurowissenschaften an der NYU: Ich meine, es ist absolut interessant. Dem möchte ich keine Sekunde widersprechen. Ich sehe es als Generalprobe für künstliche allgemeine Intelligenz, zu der wir eines Tages kommen werden.

Aber im Moment haben wir einen Kompromiss. Diese Systeme haben einige positive Aspekte. Sie können sie verwenden, um Dinge für Sie zu schreiben. Und es gibt einige Minuspunkte. Diese Technologie kann beispielsweise zur Verbreitung von Fehlinformationen verwendet werden, und zwar in einem Ausmaß, das wir noch nie zuvor gesehen haben – was gefährlich sein kann und die Demokratie untergraben könnte.

Und ich würde sagen, dass diese Systeme nicht sehr kontrollierbar sind. Sie sind mächtig, sie sind rücksichtslos, aber sie tun nicht unbedingt das, was wir wollen. Letztendlich wird es eine Frage geben: „Okay, wir können hier eine Demo erstellen. Können wir ein Produkt bauen, das wir tatsächlich verwenden können? Und was ist das für ein Produkt?“

Siehe auch  Mehr Spaß mit DALL-E 3 in ChatGPT: Kann es ein T-Shirt entwerfen?

Ich denke, an manchen Orten werden die Leute dieses Zeug übernehmen. Und sie werden mit der Ausgabe vollkommen zufrieden sein. An anderen Stellen gibt es ein echtes Problem.

Wie kann man KI verantwortungsvoll gestalten? Ist das überhaupt möglich?

James Manyika, SVP für Technologie und Gesellschaft, google: Sie versuchen sicherzustellen, dass die Ausgänge nicht giftig sind. In unserem Fall führen wir viele generative kontradiktorische Tests dieser Systeme durch. Wenn Sie beispielsweise Bard verwenden, ist die Ausgabe, die Sie erhalten, wenn Sie eine Eingabeaufforderung eingeben, nicht unbedingt das erste, was Bard sich ausgedacht hat.

Wir führen 15, 16 verschiedene Arten derselben Eingabeaufforderung aus, um uns diese Ergebnisse anzusehen und sie im Voraus auf Sicherheit und Dinge wie Toxizität zu bewerten. Und jetzt bekommen wir nicht immer jeden einzelnen von ihnen, aber wir bekommen schon eine Menge davon.

Eine der größeren Fragen, denen wir uns stellen müssen, ist übrigens – und das ist eine Frage über uns, nicht über die Technologie, es geht um uns als Gesellschaft – wie denken wir darüber, was wir schätzen? Wie denken wir darüber, was als Toxizität gilt? Deshalb versuchen wir, Gemeinschaften einzubeziehen und mit ihnen in Kontakt zu treten, um diese zu verstehen. Wir versuchen, Ethiker und Sozialwissenschaftler einzubeziehen, um diese Fragen zu erforschen und zu verstehen, aber das sind wirklich Fragen für uns als Gesellschaft.

Emily M. Bender, Linguistikprofessorin, University of Washington: Die Leute reden davon, die KI zu demokratisieren, und ich finde das immer sehr frustrierend, weil sie sich darauf beziehen, diese Technologie in die Hände vieler, vieler Menschen zu geben – was nicht dasselbe ist, als jedem ein Mitspracherecht bei der Entwicklung zu geben.

Ich denke, der beste Weg nach vorne ist im Grunde die Zusammenarbeit. Sie haben eine vernünftige Regulierung von außen, damit die Unternehmen zur Rechenschaft gezogen werden. Und dann haben Sie die Technikethik-Mitarbeiter im Inneren, die den Unternehmen helfen, die Verordnung tatsächlich einzuhalten und den Geist der Verordnung zu erfüllen.

Und um all dies zu erreichen, brauchen wir eine breite Bildung in der Bevölkerung, damit die Menschen von ihren gewählten Vertretern verlangen können, was sie brauchen. Damit die gewählten Vertreter in all dem hoffentlich belesen sind.

Scott: Wir haben von 2017 bis heute konsequent daran gearbeitet, eine verantwortungsbewusste KI-Praxis aufzubauen. Sie können eine KI einfach nicht für die Öffentlichkeit freigeben, ohne ein strenges Regelwerk, das sensible Verwendungen definiert, und in dem Sie einen Schadensrahmen haben. Sie müssen gegenüber der Öffentlichkeit transparent sein, was Ihr Ansatz für verantwortungsbewusste KI ist.

Wie besorgt sollten wir über die Gefahren der KI sein? Müssen wir uns über Worst-Case-Szenarien Sorgen machen?

Markus: Luftschiffe waren in den 1920er und 1930er Jahren sehr beliebt. Bis wir die Hindenburg hatten. Alle dachten, dass all diese Leute, die schwerer als Luft fliegen, ihre Zeit verschwenden. Sie sagten: „Schaut euch unsere Luftschiffe an. Sie skalieren viel schneller. Wir haben ein kleines gebaut. Jetzt haben wir einen größeren gebaut. Jetzt haben wir einen viel größeren gebaut. Es funktioniert alles super.“

Siehe auch  Ich habe ChatGPT nach Dogecoin gefragt, es warnte mich vor Schwankungen

Also, wissen Sie, manchmal skalieren Sie das Falsche. Aus meiner Sicht skalieren wir gerade das Falsche. Wir skalieren eine Technologie, die von Natur aus instabil ist.

Es ist unzuverlässig und unwahr. Wir machen es schneller und haben mehr Abdeckung, aber es ist immer noch unzuverlässig, immer noch nicht wahrheitsgemäß. Und für viele Anwendungen ist das ein Problem. Es gibt einige, für die es nicht richtig ist.

Der Sweet Spot von ChatGPT war schon immer surrealistische Prosa. Es ist jetzt besser als zuvor darin, surrealistische Prosa zu machen. Wenn das Ihr Anwendungsfall ist, ist es in Ordnung, ich habe kein Problem damit. Aber wenn Ihr Anwendungsfall etwas ist, bei dem Fehler teuer sind, wo Sie ehrlich und vertrauenswürdig sein müssen, dann ist das ein Problem.

Scott: Es ist absolut sinnvoll, über diese Szenarien nachzudenken. Es ist sinnvoller, darüber nachzudenken, wo sich die Technologie tatsächlich befindet und was der nächste Schritt ist und der Schritt darüber hinaus.

Ich denke, wir sind noch viele Schritte von den Dingen entfernt, über die sich die Menschen Sorgen machen. Es gibt Leute, die mir in dieser Behauptung nicht zustimmen. Sie denken, es wird ein unkontrollierbares, auftauchendes Verhalten geben, das passiert.

Und wir sind vorsichtig genug damit, wenn wir Forschungsteams haben, die über die Möglichkeit dieser aufkommenden Szenarien nachdenken. Aber das, was Sie wirklich brauchen müssten, damit einige der seltsamen Dinge passieren, die die Menschen beunruhigen, ist echte Autonomie – ein System, das an seiner eigenen Entwicklung teilnehmen könnte und diese Rückkopplungsschleife hat, in der Sie auf übermenschliche Weise zu einigen kommen könnten schnelle Verbesserungsrate. Und so funktionieren die Systeme derzeit nicht. Nicht die, die wir bauen.

Hat KI einen Platz in potenziell risikoreichen Umgebungen wie Medizin und Gesundheitswesen?

Bender: Wir haben bereits WebMD. Wir haben bereits Datenbanken, in denen Sie von Symptomen zu möglichen Diagnosen gehen können, damit Sie wissen, wonach Sie suchen müssen.

Es gibt viele Menschen, die ärztlichen Rat brauchen, medizinische Behandlung, die sich das nicht leisten können, und das ist ein gesellschaftliches Versagen. Und in ähnlicher Weise gibt es viele Menschen, die Rechtsberatung und juristische Dienstleistungen benötigen, sich diese aber nicht leisten können. Das sind echte Probleme, aber synthetischen Text in diese Situationen zu werfen, ist keine Lösung für diese Probleme.

Wenn überhaupt, wird es die Ungleichheiten verschärfen, die wir in unserer Gesellschaft sehen. Und um zu sagen, Leute, die bezahlen können, bekommen das Richtige; Leute, die nicht zahlen können, nun, hier, viel Glück. Sie wissen schon: Schütteln Sie die Kugel der magischen Acht, die Ihnen etwas sagen wird, das relevant erscheint, und probieren Sie es aus.

Manika: Ja, es hat einen Platz. Wenn ich versuche, als Forschungsfrage zu erforschen, wie komme ich dazu, diese Krankheiten zu verstehen? Wenn ich versuche, medizinische Hilfe für mich selbst zu bekommen, würde ich nicht zu diesen generativen Systemen gehen. Ich gehe zu einem Arzt oder ich gehe zu etwas, wo ich weiß, dass es verlässliche Tatsacheninformationen gibt.

Scott: Ich denke, es hängt nur vom tatsächlichen Liefermechanismus ab. Sie wollen absolut keine Welt, in der Sie nur ein minderwertiges Stück Software haben und keinen Zugang zu einem echten Arzt. Aber ich habe zum Beispiel einen Concierge-Arzt. Ich interagiere mit meinem Concierge-Arzt hauptsächlich per E-Mail. Und das ist eigentlich eine großartige Benutzererfahrung. Es ist phänomenal. Es spart mir so viel Zeit und ich kann auf eine ganze Reihe von Dingen zugreifen, auf die ich sonst aufgrund meines vollen Terminkalenders keinen Zugriff hätte.

Siehe auch  Wie Unternehmen mit ChatGPT-ähnlichen Diensten experimentieren

Also habe ich jahrelang gedacht, wäre es nicht fantastisch, wenn alle dasselbe haben würden? Ein erfahrener medizinischer Guru, zu dem Sie gehen können, kann Ihnen helfen, sich in einem sehr komplizierten System von Versicherungsgesellschaften und medizinischen Anbietern und so weiter zurechtzufinden. Ich denke, es ist eine gute Sache, etwas zu haben, das Ihnen helfen kann, mit der Komplexität umzugehen.

Markus: Wenn es sich um medizinische Fehlinformationen handelt, könnten Sie tatsächlich jemanden töten. Das ist eigentlich der Bereich, in dem ich mir am meisten Sorgen über fehlerhafte Informationen von Suchmaschinen mache

Jetzt suchen die Leute die ganze Zeit nach medizinischem Zeug, und diese Systeme werden die Wechselwirkungen mit Medikamenten nicht verstehen. Sie werden wahrscheinlich die Umstände bestimmter Leute nicht verstehen, und ich vermute, dass es tatsächlich einige ziemlich schlechte Ratschläge geben wird.

Wir verstehen aus technischer Sicht, warum diese Systeme halluzinieren. Und ich kann Ihnen sagen, dass sie im medizinischen Bereich halluzinieren werden. Dann ist die Frage: Was wird daraus? Wie hoch sind die Fehlerkosten? Wie verbreitet ist das? Wie reagieren Benutzer? Wir kennen all diese Antworten noch nicht.

Wird KI uns arbeitslos machen?

Bermann: Ich denke, die Gesellschaft wird sich anpassen müssen. Viele dieser Systeme sind sehr, sehr leistungsfähig und ermöglichen es uns, Dinge zu tun, die wir nie für möglich gehalten hätten. Übrigens verstehen wir noch nicht, was vollständig möglich ist. Wir verstehen auch nicht vollständig, wie einige dieser Systeme funktionieren.

Ich denke, einige Leute werden ihre Jobs verlieren. Einige Leute werden sich anpassen und neue Jobs bekommen. Wir haben eine Firma namens Leinwand das einen neuen Robotertyp für die Bauindustrie entwickelt und tatsächlich mit der Gewerkschaft zusammenarbeitet, um die Belegschaft für die Verwendung dieses Robotertyps zu schulen.

Und viele dieser Jobs, die viele Technologien ersetzen, sind nicht unbedingt die Jobs, die viele Menschen sowieso machen wollen. Ich denke also, dass wir viele neue Fähigkeiten sehen werden, die es uns ermöglichen werden, Menschen für viel aufregendere Jobs auszubilden.

Manika: Wenn Sie sich den größten Teil der Forschung über die Auswirkungen von KI auf die Arbeit ansehen, würde ich, wenn ich es in einem Satz zusammenfassen würde, sagen, dass es Arbeitsplätze gewonnen, Arbeitsplätze verloren und Arbeitsplätze verändert wurden.

Alle drei Dinge werden passieren, weil es einige Berufe gibt, bei denen eine Reihe von Aufgaben, die mit diesen Berufen verbunden sind, wahrscheinlich zurückgehen werden. Aber es gibt auch neue Berufe, die wachsen werden. Als Ergebnis dieser unglaublichen Reihe von Innovationen wird also eine ganze Reihe von Arbeitsplätzen gewonnen und geschaffen werden. Aber ich denke, der größere Effekt, ganz offen gesagt – was die meisten Menschen spüren werden – ist der Aspekt der Arbeitsplatzveränderung.

4.5/5 - (149 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein