[ad_1]

Der Aufstieg generativer KI-Tools – wie chatgpt und google Bard – hat bei Studenten im Bildungssektor Bedenken hinsichtlich des Betrugs geweckt.

Der Bericht von Hepi legt jedoch nahe, dass nur 5 Prozent der befragten Studierenden zugaben, KI-generierten Text in Prüfungen zu integrieren, ohne ihn persönlich zu bearbeiten.

Die Studie, die in Zusammenarbeit mit dem EdTech-Unternehmen Kortext durchgeführt wurde, deutet darauf hin, dass möglicherweise eine „digitale Kluft“ bei der KI-Nutzung entsteht.

Die im November 2023 durchgeführte Umfrage ergab, dass fast drei Fünftel der Studierenden (58 Prozent) aus den privilegiertesten Verhältnissen angaben, generative KI zur Vorbereitung von Beurteilungen zu nutzen, verglichen mit etwas mehr als der Hälfte (51 Prozent) aus den privilegiertesten Verhältnissen privilegierte Hintergründe.

Bei Personen mit asiatischem ethnischem Hintergrund ist die Wahrscheinlichkeit, dass sie generative KI genutzt haben, deutlich höher als bei weißen oder schwarzen Studierenden, und männliche Studierende nutzen sie häufiger als weibliche Studierende.

Der Bericht fordert Institutionen auf, KI-Tools für diejenigen bereitzustellen, die sich diese nicht leisten können – wenn festgestellt wurde, dass sie dem Lernen zugute kommen –, um zu verhindern, dass die „digitale Kluft“ wächst.

Es fügt hinzu, dass Institutionen klare Richtlinien dafür entwickeln sollten, welcher KI-Einsatz akzeptabel und was inakzeptabel ist.

Fast zwei von drei Studierenden glauben, dass ihre Einrichtung eine „klare“ Richtlinie zum Einsatz von KI hat (63 Prozent) und dass ihre Einrichtung durch KI hervorgebrachte Arbeiten erkennen könnte (65 Prozent), so die Umfrage.

Josh Freeman, Policy Manager bei Hepi und Autor des Berichts, sagte: „Studenten vertrauen darauf, dass Institutionen den Einsatz von KI-Tools erkennen, und sie haben das Gefühl, dass die Mitarbeiter verstehen, wie KI funktioniert.“

Siehe auch  Copilot, Microsofts ChatGPT ist auf dem iPhone verfügbar

[ad_2]

5/5 - (450 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein