Intelligenza Artificiale: ChatGPT supera gli studenti universitari nella stesura di compiti.
Uno studio pubblicato su Nature Scientific Reports ha rivelato che ChatGPT può raggiungere o persino superare le valutazioni medie degli studenti universitari rispondendo a domande di valutazione in vari ambiti, come informatica, studi politici, ingegneria e psicologia. La ricerca ha anche evidenziato che quasi il 75% degli studenti intervistati utilizzerebbe ChatGPT per supporto nei loro compiti, sebbene molti docenti ritengano che il suo utilizzo sia equiparabile al plagio.
Per analizzare le prestazioni di ChatGPT in confronto a quelle degli studenti in compiti universitari, Talal Rahwan e Yasir Zaki hanno collaborato con docenti di 32 corsi presso la New York University Abu Dhabi (NYUAD) per ottenere tre risposte studentesche a dieci domande di valutazione da loro proposte. Successivamente, è stato chiesto a ChatGPT di fornire tre set di risposte per ciascuna delle dieci domande. Queste risposte sono state valutate da tre esaminatori – all’oscuro della loro provenienza – insieme a quelle degli studenti. In 9 corsi su 32, le risposte generate da ChatGPT hanno ottenuto una valutazione media simile o superiore a quella degli studenti. Solo in matematica ed economia gli studenti hanno superato costantemente ChatGPT. L’area in cui ChatGPT ha maggiormente superato gli studenti è stata “Introduzione alle politiche pubbliche”, dove ha ottenuto una valutazione media di 9.56 rispetto al 4.39 degli studenti.
Inoltre, i ricercatori hanno condotto un sondaggio su 1.601 persone provenienti da Brasile, India, Giappone, Stati Uniti e Regno Unito – inclusi almeno 200 studenti e 100 docenti per ciascun paese – riguardo all’utilizzo di ChatGPT nei compiti universitari. Il 74% degli studenti ha dichiarato che avrebbero utilizzato ChatGPT. Tuttavia, in tutti i paesi, i docenti hanno sottostimato la percentuale di studenti disposti a utilizzare ChatGPT e il 70% di loro ha dichiarato che considererebbe il suo utilizzo come plagio.
Infine, gli autori hanno evidenziato che due strumenti per identificare testi generati da IA – GPTZero e AI text classifier – hanno erroneamente classificato le risposte prodotte da ChatGPT in questo studio come scritte da un essere umano nel 32% e 49% dei casi, rispettivamente.
Complessivamente, questi risultati forniscono spunti utili per orientare le politiche sull’utilizzo di strumenti di IA nell’ambito educativo.
Articolo Nature Scientific Reports: Perception, performance, and detectability of conversational artificial intelligence across 32 university courses. Percezione, prestazioni e rilevabilità dell’intelligenza artificiale conversazionale in 32 corsi universitari. DOI 10.1038/s41598-023-38964-3 .
Lascia una risposta
Devi essere connesso per inviare un commento.