Notizie su ottica e fotonica
Hanna Lanford
Gerd Kortemeyer
Cosa significa per gli educatori se un chatbot AI riesce a superare un corso di fisica? Incuriosito dal dibattito sui grandi modelli linguistici nel mondo accademico, Gerd Kortemeyer, ora direttore dello sviluppo e della tecnologia educativa presso l'ETH di Zurigo, in Svizzera, ha deciso di mettere alla prova ChatGPT, letteralmente. Riferisce che, in base alle sue risposte ai compiti effettivi e agli esami per un corso di fisica basato sul calcolo, GPT-3.5 avrebbe effettivamente ottenuto un voto (appena) sufficiente (Phys. Rev. Phys. Educ. Res., doi: 10.1103/ PhysRevPhysEducRes.19.010132).
Per alcuni, questo risultato può causare preoccupazione per l’integrità accademica. Ma Kortemeyer, che ha insegnato fisica introduttiva negli Stati Uniti per molti anni, non è particolarmente preoccupato dal potenziale dell’intelligenza artificiale per consentire l’imbroglio. Invece, dice, solleva domande su come insegniamo e valutiamo effettivamente gli studenti di fisica. OPN ha parlato con Kortemeyer dei suoi pensieri sul futuro dell'insegnamento della fisica e del GPT e delle competenze "intrinsecamente umane" che spera di impartire nelle sue lezioni.
Gerd Kortemeyer: Non avrei dovuto trovare sorprendente, ma inizialmente l'ho fatto, quanto gli errori del bot fossero vicini agli errori commessi dai veri studenti. Non dovrei essere sorpreso perché non so esattamente con quale corpo di testo sia stato addestrato: potrebbe contenere anche alcuni forum di discussione sulla fisica.
Ma sono rimasto sorpreso dal fatto che qualcosa che non è altro che un meccanismo probabilistico di completamento automatico, fondamentalmente un pattern match, possa imitare il comportamento degli studenti. Ciò mi fa dubitare di ciò che abbiamo testato per tutto questo tempo.
Stiamo effettivamente testando la corrispondenza dei modelli? Stiamo assegnando voti di fisica in base alla corrispondenza dei modelli, se un simile algoritmo può andare bene?
Se uno studente viene abituato a queste valutazioni standardizzate, viene trasformato in un piccolo robot. Praticamente hai addestrato quei ragazzi a fare bene quanto una macchina.
OpenAI ha pubblicato un documento che mostra come si comporta GPT sulle valutazioni standardizzate. Per ACT, SAT e tutti questi, finisce nei percentili superiori. Ciò significa che se uno studente viene addestrato verso queste valutazioni standardizzate, viene trasformato in un piccolo robot. Praticamente hai addestrato quei ragazzi a fare bene quanto una macchina. E questo mi spaventa.
Anche il voto nei corsi introduttivi di fisica si basa su valutazioni molto standard: esami, compiti per casa, progetti di programmazione e domande clicker. Quindi non dovrei essere così sorpreso che ChatGPT sia passato, perché alla fine, risolvere questi problemi introduttivi di fisica è una cosa molto algoritmica.
Bene, gli studenti devono ancora essere in grado di risolvere questi problemi. Se vuoi fare qualsiasi tipo di fisica avanzata, tutti questi concetti di base come le leggi di Newton, le leggi dei circuiti e così via, devi avere quella conoscenza pratica in fondo alla tua mente. Perché se non riesci ad attingere immediatamente a quella conoscenza, non sarai in grado di avanzare nella fisica. Quindi, anche se l’intelligenza artificiale può studiare la fisica di base, devo essere in grado di valutare che anche gli studenti possano farlo. E gli strumenti di intelligenza artificiale sicuramente falliranno in tutto ciò che è fisica veramente avanzata.
Quindi dobbiamo ancora valutare queste cose, ma non solo. Man mano che l’intelligenza artificiale migliora, dobbiamo concentrarci anche sulle competenze che sono intrinsecamente umane. Cos'è l'intelligenza umana? Cos'è la creatività umana? Nelle mie lezioni cerco sempre di insegnare qualcosa di più della semplice memorizzazione dei fatti. Voglio che le persone siano curiose della fisica, pensino in modo critico e applichino questi principi alle situazioni quotidiane. Voglio che tutti questi tipi di processi metacognitivi siano in esecuzione.
Supponiamo che ti do un compito a casa e alla fine la tua risposta è che un'auto si muove a 4000 miglia all'ora. Come essere umano, lo guardi e dici: "Probabilmente sono 40 miglia all'ora. Torniamo indietro. Cosa ho fatto qui?" Gli esseri umani hanno la capacità di chiedersi: è realistico?
Non posso dire mai, ma l'intelligenza artificiale è lungi dallo scoprire qualcosa di nuovo. Perché non si mette in discussione. Non mette in discussione la natura.