CriticGPT, modello di intelligenza artificiale ideato allo scopo di individuare errori nel codice generato da ChatGPT.
I suggerimenti di CriticGPT non sono sempre corretti, ma si ritiene che possano aiutare i formatori a individuare molti più problemi con risposte scritte su modello rispetto a quanto farebbero senza l’aiuto dell’intelligenza artificiale. Inoltre, quando le persone utilizzano CriticGPT, l’intelligenza artificiale aumenta le loro capacità, producendo critiche più complete rispetto a quando le persone lavorano da sole e meno bug rispetto a quando il modello funziona da solo. Nei nostri esperimenti un secondo formatore casuale ha preferito le critiche del team Human+CriticGPT rispetto a quelle di una persona non assistita più del 60% delle volte.

La critica del prof. Rodney Brooks alle intelligenze artificiali generative
Secondo il prof. Brooks, il problema dell’intelligenza artificiale generativa è che, sebbene sia perfettamente in grado di svolgere un certo insieme di compiti, non può fare tutto ciò che può fare un essere umano, e gli esseri umani tendono a sopravvalutare le sue capacità. “Quando un essere umano vede un sistema di intelligenza artificiale eseguire un compito, lo generalizza immediatamente a cose simili e fa una stima della competenza del sistema di intelligenza artificiale; non solo le prestazioni in merito, ma la competenza al riguardo”, ha affermato Brooks. “E di solito sono molto ottimisti, e questo perché usano un modello delle prestazioni di una persona in un compito.”
Ricordo il prof. Brooks proprio nei primi anni 1990 quando ero matricola universitaria ad ingegneria elettronica in quel di Pisa.
Leggevo Scientific American in inglese e su un numero trovai proprio un articolo scritto dal prof. Brooks sui suoi piccoli robots simili a dei ragni meccanici.

Il piccolo robot simile ad un ragno di nome Hannibal

Dott. Ing. Marco Franceschini