KI lernt aus dem Feedback
Das gelingt mit einer speziellen Methode, die Li gemeinsam mit Bhaskar Krishnamachari entwickelt hat. Sie basiert im Wesentlichen darauf, dass Fehler korrigiert werden, die die KI macht. Das "merkt" sich diese für später auftauchende ähnliche Fälle, die das Modell dann löst, ohne speziell darauf trainiert worden zu sein. Das Verfahren stellen die Forscher auf der Plattform "arxiv" vor, die die Cornell University betreibt.
Die Wissenschaftler haben die Fähigkeit von GPT-5 getestet, Codes in der Programmiersprache Idris zu schreiben, die im Web weniger präsent ist als etwa Mainstream-Sprachen wie Python. Entsprechend wenig wusste die KI über die Anwendung dieser Sprache. Die Ergebnisse beeindrucken: Nachdem die Forscher der KI Feedback zu ihren Fehlern gegeben hatte und sie es erneut versuchen ließ, steigerte Li die Erfolgsquote des Modells beim Schreiben von Codes von 39 auf 96 Prozent.
Nischen-Code im Mittelpunkt
Python, die weltweit beliebteste Programmiersprache, verfügt im Internet über mehr als 24 Mio. Anwendungen - eine riesige Bibliothek, aus der KI-Modelle wie GPT-5 während des Trainings lernen. Idris, die Sprache, die Li und Krishnamachari für ihren Test ausgewählt haben, verfügt über etwa 2.000, rund 10.000 Mal weniger. Die Forscher haben sich ganz bewusst für Idris entschieden, weil eine KI davon wenig wissen konnte.
"Wir waren auf der Suche nach einer Sprache, die so obskur war, dass wir noch nie davon gehört hatten. Wir saßen zusammen in meinem Büro, googelten herum und versuchten eine verrückte Sprache zu finden, von der noch niemand etwas gehört hatte", unterstreicht Krishnamachari. Sie fanden Idris, die von wenigen Spezialisten verwendet wird und somit perfekt war für den Test. (pte)