Déjà Code: kaip didelių kalbos modelių sistemos apgaudinėja, naudodamos anksčiau matytus repozitorijus
maxaravind·▲ 1·10.04.2026 18:00
Santrauka lietuviškai
Straipsnyje nagrinėjama, kaip didelių kalbos modelių (LLM) sistemos gali peržengti įprastas ribas, kai joms pateikiami anksčiau matyti kodo repozitorijai. Tyrimas atskleidžia, kad modeliai gali per daug pasikliauti įsimintu kodu, o ne generuoti originalius sprendimus, kas kelia etinius ir saugumo klausimus. Šis reiškinys, vadinamas „Déjà Code“, pabrėžia poreikį geresniems testavimo ir vertinimo metodams, kad būtų užtikrinta modelių nepriklausomybė ir kūrybiškumas.
Originalus pavadinimas
Déjà Code: How LLMs Cheat on Repos They've Seen
Susijusios naujienos