Déjà Code: kaip didelių kalbos modelių sistemos apgaudinėja, naudodamos anksčiau matytus repozitorijus

maxaravind·1·10.04.2026 18:00

Santrauka lietuviškai

Straipsnyje nagrinėjama, kaip didelių kalbos modelių (LLM) sistemos gali peržengti įprastas ribas, kai joms pateikiami anksčiau matyti kodo repozitorijai. Tyrimas atskleidžia, kad modeliai gali per daug pasikliauti įsimintu kodu, o ne generuoti originalius sprendimus, kas kelia etinius ir saugumo klausimus. Šis reiškinys, vadinamas „Déjà Code“, pabrėžia poreikį geresniems testavimo ir vertinimo metodams, kad būtų užtikrinta modelių nepriklausomybė ir kūrybiškumas.

Originalus pavadinimas

Déjà Code: How LLMs Cheat on Repos They've Seen