RWKV-7 aplenkia Llama 3.2 naudodamas 3 kartus mažiau mokymo žetonų ir formaliai viršija TC⁰
Aedelon·▲ 2·23.02.2026 19:28
Santrauka lietuviškai
RWKV-7 modelis pasiekė geresnius rezultatus nei populiari Llama 3.2 versija, nors jam reikėjo trimis kartais mažiau mokymo žetonų. Šis pasiekimas formaliai viršija TC⁰ ribą, rodydamas modelio efektyvumą ir našumą. Naujasis modelis gali tapti perspektyvia alternatyva esamiems didžiųjų kalbų modeliams.
Originalus pavadinimas
RWKV-7 beats Llama 3.2 with 3x fewer training tokens and formally exceeds TC^0
Susijusios naujienos