🤖 Reddit AI
Visos Reddit naujienos
50 straipsnių
1.Galutiniai Qwen 3.6 balsavimo rezultatai
r/LocalLLaMA·jacek2023·10.04 14:48
2.Atnaujinimas apie Gemma 4 su MTP: Atvirkštinio inžinerijos pastangos
r/LocalLLaMA·Electrical-Monitor27·10.04 11:31- 🤖3.
Daugiau nereikia debesijos LLM greitam interneto tyrimui
r/LocalLLaMA·BitPsychological2767·10.04 09:51
4.LocalLLama būklė
r/LocalLLaMA·Beginning-Window-115·10.04 07:30
5.Neprisijungęs prie interneto palydovas robotas mano neįgaliam vyrui (su 8GB RAM apribojimais) – ieškau optimizavimo patarimų
r/LocalLLaMA·BuddyBotBuilder·10.04 05:24- 🤖6.
Qwen3.5-122B veikia 198 ženklų per sekundę naudojant 2 RTX PRO 6000 Blackwell — biudžetinė sistema, patvirtinti rezultatai
r/LocalLLaMA·Visual_Synthesizer·10.04 03:59
7.Opus = 0,5T × 10 = ~5T parametrai?
r/LocalLLaMA·Wonderful-Ad-5952·09.04 22:54- 🤖8.
Alibaba pristato Marco-Mini (17,3 mlrd., 0,86 mlrd. aktyvūs) ir Marco-Nano (8 mlrd., 0,6 mlrd. aktyvūs)
r/LocalLLaMA·AnticitizenPrime·09.04 22:33 - 🤖9.
16 GB VRAM naudotojai, kurį modelį dabar mėgstame labiausiai?
r/LocalLLaMA·lemon07r·09.04 20:12
10.Backend-agnostinis tenzorių paralelizmas sujungtas su llama.cpp
r/LocalLLaMA·jacek2023·09.04 17:46
11.Vietiniai (maži) LLM modeliai aptiko tas pačias pažeidžiamumas kaip ir Mythos
r/LocalLLaMA·CyberAttacked·09.04 17:36
12.„Hugging Face“ pristato naują saugyklos tipą: Branduoliai
r/LocalLLaMA·clem59480·09.04 16:49
13.„Mythos Preview“ saugumo apgaulė: „Anthropic“ tiesiog slepia beprotiškas skaičiavimo išlaidas. Atviri modeliai jau tai daro.
r/LocalLLaMA·GWGSYT·09.04 16:00- 🤖14.
OpenWork, atvirojo kodo Claude Cowork alternatyva, tyliai keičia licencijavimą į komercinę licenciją
r/LocalLLaMA·lrq3000·09.04 15:05
15.Ar ši nuomonė nėra pernelyg išgalvota?
r/LocalLLaMA·pier4r·09.04 13:35- 🤖16.
Gemma 4 ant Llama.cpp dabar turėtų būti stabili
r/LocalLLaMA·ilintar·09.04 12:48
17.Naujas modelis! LGAI-EXAONE/EXAONE-4.5-33B
r/LocalLLaMA·KvAk_AKPlaysYT·09.04 06:55
18.Neįtikėtina, kiek dabar yra „lobotomizuotas“ Opus 4.6. Net Gemma 4 31B UD IQ3 XXS jį aplenkė automobilių plovimo teste ant mano 5070 TI.
r/LocalLLaMA·FrozenFishEnjoyer·09.04 05:34
19.Išleistas EXAONE 4.5
r/LocalLLaMA·Secure_Smoke_4280·09.04 04:49- 🤖20.
Kodėl įmonės kuria atviro kodo modelius?
r/LocalLLaMA·Excellent_Koala769·09.04 02:50 - 🤖21.
Naujas TTS modelis: VoxCPM2
r/LocalLLaMA·foldl-li·09.04 01:54
22.Pi.dev kodavimo agentas perkeliamas į Earendil
r/LocalLLaMA·iamapizza·08.04 22:39
23.Opus, Gemini ir ChatGPT geriausi modeliai dingo iš Arenos – ar tai yra priežastis?
r/LocalLLaMA·Repulsive-Mall-2665·08.04 22:06
24.Pagaliau įvyko: radau vietinio LLM pritaikymo atvejį ir tai buvo nuostabu
r/LocalLLaMA·EntertainerFew2832·08.04 22:02- 🤖25.
Išaiškinau didelį talpyklos pakartotinio naudojimo problemą, kuri kyla dėl Qwen 3.5 pokalbių šablono
r/LocalLLaMA·onil_gova·08.04 20:51
26.Meta neatsisako atvirojo kodo
r/LocalLLaMA·jd_3d·08.04 20:23- 🤖27.
Meta naujas samprotavimo modelis Muse Spark
r/LocalLLaMA·DonTizi·08.04 19:20
28.Kaip „Anthropic“ kalbėtų apie „Mythos“, jei jį atvertų visuomenei
r/LocalLLaMA·last_llm_standing·08.04 18:49- 🤖29.
Qwen3.5-35B-A3B-Uncensored-FernflowerAI-GGUF
r/LocalLLaMA·EvilEnginer·08.04 18:34 - 🤖30.
HF perduoda safetensors PyTorch Fondą
r/LocalLLaMA·jikkii·08.04 17:55
31.Kepler-452b. Kada GGUF?
r/LocalLLaMA·the-grand-finale·08.04 16:54- 🤖32.
Atrodo, kad reikės atsisiųsti naujus Gemma 4 GGUFs
r/LocalLLaMA·jacek2023·08.04 15:43
33.M5 Max 128GB, 17 modelių, 23 užklausos: Qwen 3.5 122B vis dar vietinis karalius
r/LocalLLaMA·tolitius·08.04 15:18- 🤖34.
Ar Qwen27B dense tikrai yra geriausias vietinis agentinis kodavimas 32 GB VRAM?
r/LocalLLaMA·soyalemujica·08.04 09:52
35.Pirmasis atvirojo kodo dirbtinio intelekto modelis Egipte!
r/LocalLLaMA·assemsabryy·08.04 09:42
36.Gemma4-31B, naudodama iteracinio taisymo ciklą (su ilgalaikės atminties banku), per 2 valandas išsprendė problemą, kurios nepavyko išspręsti baziniam GPT-5.4-Pro
r/LocalLLaMA·Ryoiki-Tokuiten·08.04 00:03
37.Radau šią įdomią naują priemonę, išbandysiu ją su naujuoju GLM 5.1. Vėliau pranešiu rezultatus.
r/LocalLLaMA·Porespellar·07.04 22:37
38.kv-cache: palaikymas dėmesio sukimui nevienalyčiam iSWA
r/LocalLLaMA·jacek2023·07.04 22:26- 🤖39.
1 mlrd.+ žetonų per dieną aptarnauju vietiniame tyrimų laboratorijoje
r/LocalLLaMA·SessionComplete2334·07.04 21:57
40.GLM 5.1 našumo testų rezultatai
r/LocalLLaMA·Fantastic-Emu-3819·07.04 19:59
41.Kasdien pabundu ir dėkoju Dievui, kad gimiau 23 minutes nuo MicroCenter
r/LocalLLaMA·gigaflops_·07.04 19:48
42.GLM-5.1
r/LocalLLaMA·danielhanchen·07.04 19:14- 🤖43.
Ar matėte tai? Pralenkia turboquant 18%
r/LocalLLaMA·OmarBessa·07.04 18:05
44.Agentų įgūdžių automatinis kūrimas stebint jūsų ekraną naudojant Gemma 4, kad bet kuris agentas galėtų juos vykdyti ir tobulėti
r/LocalLLaMA·Objective_River_5218·07.04 17:50
45.DFlash: Blokinė difuzija greitajai spekuliatyvajai dekodavimui
r/LocalLLaMA·Total-Resort-3120·07.04 17:36
46.Dabar galite lokaliai tobulinti Gemma 4 modelį su 8GB VRAM + klaidų taisymai
r/LocalLLaMA·danielhanchen·07.04 17:20- 🤖47.
TurboQuant – ekstremalus KV talpyklos kvantavimas · ggml-org/llama.cpp · Diskusija #20969
r/LocalLLaMA·pmttyji·07.04 16:24
48.Gemma 4 31B GGUF kvantizacijos vertinamos pagal KL divergenciją (unsloth, bartowski, lmstudio-community, ggml-org)
r/LocalLLaMA·oobabooga4·07.04 15:16
49.Pasirodo, Gemma 4 visą laiką turėjo MTP (daugialypį ženklų prognozavimą)
r/LocalLLaMA·Electrical-Monitor27·07.04 11:42
50.Gemma 4 – didžiulis patobulinimas daugelyje Europos kalbų, įskaitant danų, olandų, prancūzų ir italų
r/LocalLLaMA·Balance-·07.04 09:26