Notebookcheck Logo

CheckMag | GPU yoksa sorun da yok. Kendi LLM'nizi barındırmak, büyük oyuncuların sansürlü tekliflerinden çok daha eğlenceli ve şaşırtıcı derecede iyi çalışıyor.

En hızlısı olmasa da GPU olmadan da kullanılabilir ve en azından verilerinizin kontrolü sizde kalır
ⓘ Notebookcheck / KoboldCPP
En hızlısı olmasa da GPU olmadan da kullanılabilir ve en azından verilerinizin kontrolü sizde kalır
İster bir D&D kampanyasına ev sahipliği yapmak, ister kod sorunlarını gidermek, fikir üretmek, NSFW içerik oluşturmak veya büyük oyuncular tarafından belirlenen korkulukları atlamak isteyin, KoboldCPP ile kendi LLM'nizi barındırmak kolaydır ve GPU olmadan bile şaşırtıcı derecede iyi çalışır.
Fikir ile David Devey
Metinde ifade edilen görüş, düşünce ve görüşler yalnızca yazara aittir.

Bir yapay zekayı sorguladığınızda verilerinize gerçekte ne olduğu hemen hemen herkesin tahminidir, ancak ne olursa olsun, artık kesinlikle size ait değildir.

Birlikte görüntü büyük Dil Modelleri (LLM) ile denemeler yapmak istiyor ancak verilerinizi büyük teknolojilere teslim etmek istemiyorsanız, kendi verilerinizi barındırmak şaşırtıcı derecede kolaydır ve büyük oyunculara göre çeşitli avantajları vardır.

Öncelikle, ne yapmayı seçerseniz seçin, tüm verileriniz sizin kontrolünüz altında kalır ve eğer verilerinizi Mechahitler'e teslim etmek istemiyorsanızbu hemen bir artı. Ayrıca, Deepseek, Gemma2 veya GPT olsun, içine attığınız sorgu türlerini kısıtlamayan sürümleri kullanabilmenin ek avantajı ile istediğiniz herhangi bir modeli kullanabilirsiniz.

KoboldCPP, GGUF ve GGML Büyük Dil Modellerini çalıştırmak için tasarlanmış, kullanımı kolay, tek çalıştırılabilir bir yapay zeka metin oluşturma aracıdır. Hem GPU hem de CPU'yu destekler ve AI hikaye anlatımı ve sohbet için özel bir arka uç olarak hareket edebilir. KoboldCPP GitHub'dan indirilebilir buradan ve Windows, Linux, Mac veya Docker için kullanılabilir.

Bir konteynırda barındırmak, LLM'yi ağınızdaki her cihaza maruz bırakmayı önemsiz hale getirir ve Unraid ve TrueNAS dahil olmak üzere ana platformlar için önceden oluşturulmuş şablonlar vardır. Güvenlik duvarınıza gerekli kuralları eklediğiniz sürece aynı şey diğer kurulumlarla da gerçekleştirilebilir.

Başlarken

Tercih ettiğiniz platforma karar verdikten sonra, hangi modeli kullanacağınızı bulmanız gerekecektir. Kucaklayan Yüz modelleri aramak için en iyi yerdir ve GGUF formatında olmaları gerekir.

D&D senaryolarına ev sahipliği yapmayı planlıyorsanız, kesinlikle sansürsüz bir model isteyeceksiniz, aksi takdirde LLM sonuçta karakterlerden herhangi birine zarar vermeyi reddedecek ve istenmeyen sonuçlar.

Deepseek gibi bazı modeller ve Claude'nin "düşünme" eğilimi vardır, bu da temelde sorgunuzun tüm düşünce sürecini ortaya çıkarır. Bu, ağır işleri yapan bir GPU ile iyi olabilir, ancak bir GPU olmadan süreci önemli ölçüde yavaşlatır. Sizin için uygun olanı bulmak için modellerle denemeler yapmanız gerekecektir, ancak Gemma2 başlamak için iyi bir yerdir.

Dosyalar sayfasını bulun ve GGUF dosyasına bağlantı veren URL'yi kopyalayın. Birçok modelin birden fazla boyutu vardır, bu nedenle mevcut RAM'inizin sınırlamalarına uyan birini seçmeniz gerekecektir.

Windows'ta kurulum büyük ölçüde aynıdır. Ancak, NoCUDA adresini indirmeniz gerekecektir gPU olmadan kullanıyorsanız sürüm. KoboldCPP size arayüzü sunmadan önce modeli indireceği için başlaması biraz zaman alabilir. Windows'ta bu açıktır, ancak Unraid veya TrueNAS'ta indirme işleminin ilerleyişini görmek için günlükleri açmanız gerekir. Unraid üzerinde, adresini artırmanız gerekebilir seçtiğiniz modelin ne kadar büyük olduğuna bağlı olarak Docker konteynerlerinin kullanılabilir depolama alanı.

KoboldCPP, talimat, hikaye, sohbet ve macera dahil olmak üzere 4 farklı arayüz modu sunar.

Instruct, LLM talimatlarını vermek için kullanılır, chat bir chatbot'a benzer, story roman tarzı yazılar için iyidir ve adventure ise RPG tarzı interaktif kurgu için en iyisidir.
ⓘ Notebookcheck
Instruct, LLM talimatlarını vermek için kullanılır, chat bir chatbot'a benzer, story roman tarzı yazılar için iyidir ve adventure ise RPG tarzı interaktif kurgu için en iyisidir.

Hayal gücünün en hızlısı olmasa da, metin ortalama okuma hızından biraz daha yavaş üretilir. D&D senaryoları için 16 çekirdekli AMD 5950x(Amazon'da mevcut) üzerinde çalışırken mükemmel bir şekilde kullanılabilir ve muhtemelen daha modern CPU'larda daha hızlı çalışacaktır. Ne kadar çok çekirdek kullanırsanız o kadar iyi olur ve makul miktarda RAM daha büyük modelleri çalıştırmanıza izin verir, ancak 16GB ile iyi olursunuz. Modelin boyutu ve türü de nesil hızı üzerinde önemli bir etkiye sahip olacaktır ve daha hafif bir model seçmek genel hızı önemli ölçüde artırabilir.

Açıkçası, en iyi deneyim için Büyük Dil Modellerini bir GPU ile çalıştırmak en uygunudur, ancak ChatGPT, Claude veya Gemini'nin kısıtlamalarını veya veri gizliliği etkilerini atlayarak kendi ev sahipliğinizi denemek istiyorsanız, başlamak için herhangi bir süslü donanıma ihtiyacınız yoktur ve yine de iyi bir deneyim elde edebilirsiniz.

Please share our article, every link counts!
Mail Logo
> Notebooklar Hakkında Aradığınız Herşey > Haberler > Haber Arşivi > Haber arşivi 2026 03 > GPU yoksa sorun da yok. Kendi LLM'nizi barındırmak, büyük oyuncuların sansürlü tekliflerinden çok daha eğlenceli ve şaşırtıcı derecede iyi çalışıyor.
David Devey, 2026-03-29 (Update: 2026-03-29)