Günümüzde yapay zekâ destekli dil modelleriyle çalışırken fark etmiş olabilirsiniz: Ne kadar doğru yazarsanız yazın, model bazen söylediğiniz şeyleri göz ardı edebiliyor. Peki neden? Sorun sizin cümlenizde mi yoksa modelin “dikkat alanı” mı sınırlı? İşte bu noktada devreye context window kavramı giriyor. Dil modelleri, sonsuz bir hafızaya sahip değil. Her modelin aynı anda “görebileceği” yani işleyebileceği bilgi miktarı sınırlıdır.
Context Window Nedir?
Dil modelleri (LLM – Large Language Model), sizinle kurduğu etkileşim sırasında her şeyi aynı anda hatırlayamaz. Çünkü bu modellerin işleyebileceği bilgi miktarı belirli bir sınırla tanımlanmıştır. Bu sınıra context window (bağlam penceresi) denir. Model, yalnızca bu pencere içerisinde kalan verileri görür, anlar ve yanıtlarını bu bilgiler doğrultusunda üretir. Pencerenin dışında kalan bilgi ise modelin erişim alanı dışında kalır; yani model onu artık “hatırlamaz.”
Diyelim ki biriyle konuşuyorsunuz ve bu kişi sadece son 10 cümleyi hatırlayabiliyor. 11. cümleyi söylediğinizde, ilk cümleyi unutuyor. Çünkü beyni sadece 10 cümlelik bir “pencereye” sahip. İşte bu pencereye context window deniyor. Bu yüzden bir sohbet sırasında eski bir detayı modelin gözden kaçırması, aslında belleğinin dolmasından kaynaklanıyor olabilir. Context window, yapay zekâyla etkili iletişim kurabilmek için bilinmesi gereken temel kavramlardan biridir.
Token Ne Demek? Neden Önemli?
Context window, kelime değil token cinsinden ölçülür. Token, bir kelimenin tamamı değil; bazen bir parçası, bazen tek bir harf ya da noktalama işareti olabilir. Örneğin “Uluslararasılaşabilecek” gibi uzun bir kelime, model tarafından 5–6 farklı token olarak algılanabilir. Aynı şekilde “I can’t believe this.” cümlesi, modelin belleğinde 7 token olarak yer kaplar: “I”, “can”, “’”, “t”, “believe”, “this”, “.”.
Bu durum, modelin belleğinde düşündüğünüzden çok daha hızlı yer dolmasına neden olur. Yani context window’un 100.000 token olması, 100.000 kelimeyi rahatlıkla işleyebileceği anlamına gelmez. Token kavramını anlamak, ne kadar bilgi verebileceğinizi ve ne zaman özetlemeniz gerektiğini anlamanızı kolaylaştırır.
Farklı Modellerin Context Sınırları
Her dil modeli aynı büyüklükte bir context window’a sahip değildir. Bazı modeller daha fazla token işleyebilirken, bazıları daha sınırlı bir pencereyle çalışır.
Model / Seri | Yaklaşık Token Sınırı |
---|---|
Magic.dev LTM‑2‑Mini | 100 milyon token |
Meta Llama 4 Scout | 10 milyon token |
GPT‑4.1 | 1 milyon token |
Gemini 2.5 Flash / Pro | 1 milyon token |
Llama 4 Maverick | 1 milyon token |
Claude 4 (Opus & Sonnet) | 200 bin token |
Claude 3.7 / 3.5 Sonnet | 200 bin token |
GPT‑4o | 128 bin token |
Mistral Large 2 | 128 bin token |
DeepSeek R1 / V3 | 128 bin token |
Bu farklar, modelin ne kadar uzun konuşmaları sürdürebileceğini ya da kaç sayfalık belgeyle etkili çalışabileceğini doğrudan etkiler. Uzun belgelerle çalışırken veya çok mesajlı bir sohbet yürütürken, modelin bu sınırları aşması hâlinde erken mesajlar “unutulur” ya da göz ardı edilir. Hangi modeli kullandığınızı bilmek, çıktıların neden beklediğiniz gibi olmadığını anlamak açısından oldukça önemlidir.
Model Neyi Görür, Neyi Görmez?
Bir dil modeli size yanıt üretirken yalnızca context window içinde kalan verileri dikkate alır. Bu pencereye sığmayan bilgiler ise model tarafından “görülmez” ve yanıtlarda hesaba katılmaz. Üstelik context window sadece sizin yazdıklarınızla dolmaz; aynı zamanda sistem komutları, önceki mesajlar, verilen yanıtlar, yüklenen dosyalar, görseller ve kod parçaları da bu pencereyi paylaşır.
Yani uzun konuşmalar yaptığınızda modelin “unutkanlaşması” çoğu zaman gerçekten unutması değil, belleğinin dolmasıyla ilgilidir. Ayrıca modeller genellikle metnin başına ve sonuna daha fazla dikkat gösterir; ortada kalan bilgiler daha az işlenir. Bu yüzden önemli bilgileri başa yerleştirmek ve sonuçta yeniden vurgulamak, modelin doğru odaklanmasını sağlar.
Bilgiyi Nereye Yazmalıyız?
Büyük dil modelleri context window içindeki bilgileri işlerken, bu pencerenin her bölümünü eşit düzeyde dikkate almaz. Araştırmalar göstermiştir ki, modeller genellikle bağlamın başındaki ve sonundaki bilgilere daha fazla odaklanır; ortada kalan içerikler ise gözden kaçabilir veya daha az etkili işlenir. Bu durum, özellikle uzun brief’lerde, belgelerde veya çok aşamalı içeriklerde kritik verilerin ortada yer alması halinde modelin o bilgileri “görememesi” ya da yanlış yorumlamasıyla sonuçlanabilir. Bu yüzden önemli veriler ya başlangıca ya da sona yerleştirilmeli, modelin dikkati stratejik olarak yönlendirilmelidir.
Kaynakça
Bergmann, D. (2024, Kasım 7). What is a context window? IBM Think. https://www.ibm.com/think/topics/context-window