Popüler Yazılar

Son Yazılar

Semrush Partner

Ajantik Motor Optimizasyonu:  Yapay Zekâ Ajanları İçin İçerik Optimize Etmenin Yol Haritası

Google Cloud AI mühendislik direktörü Addy Osmani, 11 Nisan’da “Agentic Engine Optimization (AEO)” başlıklı kapsamlı bir rehber yayımladı. Search Engine Land, rehberin SEO sektörü için çıkarımlarını detaylı şekilde analiz etti.

Osmani’nin tanımı net: AEO, teknik içeriği yapay zekâ ajanlarının gerçekten kullanabileceği şekilde yapılandırma, biçimlendirme ve sunma pratiği. Yıllardır arama motoru tarayıcıları için optimize etmeyi öğrendik. Şimdi aynı prensibi, web sayfalarını otonom olarak bulan, ayrıştıran ve üzerinde akıl yürüten yapay zekâ ajanlarına uyguluyoruz.

Bu, geçen haftaki Sundar Pichai röportajının teknik uzantısı. Pichai “arama bir ajan yöneticisine dönüşecek” demişti. Osmani ise bu ajanlar için içeriğinizi nasıl optimize edeceğinizi anlatıyor. İkisi birlikte okunduğunda ortaya net bir resim çıkıyor: Google, aramanın geleceğini ajan tabanlı mimariye taşıyor ve bu mimarinin ilk teknik rehberini kendi mühendislik direktörü yazıyor.

AEO’nun Beş Temel Bileşeni

Osmani, AEO’yu tek bir şey olarak değil, katmanlı bir sinyal ve standartlar yığını olarak tanımlıyor. Temelden yüzeye beş bileşen:

  1. Keşfedilebilirlik (Discoverability): Ajanlar içeriğinizi JavaScript çalıştırmadan bulabilir mi? robots.txt dosyanız yapay zekâ botlarına erişim izni veriyor mu? llms.txt dosyanız var mı?
  2. Ayrıştırılabilirlik (Parsability): İçerik, görsel düzen yorumlaması gerektirmeden makine tarafından okunabilir mi? Markdown sunabiliyor musunuz?
  3. Token Verimliliği (Token Efficiency): İçerik, tipik ajan bağlam pencerelerine sığıyor mu? Kırpılma olmadan tüketilebilir mi?
  4. Yetenek Sinyali (Capability Signaling): İçerik, ajanlara sitenizin ne yapabildiğini anlatıyor mu? Ajan, tüm sayfayı okumadan sitenizin amacını anlayabiliyor mu?
  5. Erişim Kontrolü (Access Control): Ajanlar hangi içeriğe erişebileceğini açıkça biliyor mu?

Token Sayısı: Artık Birincil Optimizasyon Metriği

Osmani’nin rehberindeki en çarpıcı mesaj bu: token limitleri, içerik performansını şekillendiren temel kısıtlama hâline geldi. Eğer sayfa token sayısını takip etmiyorsanız, ajanların içeriğinizi okumaya bile çalışıp çalışmayacağını belirleyen bir sinyali kaçırıyorsunuz.

Uzun, şişkin sayfalar ajanlar tarafından üç şekilde zarar görüyor: kırpılma (sayfanın sonu okunmuyor), atlama (ajan sayfayı hiç okumadan geçiyor) veya kötü parçalama (içerik yanlış yerlerden bölünüyor). Bunların üçü de eksik yanıtlara veya halüsinasyonlu uygulamalara yol açıyor.

Osmani’nin önerdiği token limitleri somut:

  • Hızlı başlangıç rehberleri: yaklaşık 15.000 token
  • Kavramsal rehberler: yaklaşık 20.000 token
  • Bireysel API referansları: yaklaşık 25.000 token

Bu rakamlar teknik dokümantasyon için verilmiş olsa da prensip evrensel. İçeriğiniz ne kadar kısa ve odaklı olursa, yapay zekâ ajanları tarafından doğru şekilde tüketilme olasılığı o kadar yüksek.

İlk 500 Token: Altın Bölge

Osmani, her sayfanın ilk 500 tokeninin üç soruyu yanıtlaması gerektiğini söylüyor: “Bu nedir?”, “Ne yapabilir?” ve “Başlamak için neye ihtiyacım var?” Ajanların “giriş yazısı için sabrı sınırlı.” Arka plan bilgisi, tarihçe veya motivasyon açıklaması sayfanın başında değil, sonunda olmalı.

Bu, SEO’daki BLUF (Bottom Line Up Front) prensibinin yapay zekâ ajanları versiyonu. GEO’da zaten ilk 150 kelimede konunun özünü vermeyi öneriyorduk. Osmani bunu daha kesin bir metriğe dönüştürüyor: 500 token.

Yapısal Tasarım: Ajanlar Doğrusal Okumaz

Ajanlar bir sayfayı yukarıdan aşağıya okumaz. Yapıyı ayrıştırır (parse eder). Osmani’nin yapısal tasarım kuralları:

Tutarlı başlık hiyerarşisi kullanın: H1, H2, H3, atlama yapmadan. Her bölümü sonuçla başlatın, arka planla değil. Kod örneklerini, destekledikleri iddiadan hemen sonra yerleştirin. Parametre referanslarını tablolarda sunun çünkü tablolar düz metinden daha iyi sıkıştırılır.

Bu kurallar teknik dokümantasyon için yazılmış ama SEO içerikleri için de birebir geçerli. Bir blog yazısında veya ürün sayfasında da aynı prensipler uygulanabilir: net başlık hiyerarşisi, sonuç önce, destekleyici detay sonra.

llms.txt: Yapay Zekâ Ajanlarının Site Haritası

Osmani, llms.txt dosyasını “yapay zekâ ajanları için site haritası” olarak tanımlıyor. yourdomain.com/llms.txt adresinde barındırılan, Markdown formatında düz bir dosya. Sitenin içerik dizinini açıklamalarla birlikte sunuyor. Böylece ajanlar, tüm siteyi taramadan hangi içeriğin ilgili olduğunu belirleyebiliyor.

XML sitemap arama motorlarına “şu sayfalara bak” derken, llms.txt yapay zekâ ajanlarına “şu içerikler var, şunları yapabilirsin” diyor. Fark büyük: llms.txt yalnızca konum değil, bağlam ve yetenek bilgisi de sunuyor.

AGENTS.md ve SKILL.md: Progresif Açıklama

Osmani, llms.txt’nin ötesinde iki dosya daha öneriyor:

AGENTS.md: Kod tabanları için makine tarafından okunabilir giriş noktası. Ajan, projenin ne olduğunu, hangi dosyaların önemli olduğunu ve nasıl başlayacağını bu dosyadan öğreniyor.

SKILL.md: API’ler ve hizmetler için yetenek dosyası. Ajanın, tüm dokümantasyonu okumadan “bu hizmet ne yapabilir?” sorusunu yanıtlamasını sağlıyor. Progresif açıklama (progressive disclosure) yaklaşımıyla çalışıyor: SKILL.md giriş noktası, destekleyici referanslar yalnızca gerektiğinde yükleniyor. Token kullanımı minimumda kalıyor.

“Yapay Zekâ İçin Kopyala” Butonu ve Markdown Sunumu

Osmani’nin düşük eforla yüksek etki yaratan önerilerinden biri: sayfalarınıza “Yapay Zekâ İçin Kopyala” (Copy for AI) butonu ekleyin. Bu buton, sayfanın temiz Markdown versiyonunu panoya kopyalıyor. Ajanlar ve kullanıcılar, HTML’in tag gürültüsü, navigasyon menüleri ve footer karmaşası olmadan temiz içeriğe erişiyor.

Daha sistematik çözüm: URL’ye .md uzantısı ekleyerek veya bir sorgu parametresiyle Markdown formatında içerik sunmak. Ajanlar, Markdown’ı HTML’den çok daha düşük token yüküyle işliyor. Navigasyon, menü, footer gibi unsurlar token bütçesini gereksiz yere tüketiyor.

Agentic-Seo: Açık Kaynak Denetim Aracı

Osmani, rehberle birlikte agentic-seo adlı açık kaynak denetim aracını yayımladı. Araç sitenizi tarayarak şunları kontrol ediyor: robots.txt yapılandırması, llms.txt varlığı, AGENTS.md dosyası, SKILL.md dosyası, token sayıları, Markdown erişilebilirliği ve agent-permissions.json dosyası.

Bu araç, Cloudflare’ın bu hafta duyurduğu Agent Readiness skoruyla paralel bir yaklaşım sunuyor. İkisi birlikte kullanıldığında sitenizin yapay zekâ ajan çağına hazırlık durumunu kapsamlı şekilde değerlendirebilirsiniz.

Osmani’nin Önerdiği Uygulama Sırası

Osmani, AEO’yu tek seferde değil, aşamalı olarak uygulamayı öneriyor:

  1. robots.txt dosyanızı denetleyin (yapay zekâ botlarını engelliyor musunuz?)
  2. llms.txt dosyası ekleyin
  3. Token sayılarını ölçün ve görünür kılın
  4. API’ler için SKILL.md yazın
  5. “Yapay Zekâ İçin Kopyala” butonları ekleyin
  6. Yapay zekâ trafiğini izlemeye başlayın

SEO, GEO, AEO: Üç Katman, Tek Strateji

Bu noktada bir kavram karmaşasını netleştirmek gerekiyor. 2026’da üç farklı optimizasyon katmanı var:

SEO (Search Engine Optimization): Geleneksel arama motorlarında sıralama. Google’ın organik sonuçlarında görünürlük.

GEO (Generative Engine Optimization) / AEO (Answer Engine Optimization): Yapay zekâ arama motorlarında (ChatGPT, Gemini, Perplexity, Claude) alıntılanma ve görünürlük. İçeriğinizin yapay zekâ yanıtlarında kaynak olarak kullanılması.

Ajantik Motor Optimizasyonu (Agentic Engine Optimization): Otonom yapay zekâ ajanlarının içeriğinizi bulması, ayrıştırması ve görev tamamlamak için kullanması. Bu, bir adım ötesi: ajan sadece alıntılamıyor, verilerinizi kullanarak eylem gerçekleştiriyor.

Digiday, Şubat 2026’da “ajanslar, yayıncılar ve SEO uzmanları aynı trende farklı kısaltmalar veriyor ama hepsi aynı şeyi anlatıyor” diye yazmıştı. Bu kısmen doğru: üç katman da aynı temel prensipleri paylaşıyor (yapılandırılmış veri, temiz içerik, varlık sinyalleri). Ama Osmani’nin çerçevesi, ajantik katmanın teknik gereksinimlerinin diğerlerinden farklı olduğunu ortaya koyuyor. Token verimliliği, llms.txt, AGENTS.md, Markdown sunumu gibi gereksinimler GEO’da olmayan, ajantik dünyaya özgü gereksinimler.

HubSpot ve Webflow AEO Araçlarıyla Ekosistem Genişliyor

Osmani’nin rehberi teorik çerçeveyi çizerken, aynı hafta iki büyük platform AEO’yu ürünlerine entegre etti.

HubSpot, 14 Nisan’da AEO aracını piyasaya sürdü. Markanızın ChatGPT, Gemini ve Perplexity’de nasıl göründüğünü takip ediyor. Beş boyutta skorlama: duygu analizi, varlık kalitesi, marka tanınırlığı, ses payı ve pazar konumu. En dikkat çekici özellik CRM destekli komut zekâsı: HubSpot CRM’inize bağlanıp gerçek müşteri verilerinden yola çıkarak müşterilerinizin yapay zekâ aramalarında sorma olasılığı en yüksek komutları öneriyor. HubSpot’un verileri çarpıcı: müşteri organik trafiği yıldan yıla yüzde 27 düşmüş, ama AEO betasını kullananlar yönlendirme trafiğinde yüzde 20 büyüme görmüş. Bağımsız sürüm aylık 50 dolar, Marketing Hub Pro ve Enterprise’a dahil, 28 günlük ücretsiz deneme mevcut.

Webflow, 13 Nisan’da Webflow AEO’yu duyurdu: kapalı döngü, ajantik bir Answer Engine Optimization sistemi. Üç bileşenli: yapay zekâ görünürlüğünü ölç, iyileştirmeleri öner, değişiklikleri uygula. AEO ajanları kırık bağlantılardan güncelliğini yitirmiş meta verilere, yeni içerik fırsatlarına kadar önceliklendirilmiş öneriler sunuyor. Şu anda özel betada, yakında tüm Enterprise müşterilerine açılacak.

Mert’in Notu: Ajantik Motor Optimizasyonu Neden Bu Haftanın En Önemli Gelişmesi?

Osmani’nin rehberini manşet yapmamın sebebi şu: bu, Google’ın kendi mühendislik direktöründen gelen, aramanın geleceği için somut bir teknik yol haritası. Pichai vizyonu çiziyor, Osmani uygulamayı anlatıyor, HubSpot ve Webflow ölçüm araçlarını sunuyor, Cloudflare hazırlık skorunu veriyor. Hepsi aynı haftada.

Stradiji olarak müşterilerimize şunu söylüyoruz: SEO ölmüyor, katmanlanıyor. Geleneksel SEO hâlâ temel. GEO ve AEO (yanıt motoru optimizasyonu) yapay zekâ aramalarında görünürlük katmanı. Ajantik Motor Optimizasyonu ise üçüncü katman: yapay zekâ ajanlarının sitenizi bulması, anlaması ve kullanması.

Bu hafta yapmanız gereken ilk şey: Osmani’nin agentic-seo aracını sitenizde çalıştırın. llms.txt dosyanız yoksa oluşturun. Token sayılarınızı ölçün. robots.txt dosyanızı yapay zekâ botları için gözden geçirin. Bu adımlar, 2026’nın ajan çağına hazırlığın temeli.

Paylaş!