Ana Makine Yükü Aşıldı Başarısız Google Search Console Hakkında Açıklama ve Bilgi

Merhaba arkadaşlar, herkese selamlar. Son zamanlarda herkesin paylaştığı ama net bir açıklama bulamadığı bir konuya açıklık getirmek istedim. Tamamen kendi tecrübelerime dayalı olarak…

Şu anda console üzerinden bu uyarıyı aldığınızda bunun bir hata olduğunu düşündüğünüzü biliyorum fakat ne yazık ki bu bir hata değil, Google tarafından getirilen bir çözüm.

Konuyu siz de yorumlarınız ile desteklerseniz daha kaliteli bir forum konusu olacağına inanıyorum.

Bu hatayı alan sitelerin ortak özelliklerini sıralamak istedim.

Otomasyon Yazılım ile İçerik ya da Veri Çeken Web Siteleri:

İçeriklerinizi başka bir yerden çekiyorsanız, örneğin rss feed ya da özel yazılım ile başka başka şekillerde… News kayıtlı bir site olsanız dahi çoklu içerik yüklediğiniz ve onlarca sayfayı tek seferde oluşturduğunuz için sunucu yükü hatası alıyorsunuz demektir. Çok otoriter bir web sitesi olmadığınız sürece bunun önüne geçildi. Çünkü tarama bütçesini aşıyorsunuz. Günlük yüzlerce veri çektiğinizde crawler artık web sitenizi taramaz. Çünkü bütçe dolar. Beklemek zorunda kalırsınız. Bazılarınız yığın siteler yaptığı için bu günler ya da haftalar sürmez. Aylar hatta yıllar sürer. Çünkü bütçe sürekli tükenir durumda olacaktır.

Mesela… Youtube’den içerik çeken siteler. Maç sonuçları ya da maç özetleri için otomatik maçkolik gibi sitelerden veri çeken siteler. Aynı şekilde ürün fiyatları çeken ya da hızlı ürün eklenen web siteleri. Dropship siteler. Hepsi aynı kapıya çıkar.

News Kayıtlı Haber Siteleri:

Öncelikle şunu belirtmek isterim. News kayıtlı web sitelerinize günlük 10-20-30-40 ya da daha fazla içerik girmeye çalışıyorsanız bundan kaynaklı bu hatayı aldığınıza emin olabilirsiniz. Çünkü bu hatanın sebebi tarama bütçesi. Google bot web sitenize sürekli uğramak zorunda kalıyorsa belli bir algoritmaya göre sitenize belirlediği tarama bütçesini aştığınızda sizi indexe almıyor ve beklemek zorunda kalıyorsunuz. Şunu söyleyebilirim:

Bir web sitesine günlük 50 adet, 100 adet içerik üretemezsiniz artık News kaydınız olsa dahi. Bu devir bitti. Bunu unutun lütfen. Aşırı otoriter bir web sitesi değilseniz, bu yollara girmenizin hiçbir mantığı olmayacak. Çünkü bot sitenize gelip tüm sayfalarınızı gezer fakat siz 10 içerik attığınızda belki de 100 – 200 sayfanızda zıplar durur. Bu da tarama bütçenizi tüketir. Uyarı alırsınız ve dizine eklemek için sizi bekletir durur.

Chat GPT ile İçerik Oluşturulan Web Siteleri:

Chat GPT ile içerik oluşturmak kolay olduğundan herkes günlük 100 üzeri içerik oluşturuyor. Arkadaşlar bunu da unutun. Sizin girdiğiniz o 100 içerik daha index almadan siz bir 100 içerik daha atıyorsunuz. Bir süre sonra tarama bütçesini aşmış oluyorsunuz ve bu haftalar alan bir süreç değil. News kaydınız varsa zaten çok hızlı bir şekilde aşıyorsunuz. News kaydınız yoksa dışarıdan bir etki ile bile indexletmeyi deneseniz de tarama bütçeniz açılana kadar yazılarınız index almayacak.

Etiketleri Açık ve Çoklu Etiket Kullanan Web Siteleri:

Diyelim ki bir web siteniz var ve Google bot web sitenizi hızlı tarıyor. News kaydınız olsa da olmasa da hızlı taranan bir siteden bahsediyorum. Eğer girdiğiniz her içeriğe 5, 10, 20, 30 etiket girerseniz, tarama bütçesini paramparça edersiniz. Çünkü her etiket web sitenizin içerisinde oluşturulmuş bir sayfadır. Bu nedenle de bot bu sayfalarda zıplar durur. Siz 10 içerik atarsınız aslında tarama bütçesini 10 kat, 20 kat daha fazla tüketirsiniz ve farkında olmazsınız. Sonra da sunucu yükü hatası ile karşı karşıya kalırsınız.

Çoklu Kategori Girilen ve /page/ (WordPress Site İçin) Bölümleri Açık Olan Web Siteleri

Eğer tek içeriğe sürekli kategori oluşturuyorsanız birden fazla, yine aynı sorunu yaşarsınız. Aynı şekilde WordPress okuma ayarlarınızda beslemeler, kayıtlar kısmı 10 adet yazı ile sınırlı ise girdiğiniz her 100 içerikte 10 adet /page/ sayfası oluşturursunuz. Bunu hem web sitenizin içinde oluşturursunuz hem de kategori sayfalarınızda. Örneğin:

domain.com/page/1 – domain.com/page/2 – domain.com/page/3

domain.com/category/sunucu-yuku-hatasi/page/1 – domain.com/category/sunucu-yuku-hatasi/page/2 – domain.com/category/sunucu-yuku-hatasi/page/3

Bu durumda Google bot buralarda zıplar durur ve tarama bütçesi hızlı bir şekilde tükenir. Aslında farkında olmadan WordPress sitelerinizde ekstra pageler oluşturmuş olursunuz, aynı şekilde kategori pageleri.

Çoklu Dil Eklentisi Kullanan Web Siteleri:

Eğer çoklu dil eklentisi kullanıyorsanız console üzerinden bu hatayı kesin alacağınız anlamına gelir. Çünkü bazılarınız 20 dile çeviri ile index aldırırken bazılarınız 50, hatta bazılarınız bu sayıyı 100 – 200 aralığında tutuyor. Bu ne demek? Hemen açıklayayım:

Bir içerik paylaştığınızda Google’ye 20 adet içerik sunamazsınız. Bunu yaptığınızda her 5 içeriğiniz 100 içeriğe eş değer olacaktır. Aynı şekilde bu içeriklerin etiketlerini ve kategori sayılarını, kategorilerin oluşturacağı /page/ sayısını ve WordPress sisteminin oluşturacağı /page/ URL sayılarını söylememe bile gerek yok. 1 içerik paylaştığınızda çoklu dil kullanıyorsanız karşınıza bu bir problem olarak çıkar. Tarama bütçesi tükenir ve hata alırsınız. İndexler için beklemek zorunda kalırsınız.

Sunucu yükü hatasını almanıza rağmen bu şekilde içerik girmeye devam ettiyseniz haftalarca, aylarca, yıllarca beklemek zorunda bile kalabilirsiniz. Ne yazık ki durum bu şekilde olacak.

Adwords, Popunder ve Benzeri Çoklu Sayfalarınıza Düzenli Gelen Web Trafiği:

Eğer birden çok sayfanıza ciddi derecede Adwords, Popunder ya da herhangi bir şekilde dışarıdan bir web trafiği akını varsa o halde tarama bütçesini çok hızlı bir şekilde tüketiyorsunuz demektir. Bu ne mi demek? Trafik alan web sayfalarında botlar cıvıl cıvıl takılır. Bu da sürekli web sitenizdeki ilgili sayfayı ve diğer sayfaları okuması anlamına gelir. Okumasa bile (cache almadığınız durumlarda) sadece web sitenizde gezmesi tarama bütçenizi yerle bir etmesine yetecektir. Bu durumda yine sunucu yükü hatası alacaksınız.

Youtube İçerik Üreticilerinin Kullandığı Web Siteleri:

Eğer iyi bir Youtube içerik üreticisi iseniz ve aynı zamanda web tarafında da çalışmalar yürütüyor ve Youtube üzerinden görüntülenen videolarınızdaki trafiği aynı zamanda web sitenize kaydırıyorsanız, kötü haber… Birden çok sayfanıza sürekli trafik akışı olacağı için web sitenizin tarama bütçesi tükenecek ve bu hata ile karşılaşacaksınız demektir. Google botları Youtube’de cıvıl cıvıl gezerler. Bu nedenle içeriklerinizden akan trafik sürekli web sitenize bot zıplatacak ve sürekli web sayfalarınızda bir bot dolaşımı söz konusu olacaktır.

Örnekleri elbette çoğaltabilirdim fakat işin özünü anlatabilecek kadar örnek yazdığımı düşünüyorum…

Şimdi diyeceksiniz ki sitemde o kadar bot olsaydı ve Google beni o kadar tarasaydı cachelerim anlık olarak değişirdi… Hayır arkadaşlar. Bunun da önüne bu güncellemeler yapılmadan çok önce geçildi. Anlık cache için belli bir limit koyuldu ki manipüle edilemesin. Eskiden her dakika cache alabilen web siteleri, sayfaları vardı. Artık bu yok ne yazık ki. Sözün kısası şudur; botlar tarama bütçenizi aşmanız durumunda web sitenizi hiç taramaz. İçeride gezinseler bile bir anlamı olmaz. Aynı şekilde botlar cache limiti aştığınızda web sitenize cache de aldırmaz. Bütçeyi aşmasanız bile cache değişimi gözlemleyemezsiniz.

Bütün bu önlemler neden alındı? Cevap apaçık ortada. Google aleni bir şekilde çoklu index ile spam yapan ve dizini bu ve benzeri yollar ile manipüle eden sitelerin fişini çekti.

Geçtiğimiz yılda oluşan web spam sorunlarından en önemlisi web spam yapanların site içi linkleme yöntemini kullanarak ve bunu aşırı bir dozda yaparak tüm web sayfalarını indexletmeleri ve her yerde güçlü bir şekilde sıralama almalarıydı. Devreye giren algoritmalar ile bu web sonuçları bir kere temizlendi ama sorun yine de devam etti. Bir kere daha temizlendi ama hiçbir değişim olmadı. Son olarak bu şekilde bir algoritma geliştirdiler ve tüm web dizinini tekrar temizleyip algoritmayı gerçek zamanlı olarak devreye soktular.

Yani ben şu anda bu yazıyı yazarken bile algoritma çalışır vaziyette ve veri toplamaya devam ediyor. Cache süresi, siteye gönderilen bot istekleri ve benzeri…

Bu algoritmadan sonra web tarafında nasıl ilerlemeliyiz? Bununla ilgili de 2. bir konu açacağım. Bu konu altında paylaşacağım. Yazdıktan sonra konuyu editlerim. Çünkü onu da ayrı ele almakta fayda var.

Edit:

Konu linki: https://www.r10.net/google-optimizas…etmeliyiz.html

Hakkında admin

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir