25 Şubat 2010 Perşembe

GOOGLE BENİ BUL



Bugün bazı alanlarda çok popüler olan siteler var. Şimdi bunları görebilmek için sizlerle küçük bir arama yapalım. Google arama motorunu açalım ve “C++” yazalım. Karşımıza çıkan ilk siteler: “wikipedia.org” ve “cplusplus.com”. Bir de yemek siparişi yazalım: “adrese yemek.com” ve “yemek sepeti.com”. Son olarak da “video” anahtar sözcüğü sonucunda, "youtube.com” ve “video.google”. Eminin bunlardan en az dört tanesini daha önce duymuşuz ve bu sitelere girmişizdir. Peki, bu siteleri Google’ın en üst sırasına taşıyan ve herkesin bilmesini sağlayan şey nedir? Bu yazımda sizlere arama motoru iyileştirmesinden ve Google’ın sıralama yöntemlerinden bahsedeceğim.

Arama Motoru İyileştirmesi Nedir?

Arama motoru iyileştirmesi (SEO - Search Engine Optimization), bir sitenin arama motorlarının sonuçlarında daha iyi sıralamaya sahip olması ve daha nitelikli, daha fazla ziyaretçi alması için sitede yapılan düzenlemelerdir. Bu düzenlemeler tasarım, teknik ve kalite gibi üç ana başlık altında toplanabilir. SEO farklı arama sonuçları için iyileştirmeyi de içermektedir: resim arama, yerel arama, sektör-bazlı dikey arama gibi.
İyileştirme

İnternet pazarlama stratejisi olarak SEO, arama motorlarının nasıl çalıştığıyla ve insanların daha çok ne aradıklarıyla ilgilenir. Bir sitenin iyileştirilmesi, onun özellikle bazı anahtar kelimeler açısından içeriğini zenginleştirmeyle ve arama motorlarının dizinleme faaliyetlerine engel olabilecek şeylerin ortadan kaldırılmasıyla, içeriğinin ve HTML kodunun gözden geçirilmesiyle başlar.

Yapılan araştırmalara göre internet trafiğinin %80’ini arama motorları oluşturmaktadır. Google ise bu oranın %50’sini oluşturmaktadır. Arama sonuçlarında tıklamaların çok büyük bir kısmı ise ilk 2-3 siteye gitmektedir. Yani sitemizin ilk 3 sırada gözükmesi, özellikle de rakipleri olan bir siteyse, çok önemlidir. Çünkü arama sonuçlarında ilk sıralarda yer alan bir site daha fazla ziyaretçi almaktadır ve hatta kullanıcıların çoğu ilk birkaç bağlantıdan sonrasıyla ilgilenmemektedir. Bu sebeple işletmeciler ve ticari siteleri ile bilgi amaçlı siteler her zaman sitelerinde düzenlemeler yaparak arama motorlarındaki sıralamalarını yükseltmeye çalışırlar.

Tarihçe

Web geliştiricileri ve içerik sağlayıcıları, arama motorları ilk ortaya çıktığı zaman, 1990’ın ortalarında, mevcut siteleri geliştirmeye başladılar. Onların tek yapması gereken şey sayfayı ya da adresini arama motorlarına göndermek ve onların siteye bir “örümcek” gönderip taramasını beklemekti. Gitgide bir arama motorunun sıralamasında ilk sıralarda yer almanın önemini anlayan site sahipleri, beyaz şapka* ve siyah şapka* SEO ile ilgilenen insanlara fırsat yaratmışlardır. Sektör analisti Danny Sullivan’a göre bilinen ilk kullanıldığı yer 1997‘de Usenet üzerinden atılan bir gereksiz iletidir.

Önceleri arama motorları arama yaparken siteyi hazırlayanları sağladığı bilgiyi kullanırlardı. Dizin sayfaları ve meta etiketleri gibi bilgiler site yöneticilerinin site hakkında bilgi verdikleri yerlerdi. Ancak bu metot elbette ki güvenilir değildi. Çünkü insanlar, en çok aranan anahtar kelimeleri ilgili ya da ilgisiz meta etiketlerinde kullanabiliyor ve aramaların ilgisiz sonuçlar vermesine neden olabiliyordu. Aynı yöntemle HTML kodlarında da bu tarz oynamalar yaparak arama motorları kandırılabiliyordu. Sonuç olarak kullanıcılar memnun olmuyor ve içeriksiz kaynaklara ulaşmış oluyorlardı. Bu yöntem işe yaramayınca artık daha iyi sonuç veren ve site yöneticilerinin oynamaları kolay olmayan alanlar üzerine bir algoritma arayışı başladı. Stanford Üniveristesi’nden Larry Page ve Sergey Brin 1995’te bir web sayfasının popülerliğini bulan “backrub” algoritmasını geliştirdiler. Bu algoritma ile bulunan sayı o sayfanın “Pagerank”ini yani sayfa değerini (sayfa popülaritesini) veriyordu. Sayfa değeri, diğer sayfalardan bir sayfaya verilen bağlantıların güçlülüğüne ve kalitesine bağlı olarak değişen bir değerdi. Google bu ismin kulanım hakkını almadı ve bir süre Stanford’a aylık ücret ödeyerek kullandı. 2005’te ise 336 milyon dolar ödeyerek satın aldı. Page ve Brin 1998 de Google’ı kurdular ve Google’ın değişik faktörleri baz alarak yaptığı aramalar ilgi görmeye başladı. Dolayısıyla, bu gelişmelerin ışığında eski SEO taktikleri de değişmiştir. Elbette bu PageRank algoritmasını da sömüren taraflar olmuştur. Yüzlerce site sırf karşılıklı bağlantı verebilmek, alıp satmak için kurulmuştur. Google da son zamanlarda bu gelişmelere karşılık vererek, sitenin içeriğinin düzgün tespiti ve popülerliği gibi bilinen alanlardan başka; bir de arama yapan kişinin yaşına, mesleğine, durumuna göre arama sonuçlarında iyileştirmeye gitmeye başlamıştır. Bugün en çok bilinen Google, Yahoo! ve MSN Live Seach arama motorları iki yüzden fazla şeye bakarak pagerank vermektedirler.

*Beyaz Şapka (White Hat) kullandığı metotlar tümüyle desteklenen ve sonuçları uzun süre içinde alınan yöntemlere başvuranlara verilen addır.

*Siyah Şapka (Black Hat) olarak bilinenler ise desteklenmeyen metotlara başvururlar. Etkileri kısa sürede gözükebilir ancak arama motorları tarafından yakalandıklarında ceza olarak bir daha sonuçlarda gösterilmezler.

Pagerank (Sayfa Değeri) Nedir?

İyileştirme metotlarına geçmeden önce PageRank (sayfa değeri) kavramını anlamamız önemlidir. Arama motorları, bir sayfaya verilen bağlantı miktarını ve önemini belirtmek için o sayfaya 0 ila 10 arasında bir değer, PageRank, atar. Sayfa değeri, internette gezinen herhangi bir insanın belirli bir sayfayı, bir sayfadan diğerine verilen bağlantıları takip ederek ziyaret etme olasılığını tahmin eder. Her bağlantı bir oy demektir. Diğer bir değişle PageRank diğer sitelerin bir site üzerinde oy kullanabilmelerini sağlayan bir pusula gibidir.

Tabi ki her sitenin verdiği bağlantı da eşit derecede önemli olmamaktadır. Bazı bağlantılar daha güçlüdür. Örneğin, bize bağlantı veren sayfa değeri yüksek bir sayfadan insanların bize ulaşma olasılığı yüksek olduğundan böyle bağlantılar bizim sayfamıza daha fazla puan getirir.
Dizinleme (İndeksleme) ve İyileştirme Nasıl Yapılır?

Bugün internette birçok arama motoruna rastlamak mümkün ama biz en sık kullanılan arama motoru, Google, üzerinden gidelim. Bir sayfayı arama sonuçlarında üst sıralarda göstermek için, internette arama motoru iyileştirme programları bulunmaktadır ve bunların birçoğu ücretsizdir. Ancak içlerinden çok azı bir sitenin arama motoru sonuçlarında yükselmesine yardımcı olabilir.

Google’ın dağınık ağlar üzerinde ve binlerce bilgisayar kullanarak çalışır. Bu sebeple çok hızlı bir şekilde paralel işlemleme yapabilir. Yani çok uzun sürecek hesaplamaları bu bilgisayarlar arasında paylaştırarak paralel olarak yapar ve hesaplama süresini kısaltır. Google üç dizinleme işlemini üç aşamada yapar.

* Googlebot ile sayfayı bulma ve getirme
* Dizinleyici ile her sayfa üzerindeki her kelimeyi sıralama ve sonucu büyük veritabanlarına koyma
* Talep işlemcisi (query precessor) ile bizim aramada kullandığımız kelimeyi dizinde arama ve en uygun olanlarını gönderme

Googlebot, Google’ın web sayfaları üzerinde gezinen robotudur. Aslında sayfaları teker teker gezinen bir “örümcek” varmış gibi hayal etsek de durum böyle değildir. Bu örümcek bir web tarayıcısı gibidir. Web sunucusuna telep gönderir, indirir ve indirdiği sayfaları Google dizinleyicisine teslim eder. Googlebot bir sayfayı alınca içindeki “yararlı” bağlantıları bulur ve daha sonra ilgilenmek üzere bir yerde depolar. Bu yöntemle kısa sürede çok geniş bir alana bağlantılar toplamış olur. Buna derin getirme (deep crawling) adı verilir. Bu yöntem Google’ın neredeyse tüm internet ağına ulaşmasını sağlar. Dizinleyici Googlebot’un sayfalardan elde ettiği tamamıyla metinden oluşan bilgileri işler. Her sayfa Google veritabanında bir dizin olarak saklanır. Bu veritabanı, dizin arama metinlerine göre alfabetik olarak sıralanmıştır. Her dizin, anahtar kelimelerin ve onların yerlerinin geçtiği bir belgeler listesi saklar. Böylece arama yapılınca Google sayfalara kısa sürede erişebilir.

Talep işleyici (query processor) ise iki yüzden fazla metotu göz önüne alarak hesaplanan sayfa değerlerine göre ve arama kutusundaki bizim verdiğimiz kelimelere, kelimelerin yapısına ve kelimelerin sıralanışına göre en uygun sonuçları getirmekle yükümlüdür.

Şimdi de bir siteyi geliştirmek için ne gibi teknikler uygulanabileceğini üç başlık altında inceleyelim:

Tasarım ve İçerik:

* Sitemizin hiyerarşik bir yapıda olması ve içinde bizim diğer sayfalarımıza metin içi verilen bağlantılar barındırması önemlidir. Bu bağlantılar Googlebot tarafında ayıklanıp sonradan ulaşmak üzere saklanır. Her sayfaya en az bir statik bağlantı ile ulaşılabilmelidir.
* Kullanıcılara site haritası sunarak ve sayfalarımızdaki önemli noktalara bağlantı vererek kullanıcıya içerik açısından rahat bir ulaşım sağlarken, aynı zamanda Googlebot örümcekleri için de rahat dizinleme sağlamış oluruz. Eğer bu harita yüzden fazla bağlantıdan oluşuyorsa listeyi parçalara da bölebiliriz.
* Sitemiz içerik açısından bilgilendirici ve açık olmalıdır. Sitedeki her sayfanın içeriği doğru ve açık bir biçimde belirtilmelidir. Google yanlış içerik veren ve gereksiz yere anahtar kelime geçirmeye çalışan siteleri tespit edebilmektedir.
* Sitemiz daha çok neye önem veriyor ve bize ulaşmak isteyecek insanlar ne gibi kelimelerle araştırma yapıyorlar? Bu kelimeler bizim anahtar kelimelerimizdir ve sayfa metinlerinde “yeteri kadar” geçmesi önemlidir.
* Anahtar kelimeleri, bağlantıları ve içerikle alakalı şeyleri metin içinde geçirmek resim ile vermekten çok daha önemlidir. Googlebot örümcekleri resim içi kelimeleri algılayamazlar.
* Resim içindeki < title > elementlerinde resim ile ilgili açıklayıcı kelimeler geçirmek önemlidir. Örneğin: Eğer bir ortodonti kliniğimiz varsa “resim1.png” yerine “Ortodonti_Muayenehanesi.png” daha açıklayıcı ve anahtar kelimeleri içeren bir metindir.
* Tıklandığında ulaşılamayan bağlantı olmadığından emin olunmalıdır. Bunun için Google’ın bizim sayfamızı kontrol etmesine izin verebiliriz. Google Webmaster Tools bunun için uygun altyapıyı sağlamaktadır.
* Her arama motoru örümceğinin, dinamik sayfaları (Örneğin; ? içeren linkler) statik sayfaları taradığı gibi tarayamayacağını aklımızda tutmalıyız.
* Sayfamızda verdiğimiz bağlantı sayısının yüzü geçmemesine önem göstermeliyiz. Yüzden fazla bağlantı verilmesi arama motoru tarafından sitenin kandırmaya yönelik hazırlandığına dair bir işaret olarak algılanabilir.

Teknik:

* Sitemizi kontrol etmek için Lynx gibi bir metin tarayıcısı kullanılabilir; çünkü birçok arama motoru örümceği bizim sitemizi Lynx metin tarayıcılarının gördüğü gibi görür. Javascript, Cookies, Session IDs, Frames, DHTM veya Flash gibi içerik zenginleştiren bazı kodlar ve programlar bizim sitemizin tamamının metin tarayıcısında gözükmesini engelliyorsa, örümcekler de bizim sitemizi tararken zorlukla karşılaşabilir.
* Örümceklerin sitemizi session ID yada yol gösterecek herhangi bir şey olmadan tarayabilmesine olanak sağlamalıyız. Bunlar normal kullanıcının ne yapmak istediğini anlamak için iyi olabilir ancak örümceklerin erişim yolları çok değişiktir. Bu teknikler sitemizin eksik dizinlenmesine ve bazı URL’lere ulaşılamamasına neden olabilir.
* Web sunucumuzun If-Modified-Since HTTP başlığını desteklediğine emin olmalıyız. Bu başlık Google’a bizim sitemizin Google taradığından beri değişip değişmediğini gösterir. Bu özelliği desteklemek bizim bant genişliğini (bandwidth) korumamızı sağlar.
* Eğer bir sayfanın Google tarafından taranmasını istemiyorsak web sunucusunda “Robot.txt” dosyalarını kullanmalıyız. Bu özellik bazı taranamayan sayfalar için Google’ın bizden şüphelenmesine engel olur.
* Eğer şirketimiz içerik yönetim sistemine sahipse, sayfamızın o içeriğe uygun olduğundan emin olmalıyız.
* Sayfamızın farklı web tarayıcılarında gerektiği gibi gözüktüğünden emin :) olmalıyız.

Kalite:

* Sitemizde sitenin kaliteli olup olmadığını gösteren belli başlı kalite gösterici işaretler bulunmaktadır. Sitemiz kötü içerikli olmasa da Google yanlışlıkla o şekilde algılayabilir.
* Sitemizi kullanıcılar için yapmalıyız tarayıcılar için değil. Tarama motoruna yanlış içerik göstermek ya da ilgisiz arama sonuçlarında çıkararak kullanıcıyı kandırmaya yönelmek Google tarafından tespit edilebilmektedir.
* Sayfa değerini arttırmak için bağlantı şemalarına katılmamak gerekir. Ayrıca sayfamızda kötü içerikli sitelere bağlantı vermek bizim sayfa değerimizi düşürebilir.
* Sayfa değerini arttırmak için kullanılan lisanssız programlar Google tarafından tespit edilir ve site arama sonuçlarından tümüyle kaldırılmasına neden olur. Mesela; WebPosition Gold, Google'a otomatik ve periyodik talepler gönderen bir programdır ve hemen yakalanabilmektedir.
* Gizli bağlantılar ve metinler (gölge alanları), alakasız yönlendirmeler, aynı içeriği tekrar eden farklı sayfalar ve ilgisiz anahtar kelimelerle aşırı yüklü sayfalar, içeriksiz sayfalar, virüs yayan sayfalar kaliteyi düşüren ve tespit edilebilir özelliklerdir.

Bu yazımda sizlere sitemizi nasıl geliştirebileceğimizi ve Google’ın dizinleme yöntemini anlatmaya çalıştım. Görüldüğü gibi aslında bu metotların hiçbiri bir anda sonuç verecek kadar güçlü değildir. Ancak bu metotları uygulayan bir site, uzun dönemde arama sıralamasında eskisine oranla daha iyi durumda olacaktır ve daha çok ziyaretçi alacaktır. Ayrıca bir sitenin yapısı ve içeriğinin değiştirilmesi gerekebileceği için sitenin daha kurulum aşamasında yapısal ve içeriksel özellikleri arama motorlarının aramasını kolaylaştıracak şekilde düzenlenmesi çok daha iyi olur.

Kaynak. e-bergi.com

Hiç yorum yok:

Yorum Gönder