خريطة الموقع “Sitemap”: الأداة الأكثر سوء فهم بين أدوات السيو

  • بواسطة
Spread the love

في كل سنوات استشارات تحسين محركات البحث (SEO) ، رأيت العديد من العملاء لديهم مفاهيم خاطئة عن خريطة الموقع XML. إنها أداة قوية بالتأكيد – ولكن مثل أي أداة كهربائية ، القليل من التدريب والخلفية حول كيفية عمل كل البتات يقطع شوطًا طويلاً.


4 استراتيجيات تحسين محركات البحث ” السيو ” للمواقع الالية

خمس طرق لرفع ترتيب موقعك في قوقل 2021 (SEO)

 

الفهرسة

ربما يكون المفهوم الخاطئ الأكثر شيوعًا هو أن خريطة الموقع تساعد في فهرسة صفحاتك. أول شيء يتعين علينا تصحيحه هو هذا: لا تقوم Google بفهرسة صفحاتك لمجرد أنك طلبت ذلك بشكل جيد. يفهرس محرك بحث Google الصفحات لأنه (أ) وجدها وزحف إليها ، و (ب) يعتبرها جيدة بما يكفي بحيث تستحق الفهرسة. إن توجيه Google إلى صفحة ما ومطالبتهم بفهرستها لا يعتبر عاملًا في ذلك.

أما وقد قلت ذلك، فإنه هو المهم الإشارة إلى أن خلال تقديم خريطة الموقع إلى وحدة التحكم البحث جوجل، وكنت تعطي جوجل فكرة أن تفكر في الصفحات في خريطة الموقع أن تكون صفحات البحث هبوط نوعية جيدة، تستحق المقايسة. لكن ، هذا مجرد دليل على أن الصفحات مهمة … مثل الارتباط بصفحة من قائمتك الرئيسية.


 

التناسق

أحد الأخطاء الأكثر شيوعًا التي أرى أن العملاء يرتكبونها هو عدم الاتساق في الرسائل إلى Google حول صفحة معينة. إذا قمت بحظر صفحة في ملف robots.txt ثم قمت بتضمينها في ملف خريطة موقع XML ، فأنت تثير هذا الأمر. يقول ملف Sitemap الخاص بك: “هنا ، Google … صفحة لطيفة وممتعة يجب حقًا فهرستها”. ولكن بعد ذلك ، يأخذ ملف robots.txt هذا الأمر بعيدًا. نفس الشيء مع برامج الروبوت الوصفية: لا تقم بتضمين صفحة في خريطة موقع XML ثم قم بتعيين الروبوتات الوصفية “noindex ، اتبع”.

أثناء تواجدي فيه ، اسمحوا لي أن أتحدث باختصار عن برامج الروبوت الوصفية: “noindex” تعني عدم فهرسة الصفحة. “Nofollow” لا تعني شيئًا عن تلك الصفحة. هذا يعني “عدم اتباع الروابط الصادرة من تلك الصفحة” ، أي المضي قدمًا وإلقاء كل هذه الروابط في المرحاض. من المحتمل أن يكون هناك سبب غامض لإعداد الروبوتات الوصفية “noindex ، nofollow” ، ولكن ما قد يكون بعيدًا عني. إذا كنت تريد أن لا يقوم محرك بحث Google بفهرسة صفحة ، فقم بتعيين برامج الروبوت الوصفية على “noindex ، اتبع”.

 

حسنًا ،…

بشكل عام ، إذن ، تريد أن تنقسم كل صفحة على موقعك إلى مجموعتين:

  1. صفحات الأدوات (مفيدة للمستخدمين ، ولكن ليست أي شيء تتوقع أن يكون صفحة بحث مقصودة)
  2. صفحات مقصودة للبحث عالية الجودة ولذيذة

يجب حظر كل شيء في الحاوية رقم 1 عن طريق ملف robots.txt أو حظره عبر برامج الروبوت الوصفية “noindex، follow” ويجب ألا يكون في ملف Sitemap بتنسيق XML.

يجب عدم حظر كل شيء في الحاوية رقم 2 في ملف robots.txt ، ويجب ألا يحتوي على روبوتات تعريفية “noindex” ، وربما يجب أن يكون في ملف Sitemap بتنسيق XML.

(صورة دلو ، قبل تزيينها ، بإذن من Minnesota Historical Society on Flickr.)


 

جودة الموقع الشاملة

يبدو أن Google تتخذ بعض المقاييس للجودة الإجمالية للموقع ، وتستخدم هذا المقياس على مستوى الموقع للتأثير على الترتيب – وأنا لا أتحدث عن عصير الارتباط هنا.

فكر في هذا من منظور Google. لنفترض أن لديك صفحة واحدة رائعة مليئة بالمحتوى الرائع الذي يحدد جميع المربعات ، من الصلة بباندا إلى التفاعل مع وسائل التواصل الاجتماعي. إذا رأى Google موقعك على أنه 1000 صفحة من المحتوى ، منها 5-6 صفحات فقط تشبه هذه الصفحة الرائعة … حسنًا ، إذا أرسل Google مستخدمًا إلى إحدى تلك الصفحات الرائعة ، فكيف ستكون تجربة المستخدم إذا نقروا رابط في تلك الصفحة وزيارة شيء آخر على موقعك؟ هناك احتمالات ، سوف يهبطون على صفحة سيئة. إنها تجربة مستخدم سيئة. لماذا يريدون إرسال مستخدم إلى موقع مثل هذا؟

يدرك مهندسو Google بالتأكيد أن كل موقع يحتوي على عدد معين من صفحات “الأدوات” المفيدة للمستخدمين ، ولكن ليس بالضرورة صفحات من نوع المحتوى يجب أن تكون صفحات مقصودة من البحث: صفحات لمشاركة المحتوى مع الآخرين ، والرد على التعليقات ، وتسجيل الدخول ، استرداد كلمة المرور المفقودة ، إلخ.

إذا كانت السايت ماب الخاصة بك تتضمن كل هذه الصفحات ، فما الذي تقوم بإيصاله إلى Google؟ بشكل أو بآخر ليس لديك أدنى فكرة عما يشكل محتوى جيدًا على موقعك وما لا يمثله.

هذه هي الصورة التي تريد رسمها لـ Google بدلاً من ذلك. نعم ، لدينا موقع هنا به 1000 صفحة … وإليكم 475 من تلك الصفحات الألف التي تمثل محتوى رائعًا. يمكنك تجاهل الآخرين – إنها صفحات مفيدة.

الآن ، لنفترض أن محرك بحث Google يزحف إلى تلك الصفحات البالغ عددها 475 ، وقد قرر باستخدام مقاييسها أن 175 من هذه الصفحات هي “أ” و 200 “ب +” و 100 “ب” أو “ب-“. هذا متوسط ​​عام جيد جدًا ، وربما يشير إلى موقع قوي جدًا لإرسال المستخدمين إليه.

قارن ذلك مع الموقع الذي يقدم جميع صفحات 1000 عبر خريطة موقع XML. الآن ، تبحث Google في 1000 صفحة تقول إنها محتوى جيد ، وترى أكثر من 50٪ من الصفحات “D” أو “F”. في المتوسط ​​، موقعك ممتع للغاية ؛ ربما لا تريد Google إرسال المستخدمين إلى موقع مثل هذا.


المخفي

تذكر أن Google ستستخدم ما ترسله في خريطة موقع XML كدليل لما قد يكون مهمًا على موقعك. ولكن مجرد عدم وجودها في خريطة موقع XML لا يعني بالضرورة أن Google ستتجاهل تلك الصفحات. لا يزال من الممكن أن يكون لديك عدة آلاف من الصفحات بالكاد تحتوي على محتوى كافٍ وربط حقوق الملكية لفهرستها ، ولكن لا ينبغي فعل ذلك.

من المهم إنشاء موقع: ابحث لترى جميع الصفحات التي يقوم Google بفهرستها من موقعك من أجل اكتشاف الصفحات التي نسيتها ، وتنظيف تلك الصفحات من “الدرجة المتوسطة” التي ستمنحها Google لموقعك عن طريق تعيين meta برامج الروبوت “noindex، follow” (أو الحظر في ملف robots.txt). بشكل عام ، سيتم إدراج الصفحات الأضعف التي ما زالت تصنع الفهرس في آخر موقع: البحث.


Noindex مقابل ملف robots.txt

هناك فرق مهم ولكنه دقيق بين استخدام برامج الروبوت الوصفية واستخدام ملف robots.txt لمنع فهرسة الصفحة. باستخدام الروبوتات الفوقية “لمنع الفهرسة، اتبع” يسمح للأسهم صلة الذهاب إلى تلك الصفحة إلى تدفق خارج إلى صفحات ارتباطه. إذا قمت بحظر الصفحة باستخدام ملف robots.txt ، فأنت تقوم فقط بغسلها في المرحاض.

 

في المثال أعلاه ، أقوم بحظر الصفحات التي ليست صفحات حقيقية – فهي تتبع البرامج النصية – لذلك لا أفقد حقوق ملكية الروابط ، لأن هذه الصفحات لا تحتوي على رأس مع روابط القائمة الرئيسية ، إلخ.

 

فكر في صفحة مثل صفحة اتصل بنا ، أو صفحة سياسة الخصوصية – من المحتمل أن تكون مرتبطة بكل صفحة على موقعك عبر القائمة الرئيسية أو قائمة التذييل. لذلك هناك الكثير من الروابط التي تذهب إلى تلك الصفحات ؛ هل تريد فقط التخلص من ذلك؟ أو هل تفضل ترك هذا الارتباط يتدفق إلى كل شيء في قائمتك الرئيسية؟ سؤال سهل الإجابة ، أليس كذلك؟


إدارة عرض النطاق الترددي للزحف

متى قد ترغب بالفعل في استخدام ملف robots.txt بدلاً من ذلك؟ ربما إذا كنت تواجه مشكلات في النطاق الترددي للزحف وكان Googlebot يقضي الكثير من الوقت في جلب صفحات الأدوات ، فقط لاكتشاف برامج الروبوت الوصفية “noindex ، اتبع” فيها والاضطرار إلى الإنقاذ. إذا كان لديك الكثير من هؤلاء بحيث لا يصل Googlebot إلى صفحاتك المهمة ، فقد تضطر إلى الحظر عبر ملف robots.txt.

لقد رأيت عددًا من العملاء يرون تحسينات في الترتيب عبر اللوحة من خلال تنظيف خرائط مواقع XML الخاصة بهم و noindexing صفحات الأدوات الخاصة بهم:

 

هل لدي بالفعل 6000 إلى 20000 صفحة تحتاج إلى الزحف يوميًا؟ أم أن Googlebot يلاحق عناوين URL للرد على التعليق أو المشاركة عبر البريد الإلكتروني؟

لمعلوماتك ، إذا كان لديك مجموعة أساسية من الصفحات يتغير فيها المحتوى بانتظام (مثل مدونة أو منتجات جديدة أو صفحات فئة المنتج) ولديك عدد كبير من الصفحات (مثل صفحات منتج واحد) حيث سيكون ذلك رائعًا إذا قام Google بفهرستها ، ولكن ليس على حساب عدم إعادة الزحف إلى الصفحات الأساسية وفهرستها ، فيمكنك إرسال الصفحات الأساسية في خريطة موقع XML لإعطاء Google فكرة تعتبرها أكثر أهمية من تلك التي لم يتم حظرها ، ولكن ليست في خريطة الموقع.


تصحيح أخطاء الفهرسة

 

هذا هو المكان الذي تكون فيه خريطة الموقع XML مفيدة حقًا لمحركات البحث: عندما ترسل مجموعة من الصفحات إلى Google للفهرسة ، ويتم فهرسة بعضها فقط بالفعل. جوجل أدوات مشرفي لن اقول لكم الذي صفحات انهم الفهرسة فهرسة فقط العدد الإجمالي في كل سايت ماب .

لنفترض أنك موقع للتجارة الإلكترونية ولديك 100000 صفحة منتج و 5000 صفحة فئة و 20000 صفحة فئة فرعية. قمت بتقديم خريطة موقع XML الخاصة بك المكونة من 125000 صفحة ، واكتشف أن Google تقوم بفهرسة 87000 منها. لكن أي 87000؟

أولاً ، من المحتمل أن تكون صفحات الفئات والفئات الفرعية هي جميع أهداف البحث المهمة بالنسبة لك. كنت أقوم بإنشاء فئة sitemap.xml و subcategory-sitemap.xml وإرسالهما بشكل منفصل. أنت تتوقع أن ترى فهرسة تقترب من 100٪ هناك – وإذا لم تحصل عليها ، فأنت تعلم أنك بحاجة إلى النظر في إنشاء المزيد من المحتوى على هؤلاء ، وزيادة عصير الارتباط لهم ، أو كليهما. قد تكتشف شيئًا مثل صفحات فئة المنتج أو الفئات الفرعية التي لا تتم فهرستها نظرًا لاحتوائها على منتج واحد فقط (أو لا تحتوي على أي منتج على الإطلاق) – وفي هذه الحالة ربما ترغب في تعيين برامج الروبوت الوصفية “noindex، follow” على هؤلاء ، و سحبها من خريطة موقع XML.

هناك احتمالات ، تكمن المشكلة في بعض صفحات المنتجات البالغ عددها 100000 صفحة – ولكن أي منها؟

ابدأ بفرضية ، وقم بتقسيم صفحات المنتج إلى خرائط مواقع XML مختلفة لاختبار هذه الفرضيات. يمكنك القيام بالعديد منها في وقت واحد – فلا حرج في وجود عنوان URL في خرائط مواقع متعددة.

قد تبدأ بثلاث نظريات:

  1. لا تتم فهرسة الصفحات التي لا تحتوي على صورة منتج
  2. وايضا لا تتم فهرسة الصفحات التي تحتوي على أقل من 200 كلمة ذات وصف فريد
  3. لا تتم فهرسة الصفحات التي ليس لديها تعليقات / تعليقات

قم بإنشاء خريطة موقع XML مع عدد مفيد من الصفحات التي تقع في كل فئة من هذه الفئات. لا يلزم أن تكون جميع الصفحات في هذه الفئة – يكفي فقط أن يجعل حجم العينة من المعقول استخلاص نتيجة بناءً على الفهرسة. قد تفعل 100 صفحة في كل منها ، على سبيل المثال.

هدفك هنا هو استخدام فهرسة النسبة المئوية الإجمالية لأي خريطة موقع معينة لتحديد سمات الصفحات التي تتسبب في فهرستها أو عدم فهرستها.

بمجرد أن تعرف ما هي المشكلة ، يمكنك إما تعديل محتوى الصفحة (أو روابط الصفحات) ، أو noindex الصفحات. على سبيل المثال ، قد يكون لديك 20000 من صفحات منتجك البالغ عددها 100000 حيث يكون وصف المنتج أقل من 50 كلمة. إذا لم تكن هذه مصطلحات ذات حركة مرور كبيرة وكنت تحصل على الأوصاف من خلاصة الشركة المصنعة ، فربما لا يستحق الأمر وقتك في محاولة كتابة 200 كلمة إضافية يدويًا للوصف لكل صفحة من هذه الصفحات البالغ عددها 20000. يمكنك أيضًا تعيين الروبوتات الوصفية على “noindex ، متابعة” لجميع الصفحات التي تحتوي على أقل من 50 كلمة من وصف المنتج ، نظرًا لأن Google لن تقوم بفهرستها على أي حال ، وستقوم فقط بخفض تقييم جودة موقعك الإجمالي. ولا تنس إزالة هؤلاء من خريطة موقع XML.


خرائط المواقع الديناميكية

أنت الآن تفكر ، “حسنًا ، عظيم ، مايكل. ولكن الآن يجب أن أبقي خريطة الموقع يدويًا متزامنة مع الروبوتات الوصفية الخاصة بي في جميع صفحاتي البالغ عددها 100000 صفحة” ، وهذا ليس من المحتمل أن يحدث.

لكن ليست هناك حاجة للقيام بذلك يدويًا. لا يجب أن تكون خرائط مواقع XML ملفات ثابتة. في الواقع ، لا يحتاجون حتى إلى امتداد .XML لإرسالهم في Google Search Console.

بدلاً من ذلك ، قم بإعداد منطق القواعد لمعرفة ما إذا كانت الصفحة سيتم تضمينها في خريطة موقع XML أم لا ، واستخدم نفس المنطق في الصفحة نفسها لتعيين فهرس برامج الروبوت الوصفية أو noindex. بهذه الطريقة ، في اللحظة التي يتم فيها تحديث وصف المنتج من خلاصة الشركة المصنعة من قبل الشركة المصنعة ويتحول من 42 كلمة إلى 215 كلمة ، تظهر تلك الصفحة على موقعك بطريقة سحرية في خريطة موقع XML ويتم تعيين الروبوتات الوصفية الخاصة بها على “الفهرس ، اتبع. ”

على موقع السفر الخاص بي ، أفعل ذلك للعديد من أنواع الصفحات المختلفة. أنا أستخدم ASP الكلاسيكي لهذه الصفحات ، لذلك لدي خرائط مواقع مثل هذا:

عندما يتم جلب ملفات Sitemap هذه ، بدلاً من عرض صفحة HTML ، فإن التعليمات البرمجية من جانب الخادم تقوم ببساطة بإخراج XML. يتكرر هذا على مجموعة من السجلات من أحد جداول قاعدة البيانات الخاصة بي ويخرج سجلًا لكل واحد يفي بمعايير معينة.


خرائط مواقع الفيديو

أوه ، وماذا عن خرائط مواقع XML للفيديو المزعجة؟ انهم حتى عام 2015. Wistia حتى لا يكلف نفسه عناء توليد منهم بعد الآن. يجب أن تستخدم فقط ترميز JSON-LD و schema.org/VideoObject في الصفحة نفسها.


ملخص

  1. كن متسقًا – إذا تم حظره في ملف robots.txt أو عن طريق برامج الروبوت الوصفية “noindex” ، فمن الأفضل ألا تكون في خريطة موقع XML.
  2. استخدم السايت ماب الخاصة بك كأدوات للتجسس لاكتشاف مشاكل الفهرسة والقضاء عليها ، واسمح / اطلب فقط من Google فهرسة الصفحات التي تعرف أن Google تريد فهرستها.
  3. إذا كان لديك موقع كبير ، فاستخدم خرائط المواقع الديناميكية – لا تحاول الاحتفاظ بكل هذا يدويًا متزامنًا بين robots.txt و meta robots و XML sitemap.