اليوم نتعرف على كيفية حل مشكلة كثيرا ما تقابل اصحاب المواقع والمدونات الا وهي مشكلة تحذيرات من الروبوتس robotsحيث يتم الحظر رغم انة تمت الفهرسة للصفحة بالفعل
-يمكن الحل فى خطوات-
.التوجة للوحة التحكم للموقع او المدونة بلوجر التى بها المشكلة
.اضغط على المظهر ومنها تعديلhtml
.ابحث عن<head>
.قم بوضع اسفلة مباشرة هذا الكود
<b:if cond='data:blog.searchLabel'><meta content='noindex,nofollow' name='robots'/></b:if>
ثم قم بالحفظ
.عليك بالرجوع الى لوحة التحكم
واختار اعدادات ومنها تفضيلات البحث
وادخل على ملفrobotsوقم بحذفdisallow:/ search من ملف robots
ثم قم بحفظ الملف
وبذلك يمكنك الانتظار يومين ليتم دخول الزاحف لموقعك
تجد بان المشكلة تم حلها بنجاح
طريق جميلةاخري
حل مشكلة تمت الفهرسة ولكن يتم الحظر باستخدامrobots.txt
من خلال موقعناصديق بلوجر احببت ان اشارككم الحل. لهذة المشكلة
الى خطوات حل المشكلطريقة
- ادخل للوحة تحكم موقعك فى البلوجر
- اختار المظهر ثم اضغط على تعديلhtml
- ابحث عن
- قم باضافة هذا الكود اسفلة مباشرةb:if cond='data.blog.searchlabal'>
- ثم اضغط حفظ القالب
- ثم ادخل من لوحة تحكم المدونة الخاصة بك واختار منها تفضيلات البحث
- ومنهااختارملف الروبوت المخصصrobots.txt
- ثم قم بازالةdisallow :/search
- واضغط على حفظ التغبرات


0 التعليقات