بیشتر بخوانید

بررسی اولیه سایت در شروع پروژه سئو

این یک چک لیست درجه یک برای کسایی هست که تازه پروژه گرفتن و نمیدونن باید در ابتدای پروژه به چه چیزهایی توجه ویژه داشته باشن.
این چک لیست رو حتی شما کارفرمای محترم هم میتونید داشته باشید

پروژه خود را سفارش دهید

تفاوت No-index با Block by robots.txt

هرکدام کار کرد متفاوتی دارد، گاهی میخواهیم باشیم، اما نباشیم. این دقیقا چیزیست که با robots.txt و یا no-index اتفاق میفتد.

تفاوت‌های کلیدی

معیارNoindexDisallow در robots.txt
هدف اصلیجلوگیری از ایندکس شدن در نتایج جستجوجلوگیری از خزیدن (Crawling) صفحه
محل اجرادر HTML یا هدر HTTP صفحهدر فایل robots.txt
تأثیر روی خزیدنخزیدن مجاز استخزیدن ممنوع است
تأثیر روی ایندکسصفحه از ایندکس حذف می‌شودممکن است صفحه همچنان ایندکس شود
پیاده‌سازینیاز به دسترسی به کد یا افزونهویرایش فایل robots.txt
مناسب برایصفحاتی که باید در دسترس باشند اما نه در نتایج جستجوصفحاتی که نباید اصلاً دیده شوند (مثل صفحات حساس)
تأثیر روی Crawl Budgetخزیدن انجام می‌شود، بودجه مصرف می‌شودخزیدن متوقف می‌شود، بودجه ذخیره می‌شود

چه زمانی از کدام استفاده کنیم؟

  • از noindex استفاده کنید وقتی:
    • می‌خواهید صفحه‌ای در نتایج جستجو نمایش داده نشود، اما همچنان لینک‌های داخلی آن برای سئو مهم باشند.
    • صفحاتی مثل صفحات لاگین، سبد خرید، یا صفحات موقت (مثل صفحات کمپین‌های تبلیغاتی پایان‌یافته).
    • مثال: example.com/login یا example.com/thank-you.
  • از Disallow در robots.txt استفاده کنید وقتی:
    • می‌خواهید بخش‌هایی از سایت (مثل پوشه‌های ادمین، فایل‌های PDF، یا تصاویر) اصلاً توسط ربات‌ها خزیده نشوند.
    • برای صرفه‌جویی در Crawl Budget، به‌خصوص در سایت‌های بزرگ.
    • مثال: example.com/wp-admin/ یا example.com/private-files/.
  • ترکیب noindex و Disallow:
    • ترکیب این دو توصیه نمی‌شود، چون Disallow مانع خزیدن صفحه می‌شود و گوگل نمی‌تواند تگ noindex را ببیند. اگر می‌خواهید صفحه‌ای ایندکس نشود، ابتدا مطمئن شوید که در robots.txt بلاک نشده است، سپس noindex را اعمال کنید.

جدول زیر زیر مزایا و معایب noindex و Disallow در robots.txt رو به‌صورت خلاصه نشون می‌دهد:

ویژگیNoindexDisallow در robots.txt
هدفجلوگیری از ایندکس شدن در نتایج جستجوجلوگیری از خزیدن صفحه توسط ربات‌ها
مزایاکنترل دقیق ایندکس حفظ خزیدن لینک‌های داخلی مناسب صفحات عمومیساده برای پیاده‌سازی صرفه‌جویی در Crawl Budget مناسب بخش‌های حساس
معایبنیاز به کد/افزونه مصرف Crawl Budget ممکنه دیده نشه اگه بلاک بشهعدم تضمین حذف از ایندکس تگ noindex دیده نمی‌شه برای ربات‌های غیراستاندارد بی‌اثر
موارد استفادهصفحات لاگین، سبد خرید، صفحات موقتپوشه‌های ادمین، فایل‌های حساس، صفحات تکراری