سئو

مهم ترین الگوریتم های گوگل

الگوریتم های گوگل برای سئو

به آخرین جستجویی که در گوگل انجام داده‌اید فکر کنید به طور مثال: وضعیت کرونا در ایران. میلیون‌ها صفحه در فضای اینترنت وجود دارد که شما با جستجو کردن عبارتی در گوگل، مرتبط ترین نتایج را در کسری از ثانیه خواهید دید. اما گوگل نتایج را چگونه مرتب می‌کند؟ اولویت نمایش نتایج بر چه اساسی است؟

گوگل برای سیستم رتبه دهی وب سایت‌ها قوانین خودش را دارد و برای اینکه کاربران به مفیدترین و مرتبط ترین اطلاعات دست یابند الگوریتم‌هایی را تنظیم کرده است تا عوامل مختلفی را بررسی کند.

شاید این سوال پیش بیاید که الگوریتم چیست؟ طبق تعریف استاندارد به مجموعه‌ای از قوانین برای حل مشکل در تعداد محدودی مراحل می‌گویند. الگوریتم‌های گوگل اگرچه به صورت کامل منتشر نمی‌شوند و مدام در حال بروزرسانی و تغییر هستند اما طبق تجربه و گزارش کارشناسان برخی از مهم‌ترین الگوریتم‌های گوگل را با هم در این مقاله بررسی خواهیم کرد.

الگوریتم گوگل پاندا

الگوریتم پاندا (Panda)

نظارت بر محتوای تولید شده

قبل از سال ۲۰۱۱ و ظهور الگوریتم پاندا، هرروز محتوای بی‌کیفیت با سرعت بیشتری منتشر میشد که نارضایتی کاربران از محتوای بیهوده و اسپم را به دنبال داشت. پس باید هر روز بهتر از دیروز عمل می‌کرد و رضایت کاربران را جلب می‌کرد. درست در همین زمان، گوگل از الگوریتم پاندا رونمایی کرد.

وظایف:

  • طبقه بندی کیفیت صفحات
  • مبارزه با محتوای بی‌کیفیت و بی‌ارزش
  • مبارزه با محتوای کپی شده و تکراری

  اهداف:

  • حذف سایت‌های بدون محتوای ارزشمند
  • پاداش به سایت‌هایی محتوای باکیفیت
الگوریتم پنگوئن گوگل

الگوریتم پنگوئن (Penguin)

الگوریتم ضد اسپم

گوگل، در آغاز سال‌های فعالیت خود، موضوع مقالات را از تکرار کلمات کلیدی پیدا می‌کرد. به این شکل که هر صفحه‌ای را که کلمه‌ی کلیدی، بیشتر در آن تکرار شده بود، در نتایج بالاتر نشان میداد. از طرفی، مدتی بعد، لینک‌ها عامل مهمی در رنکینگ سایت شدند. به همین خاطر سایت‌هایی از طریق روش‌های اسپم مثل: لینک‌سازی اسپم و پرکردن صفحه با کلمات کلیدی در نتایج جستجوی گوگل، در نتایج گوگل تغییر ایجاد کرده و قصد داشتند سایت خود را به رتبه‌های بالاتری بیاورند.

در همین راستا، گوگل نیز برای یافتن این سایت‌های اسپم‌گونه، فعالیت خود را آغاز کرد. بدین ترتیب که در سال 2012 با معرفی الگوریتم پنگوئن روش‌های تنبیهی را برای سایت‌هایی که چنین اقدامات اسپم‌گونه‌ای انجام می‌دهند، در نظر گرفت.

وظایف:

  • مبارزه با لینک‌سازی‌های اسپم و روش‌های غیرطبیعی
  • جلوگیری از رتبه گرفتن سایت‌های بی‌کیفیت
  • جلوگیری از سایت‌های با تعداد بالای کلمه کلیدی

  اهداف:

  • شناسایی و بی اعتباری لینک‌های بی‌کیفیت و تقلبی
  • بررسی میزان چگالی کلمات کلیدی در هر صفحه و کاهش رتبه صفحه
  • کاهش تاثیرگذاری روش‌های کلاه سیاه
الگوریتم رنک برین

الگوریتم رنک برین (Rank Brain)

آنالیز عبارات جستجو

با پیشرفت هوش مصنوعی، گوگل یک مدل آنالیز عبارات جستجو شده را در سال 2015 راه‌اندازی کرد که در آن به کمک هوش مصنوعی گوگل می‌تواند منظور کاربران را از نظر معنایی تفسیر کند.

گوگل الگوریتم رنک برین را به عنوان سومین فاکتور مهم بعد از بک‌لینک و محتوا برای رتبه‌بندی سایت‌ها در صفحه نتایج موتور جستجوی خود معرفی کرده‌است و هدف اصلی آن، بهبود فرایند جستجو و جلب رضایت کاربران است. در این الگوریتم از فاکتورهایی همچون: زمان حضور کاربران در سایت، نرخ پرش، نرخ خروج و نرخ کلیک برای تشخیص استفاده می‌شود.

وظایف:

  • پردازش بهتر عبارات جستجو شده
  • نمایش نتایج بر اساس رفتار کاربران
  • بررسی مفهوم عبارات سرچ شده
  • تشریح معنایی عبارات کلیدی

  اهداف:

  • بررسی رفتار کاربر در نتایج مختلف
  • بهینه‌سازی نتایج بر اساس رفتار کاربران
  • رضایت کاربران
الگوریتم مرغ مگسخوار

الگوریتم مرغ مگس خوار (Hummingbird algorithm)

سرعت بالا، دقت بالا و انتخاب مناسب

در گذشته اگر عبارتی را در گوگل جستجو می کردیم، ساعت ها باید در نتایج می‌گشتیم تا مطلب مورد نظرمان را پیدا کنیم! به صفحات اسپمی می‌رسیدیم که در ردیف اول نتایج گوگل جا خوش کرده بودند. همان صفحاتی که هیچ محتوای مناسبی نداشتند و با ورود به آن سایت‌ها چندین پنجرۀ تبلیغاتی باز میشد. اما گوگل اجازه نداد این داستان ادامه پیدا کند و الگوریتم مرغ مگس خوار، را در سال 2013 رونمایی کرد.

وظایف:

  • تجزیه و تحلیل دقیق عبارات جستجو شده کاربر
  • درک مفهوم و معنای عبارت جستجو شده
  • شناخت مترادف‌ها و نمایش نتایج منطبق با مفهوم عبارات سرچ شده
  • ایندکس صفحات و محتوا و همچنین بررسی رفتار کاربران

  اهداف:

  • درک منظور و مفهوم کاربر و نمایش بهترین نتیجه
  • عدم نمایش نتایج اسپم و نامرتبط با هدف جستجوی کاربر
  • پیدا کردن نتیجه بهتر در پایین‌ترین زمان برای کاربر
  • کسب رضایت کاربران با نمایش نتایج دقیق
الگوریتم سندباکس

الگوریتم سندباکس (Sandbox algorithm)

فیلتری برای سایت‌های جدید

سایت‌های تازه تاسیس نمی‌توانند با فریب دادن گوگل، به سرعت در صفحه اول نتایج قرار بگیرند. این الگوریتم بسیار شبیه آزمونی برای سایت‌هایی است که تا قبل از کسب رتبه واقعی، در قسمت‌های پایین صفحات جستجو قرار گیرند تا از نیت خوب صاحبان آنها مطلع شود.

نکته‌ای که در مورد آن وجود دارد این است که روی همه‌ی وب‌سایت‌ها عملی نمی‌شود. در مورد برخی وب‌سایت‌ها پس از شروع کار، آن‌ها را اصطلاحاً در سند باکس نگه می‌دارد و به آن‌ها رتبه نمی‌دهد تا عملکرد آن‌ها را ببیند و در صورت خوب و با کیفیت بودن، آن‌ها را از سندباکس خارج می‌کند. خروج از سندباکس گوگل را می‌توان با یک جهش چشم‌گیر در آمار بازدید و رتبه سایت با ابزار سرچ کنسول در کلمات مهم شناسایی کرد.

وظایف:

  • زیر ذره‌بین قرار دادن عملکرد سایت‌های تازه کار

  • جلوگیری از رتبه گرفتن سریع سایت های تازه کار

  اهداف:

  • جلوگیری از تکنیک‌های کلاه سیاه برای فریب گوگل در ابتدای شروع فعالیت
  • جلوگیری از پیشرفت سریع سایت‌های جدید و بی کیفیت
الگوریتم کبوتر گوگل

الگوریتم کبوتر (Pigeon algorithm)

نتایج مفید بر اساس موقعیت مکانی و محلی

فرض کنید در یک محله‌ی ناآشنا و جدید هستید، وقت ناهار است و شدیدا احساس گرسنگی می‌کنید، ولی با نقشه و مکان‌های این محل جدید آشنایی ندارید. سریعا گوشی را برداشته و تصمیم میگیرید سری به گوگل بزنید و سرچ کنید: رستوران یا رستوران نزدیک به من! و دقیقا لیست رستوران‌های نزدیک به خود را دریافت می‌کنید. جای تعجب ندارد این نتیجه الگوریتم کبوتر است که در سال 2014 معرفی شد!

الگوریتم کبوتر گوگل، بر اساس لوکیشن شما هنگام جستجو، خصوصاً در عبارتی مثل: «کافه‌های نزدیک» رتبه بندی جدیدی ایجاد می‌کند و به شما نمایش می‌دهد. از دید این الگوریتم گاهی اوقات فاکتورهایی مانند: فاصله مکانی، ساعت کاری و سهولت دسترسی مهم‌تر از عوامل همیشگی بهینه‌سازی هستند.

وظایف:

  • نمایش نتایج مفید و ارزشمند بر اساس موقعیت مکانی کاربر
  • پیشنهاد نزدیک‌ترین و بهترین موقعیت مکانی یا کسب و کار محلی

  اهداف:

  • بهینه‌سازی نتایج جستجو برای کاربران
  • کمک به کسب و کارهای محلی

الگوریتم موبایل فرندلی (Mobile Friendly)

بررسی ریسپانسیو بودن سایت‌ها

 به طور کلي mobilefriendly بودن يک سايت به معناي اين است که کاربران موبايل بتوانند به راحتي از سایت شما در موبایل خود استفاده کنند و نيازي به زوم صفحه جهت بهتر ديدن محتوا و يا اسکرول صفحه به چپ و راست نباشد.

با این الگوریتم، وب سايت‌هايي که طراحي آنها واکنشگراست در رتبه‌بندي جديد‌، جايگاه بالاتري را کسب مي‌کنند. الگوريتم mobile friendly تنها بر نتايج جستجو که توسط موبايل انجام مي‌شود تأثير دارد.

وظایف:

  • اطمینان از بهينه بودن وبسايت‌ها براي استفاده‌کنندگان صفحه نمايش موبايل
  • بهبود نتايج جستجو در تلفن همراه

  اهداف:

  • کسب رضايت کاربران
  • افزايش رتبه‌بندي سایت‌های رسپانسیو
الگوریتم گوگل برت

الگوریتم گوگل برت (Google BERT)

درک بهتر اهداف کاربران از عبارت جستجو

 این الگوریتم در سال 2019 برای درک عمیق‌تر زبان محاوره کاربران و اهداف آنها از عبارات جستجوشده ارائه شد و در واقع بروزرسانی‌ای بر الگوریتم رنک برین است. گوگل برت بزرگ‌ترین و باهوش‌ترین الگوریتم که بر پایه هوش مصنوعی است، یک الگوریتم مبتنی بر شبکه عصبی که از سیستم پردازش زبان طبیعی یا همان NLP بهره می‌برد و هدفش تشخیص جستجوهای کلامی و محاوره‌ای است. برت مفهوم یک رشته از کلمات را در کنار هم بررسی می‌کند نه معنی هر لغت را.

بعد از این الگوریتم استراتژی تولید محتوا در سایت‌ها تغییر کرد و دیگر روش‌های قدیمی پاسخگو نبود؛ پس نتیجه میگیریم که باید پیش از تولید محتوا، تحقیق کلمات کلیدی صورت گیرد که بتوانیم به طور دقیق‌تری هدف جستجوی کاربران را درک کنیم و با همان زبانی که کاربران در حال جستجو هستند، شروع به تولید محتوا کنیم.

وظایف:

  • تحلیل عبارات چند بخشی و بار معنایی کلمات

  • تمرکز بر کوئری‌های طولانی و زبان محاوره کاربران

  اهداف:

  • بهبود تجربه جستجوی کابران
  • درک عمیق‌تر معنی کوئری‌های جستجو شده
  • پیش‌بینی هدف جستجو کاربر با درصد خطای پایین
  • تشخیص جستجوهای کلامی و محاوره‌ای

اگر می‌خواهید بدانید چه نکاتی را باید برای تولید محتوای سئوشده رعایت کنید؛ مقاله‌ی اصول سئو در تولید محتوا را بخوانید!

هر سوال یا نظری دارید اینجا برای ما بنویسید.

نشانی ایمیل شما منتشر نخواهد شد.