12 مهمترین و رایج ترین الگوریتم های گوگل

مهم ترین الگوریتم های گوگل

الگوریتم های گوگل چیست؟

تاحالا به این توجه کرده بودی چرا بعضی از سایت ها همیشه در صفحه اول گوگل هستند؟ الگوریتم های گوگل قوانین و فرایندهایی هستند که توسط شرکت گوگل برای رتبه بندی صفحات وب طراحی شده اند.

مولفه هایی مانند کیفیت محتوا، طراحی سایت، تعامل و تجربه کاربران و غیره در این ارزیابی صفحات سایت تاثیر بسیار زیادی دارند. این سیستم ها به طور مداوم بروزرسانی و مطمئن می شوند که کاربران بهترین و مرتبط ترین نتایج جستجو را دریافت کنند. اگر در سال 2025  هدفت اینه که سایتت جزو نتایج برتر گوگل باشه، آشنایی با این سیستم های رتبه بندی کاملا ضروریست. در ادامه مهم ترین و رایج ترین قوانین رتبه بندی صفحات مهم گوگل تا به امروز را معرفی می کنیم.

لیست الگوریتم های معرفی شده در این مقاله:

  1. پاندا (Google Panda)
  2. پنگوئن (Google Penguin)
  3. مرغ مگس خوار  (Google hummingbird)
  4. کبوتر (Google Pigeon)
  5. موبایلگدان (Google Mobilegeddon)
  6. رنک برین  (Goole RankBrain)
  7. موش کور (Google Possum)
  8. مدیک (Google Medic Update)
  9. برت (Google BERT)
  10. محتوای مفید (Helpful Content)
  11. MUM
  12. گورخر (Zebra Optimization Algorithm)

در ادامه هرکدام از این الگوریتم هارا به صورت کامل معرفی کرده ام، امیدوارم تا انتهای مقاله با من همراه باشید.

الگوریتم های گوگل و سیستم رتبه بندی سئو

فیلتر هوشمند پاندا گوگل (Google Panda) :

آیا محتوای سایت شما واقعا ارزشمنده یا فقط برای پر کردن صفحه نوشته شده؟ در سال 2010 کیفیت پایین محتوای سایت ها و رشد بیش از حد مزرعه محتوا (Content Farm) باعث اعتراض گسترده کاربران نسبت به کیفیت پایین محتوای سایت ها شده بود. چرا که اکثر نتایجی که موتورهای جستجو به کاربران نمایش میدادند، با استفاده بیش از حد از کلمات کلیدی و کپی از سایت های دیگر محتوایی بی کیفیت به کاربران ارائه میشد. حتی ممکن بود افراد بعد از کلیک روی لینک پیشنهادی موتورهای جستجو با متنی کوتاه و بی ربط به عنوان محتوا مواجه شوند.

دلیل اصلی انتشار محتوای بی کیفیت در سایت ها چه بود؟

نویسندگان وب سایت ها صرفا با هدف جلب توجه سیستم رتبه بندی و افزایش بازدید، حجم زیادی محتوای بی کیفیت و کم عمق تولید می کردند. با درنظر گرفتن مشکلات متعدد کاربران؛ روزنامه Business Insider مقاله ای با عنوان «سیستم رتبه بندی جستجوی گوگل خراب شده، وقت آن است که به اصلاح و بهبود محتوا برگردیم.» منتشر کرد.

در پی انتشار گسترده این مقاله مسئولان گوگل متوجه مشکلات به وجود آمده شدند و در سال 2011 فیلتر پاندا برای اولین بار به عموم معرفی شد. فردای همان روز گوگل مقاله ای منتشر کرد و تاثیرات این فرایند را بر سیستم رتبه بندی گوگل بازگو کرد. محتوای مقاله گوگل به این صورت بود :« هدف ما ارائه بهترین تجربه جستجو برای کاربران است. این به‌روزرسانی طراحی شده تا رتبه سایت‌هایی با محتوای کم‌ ارزش یا تکراری را کاهش دهد و در مقابل، سایت‌هایی با محتوای باکیفیت و اصلی را ارتقا دهد.»

 آیا محتوای سایتت تکراری یا سطحی هست؟ فیلتر محتوای کم ارزش پاندا دقیقاً همین صفحات رو شناسایی می‌کنه و با امتیاز منفی، رتبه‌شون رو پایین میاره. پیشنهاد میکنم همین حالا محتوای سایتت رو بررسی کنی و ببینی آیا برای کاربر مفیده یا فقط برای گوگل نوشته شده؟

 

مکانیزم پاکسازی لینک های مصنوعی پنگوئن گوگل (Google Penguin):الگوریتم پنگوئن گوگل

تاحالا به فکر پاک سازی لینک های اسپم افتادی؟ فیلتر هوشمند پنگوئن در سال 2012 معرفی شد. قبل از آن تعداد بی شماری لینک های مخرب و اسپم در سراسر گوگل وجود داشت که با هدف کسب رتبه های بالا اقدام به خرید لینک ها، تبادل لینک های بی ربط و استفاده بیش از حد کلمات کلیدی می کردند. فیلتر هوشمند پنگوئن، لینک های مصنوعی که سیستم محاسبه رتبه بندی را فریب دهد، هدف قرار میگیرد و هر سایتی که از این روش استفاده کند را جریمه می کند.

روز اولی که این مکانیزم استفاده شد بیش از 3% از جستجوهای انگلیسی زبان را تحت تاثیر قرار داد و بسیاری از سایت ها را با افت شدید رتبه مواجه کرد تا مجبور به پاک سازی لینک های اسپم شدند. در آخرین به روزرسانی فیلتر پنگوئن نسخه 3 ارائه شد وبه یکی از هسته های اصلی گوگل تبدیل شد. در این بروزرسانی مکانیزم مبارزه با لینک سازی مصنوعی تنها تاثیر لینک های اسپم را کم می کند و از جریمه های سنگین برای سایت جلوگیری می کند. اما جریمه شدن باعث می شود که رتبه بندی سایت شما در نتایج جستجو تاثیر منفی بگیرد و با کاهش ترافیک ارگانیک مواجه شوید.

برای اینکه جریمه رتبه بندی این الگوریتم های گوگل را رفع کنید بهترین کار این است که لینک های اسپم در سایت را شناسایی و حذف کنید. تا حالا تجربه کردی که سایتت به خاطر لینک‌های اسپم افت رتبه داشته باشه؟ اگه آره، وقتشه با مکانیزم مقابله با لینک سازی اسپم آشتی کنی. وب سایت های خبری مانند ایسنا به دلیل اینکه اطلاعات معتبری پوشش میدهد و لینک سازی طبیعی دارد در رتبه بندی های پنگوئن موفق عمل کرده است.

 

الگوریتم درک زبان عامیانه مرغ مگس خوار گوگل (Google hummingbird):

آیا تابه حال در قسمت سرچ مرورگر خود کلمه ای را به اشتباه تایپ کرده اید و در کمال تعجب همان نتیجه ای که انتظار داشتید را بگیرید؟ بنظرتون گوگل واقعا منظور جستجوی شمارو میفهمه؟

در سال 2013 مدل تحلیل مرغ مگس خوار معرفی شد و ساختار هسته اصلی موتورهای جستجو را با تغییرات بزرگی بازنویسی کرد. موتور تحلیل زبان طبیعی مرغ مگس خوار تحول شگفتی در فرایند تحلیل معنایی ایجاد کرد. این فرایند به جای فقط تطبیق کلمات کلیدی منظور واقعی کاربر از کلمات سرچ شده را درک می کند و نتایج جستجو به گونه ای انسانی تر شدند.

تاثیر سیستم تحلیل زبان طبیعی بر جستجوهای صوتی

چرا موتور تحلیل زبان طبیعی نقش بسیار مهمی در تحول های صوتی ایجاد کرد؟ چون قطعا برای درک بهتر زبان محاوره ای و طبیعی طراحی شده تا هر نوع مکالمه ای با زبان ها و لهجه های متفاوت را طبق نیت کاربر بفهمد. نحوه کار این سیستم تمرکز بر روی فهم موضوع جستجو به جای تطابق واژه ها است.

اگر می خواهی سایت خودت را برای پاسخ گویی بهتر در جستجوهای صوتی بهینه کنی این نکات طلایی باید رعایت بشوند.

  • از زبان طبیعی و محاوره ای استفاده کن.
  • صفحات رو طوری بنویس که هر بخش با سوال و جواب شروع شود.
  • اکثر کاربران دررابطه با موقعیت محلی خود جستجو می کنند، پس از نام شهر، منطقه و اصطلاحات محلی استفاده کن تا گوگل موقعیت کسب و کار تو را تشخیص دهد.
  • سرعت بارگذاری سایتت را بالا ببر، چون اکثر جستجوهای صوتی از طریق موبایل انجام می شود و به سرعت بالایی نیاز دارد.
  • از کدهای ساختار یافته استفاده کن، این کدها به فهم بهتر اطلاعات صفحه شما توسط گوگل کمک می کند.

 

سیستم نزدیک ترین موقعیت مکانی، کبوتر (Google Pigeon):الگوریتم کبوتر گوگل

تاکنون چندبار عبارت «نزدیک ترین رستوران به من» رو جستجو کردی؟ ساختار تحلیل گوگل کبوتر در سال 2014 معرفی شد تا سرچ های گوگل را بررسی کند و اگر جستجویی مبنی بر موقعیت مکانی فرد مشاهده کرد دست به کار شود. به طور مثال من در بیشتر مواقعی که به دنبال کافه و رستورانی در محدوده زندگی خودم هستم عباراتی مثل «نزدیک ترین کافه به من » یا «رستوران نزدیک در چهارباغ» را جستجو می کنم و طبق الگوهای کبوتر گوگل نزدیک ترین و شناخته شده ترین مکان ها نمایش داده می شود.

در بروزرسانی جدید موتورهای جستجو موقعیت جغرافیایی گوگل علاوه بر اینکه صفحات مکان های سرچ شده را نمایش میدهند، با نرم افزار مپ ترکیب شده و فضایی اضافه کرده که لوکشین، آدرس، شماره تماس و خلاصه ای از اطلاعات مکان جستجوی کاربر را نمایش می دهد.

تاثیرات سیستم اتصال جستجوی محلی به جستجوی وب چیست؟

  • این الگوریتم در کسب و کارهایی که اطلاعات محلی و موقعیت مکانی دقیق تری داشته اند تاثیر زیادی گذاشته و رتبه بهتری گرفتند.
  • سایت های مسیریابی محلی بیشتر در نتایج ظاهر شدند مثل سایت های ایرانی بلد و نشان
  • جستجوهای محلی مثل «نزدیک ترین بیمارستان به من» وغیره دقیق تر و مرتبط تر شدند.

 

الگوریتم ویژه گوگل برای موبایل (Google Mobilegeddon):

قطعا تحول تاریخ سئو در سال 2015 با معرفی فیلتر نمایش نتایج در موبایل شکل گرفت. چرا موبایل گدون ایجاد شد؟

با استفاده روزافزون انسان ها از گوشی های هوشمند گوگل متوجه شد که اغلب سایت هایی که در صفحات نتایج قرار می گیرند، کاربری ضعیفی بر روی موبایل های همراه دارند و محتوای داخل سایت به صورت بهم ریخته و غیرجذاب به کاربران نشان داده می شود. به ویژه نسخه های دسکتاپ خیلی از سایت ها بر روی موبایل به متن های کوچک، دکمه های نزدیک به هم و سرعت پایین تغییر می کردند و تجربه کاربری نامطلوبی برای افراد بود.

در نتیجه گوگل تصمیم گرفت تجربه کاربری موبایل را به عنوان یک مولفه رتبه بندی در نظر بگیرد تا کاربران راحت تر به اطلاعات دسترسی داشته باشند. درنتیجه طراحان سایت نسبت به موبایل پسند بودن صفحات توجه ویژه ای می کنند. سایت اسنپ یکی از شناخته شده ترین سرویس های حمل و نقل در ایران با رعایت نکات موبایل گدون رابط کاربری جذاب و سرعت لود شدن صفحات را بالا برده است. همین موضوع باعث شده تا محبوبیت زیادی در بین کاربران کسب کند.

 

در ادامه برخی از ویژگی های صفحات موبایل پسند را مرور می کنیم:

  • طراحی واکنش گرا(Responsive Design)، رویکردی که سایت در تمامی دستگاه ها به درستی نمایش داده شود.
  • متن خوانا بدون نیاز به زوم کردن، اندازه فونت ها باید نسبت به چگالی سایت انتخاب شود.
  • دکمه ها و لینک ها بافاصله مناسب برای لمس کردن قرار گیرند.
  • صفحات با سرعت بالا روی موبایل بارگذاری شوند.

 

مدل پردازش اطلاعات رنک برین گوگل (Goole RankBrain):

الگوریتم رنک برین گوگل

یکی از مهم ترین نوآوری های گوگل در زمینه جستجو، مدل یادگیری ماشین RankBrain است که در سال 2015 معرفی شد. این مدل برپایه یادگیری ماشین طراحی شده تا منظور واقعی کاربر را متوجه شود حتی اگر عبارت مورد جستجو قبلا دیده نشده باشد. طبق آماری که شرکت گوگل اعلام کرده : حقیقت جالب این است که 15%از کل جستجوهای گوگل قبلا هرگز جستجو نشده بودند. این آمار از سال 2007 تا امروز تقریبا ثابت مانده و نشان دهنده تنوع بی پایان نیازهای اطلاعاتی کاربران است.

به همین دلیل مدل های قدیمی مثل مرغ مگس خوار نمی توانستند به خوبی این عبارات نا آشنا را تجزیه و تحلیل کنند، پس مدل RankBrain طراحی شد تا با استفاده از هوش مصنوعی جستجوهای ناآشنا را تحلیل کند و نتایج مرتبط تری ارائه دهد. همچنین این الگوریتم های گوگل رفتار کاربران را بررسی می کند تا متوجه شود کدام نتیجه مفید بوده است. RankBrain مثل مغزی است که از تجربه های خود یاد می گیرد و خودش را با اطلاعات جدید تطبیق می دهد، اما مرغ مگس خوار مانند مغزی

است که از قبل زبان را یادگرفته و قابلیت یادگیری عبارات جدید را ندارد.

مزایای رنک برین :

  • درک بهتری از نیت جستجو دارد.
  • به طور مداوم از رفتارهای کاربران الگو میگیرد.
  • به جستجوهای جدیدی که قبلا سرچ نشده پاسخ میدهد.
  • وابستگی کمتری به کلمات کلیدی دارد.

معایب و چالش های رنک برین  :

  • عملکرد این سیستم هنوز مشخص نیست.
  • برای یادگیری بهتر به داده های زیادی از کاربران نیاز دارد.
  • در جستجوهای تخصصی درک دقیقی از مفهوم ندارد.
  • سئوکارها رقابت شدیدی بر سر تجربه کاربری دارند.

 

موش کور تحلیلگر جستجوهای محلی در گوگل (Google Possum):

الگوریتم بهینه سازی موش کور در سال 2016 به منظور تنوع بخشی به نتایج جستجوی محلی و فیلتر کردن لیست های تکراری یا اسپم طراحی شد. فرایند تحلیل گوگل پاسام (Possum) چه کاری انجام می دهد؟

کسب و کارهای مشابه که در یک موقعیت مکانی یا ساختمان وجود دارند را فیلتر می کند، به عنوان مثال در مجتمع های پزشکی که احتمال وجود چند دکتر دندانپزشک در آن مجتمع وجود دارد یکی از این کسب و کارهای مشابه هستند. فیلتر هوشمند موش کور نتایج را نسبت به محل دقیق کاربر جستجو می کند حتی اگر نتایج در یک شهر باشند. این سیستم به پیشرفت کسب و کارهای خارج از محدوده شهری نیز کمک بسیار زیادی کرده تا در نتایج جستجوی محلی دیده شوند.

سیستم رتبه بندی موش کور و کبوتر چه تفاوتی دارند؟

فرایند تحلیل گوگل موش کور(Possum)  تمرکز خود را روی پاک سازی و تنوع بخشی نتایج محلی گذاشته  درصورتی که ساختار تصمیم گیری کبوتر(Pigeon)  تلاش می کند تا جستجوی محلی را با الگوی اصلی گوگل وب هماهنگ کند.

چرا فیلتر هوشمند مکان محور به وجود آمد؟

مکانیزم جستجوی موش کور برای اینکه با اسپم های محلی و لیست های تکراری گوگل مپ مقابله کند و نتایج دقیق تر و مرتبط تری با موقعیت جغرافیایی کاربر نمایش بدهد ارائه شد. همچنین برای جلوگیری از سلطه چند کسب و کار مشابه  در یک مکان و افزایش تنوع طراحی شده است.

 

مدیک مهمترین بروزرسانی گوگل در محتواهای تخصصی (Google Medic Update):

آیا تابه حال اطلاعاتی مرتبط با بهداشت و سلامت را در اینترنت جستجو کرده اید؟ چند درصد به آن نتایج اعتماد دارید؟

بروزرسانی تخصصی مدیک در سال 2018 یک فیلتر مهم بود که بر روی محتواهای مرتبط با سلامت، بهداشت و مسائل مالی تمرکز کرد. نام مدیک توسط جامعه سئو به این ارزیابی محتوا داده شد، چرا که بیشترین تاثیر را روی سایت های مرتبط با سلامت و پزشکی گذاشت. هدف مدیک چیست؟

هدف اصلی این رویکرد بهبود کیفیت  محتوای تخصصی در نتایج جستجو و مقابله با اطلاعات نادرست پزشکی است که می تواند به کاربران آسیب بزند.

مفاهیم اصلی که در ارزیابی محتوای مدیک نقش مهمی دارند به صورت زیر هستند.

E-A-T:مخفف سه واژه‌ی Expertise (تخصص)، Authoritativeness (اعتبار)، و Trustworthiness (قابلیت اعتماد).

YMYL: مخفف “Your Money or Your Life” یعنی صفحاتی که روی سلامت، مالیات، یا زندگی افراد تأثیر می‌گذارند.

چه سایت هایی بیشتر تحت تاثیر رویکرد ارزیابی مدیک قرار گرفتند؟

  • سایت های پزشکی، تغزیه، روان شناسی
  • سایت های مالی و سرمایه گذاری
  • سایت های مشاوره ای در حوزه سلامت یا سبک زندگی

چگونه با بروزرسانی مدیک سازگار شویم؟

  • محتواهای تخصصی که توسط نویسندگان معتبر نوشته شده ارائه دهید.
  • از منابع علمی و قابل استناد استفاده کنید.
  • به طور منظم محتوای خود را بروزرسانی کنید.
  • اطلاعات، مدارک و سوابق نویسنده را به اشتراک بگذارید.
  • با طراحی حرفه ای سایت خود اعتماد کاربران را افزایش دهید.

 

مدل پردازش زبان طبیعی برت (Google BERT):الگوریتم برت گوگل

برت یکی از پیشرفته ترین مدل پردازش اطلاعات گوگل برای درک زبان طبیعی انسان است که به صورت یک رمزگذار دوطرفه کار می کند. در روش رمزگذار دوطرفه BERT جمله را هم از سمت راست و هم از سمت چپ می خواند تا معنای دقیق تری از جمله را به دست آورد. در سال 2019 به طور رسمی در بهینه سازی موتورهای جستجو به کار گرفته شد تا منظور واقعی افراد را در جملات پیچیده یا محاوره ای بهتر درک کند. امروزه افراد منظور خود را با حروف اضافه مثل “به” و “از”  می رسانند بنابراین یکی از ویژگی های برجسته برت توجه به کلمات ریز است، همچنین برت می تواند مترادف هارا تشخیص دهد و غلط های املایی را اصلاح کند.

تاثیر BERT بر سئو و نتایج جستجو

  • تمرکز موتورهای جستجو گوگل از کلمات کلیدی به مفهوم کلی محتوا منتقل شده.
  • سایت هایی که محتوای باکیفیت و انسانی دارند رتبه بهتری می گیرند.
  • با تکرار کردن کلمات کلیدی نمی توان گوگل را فریب داد بلکه رتبه منفی هم گرفته می شود.

آیا می توانیم سایت را برای BERT بهینه کنیم؟

به طور مستقیم بهینه سازی سایت تاثیری بر تحلیل برت ندارد چون در این فرایند بیشتر به درک زبان طبیعی پرداخته می شود. تنها راه بهینه سازی تاثیرگذار این است که:

  • محتواها را روان ، دقیق و با مفهوم بنویسید.
  • از زبان محاوره ای و طبیعی استفاده کنید.
  • به سوالات واقعی کاربران پاسخ دهید.

تفاوت BERT و RankBrain چیست؟

  • کاربرد اصلی سیستم رنک برین تحلیل جستجوهای جدید و مبهم است درصورتی که مکانیزم دوطرفه برت درک عمیقی از جملات پیچیده و محاوره ای دارد.
  • رنک برین با تکنولوژی سنتی یادگیری ماشین کار می کند اما برت از مدل های پیشرفته ای مثل NLP استفاده می کند.
  • پردازش رنک برین یک طرفه است اما در برت پردازش به صورت دوطرفه انجام می شود.

رویکرد گوگل در ارزیابی محتوای مفید (Helpful Content):

در سال های اخیر انتشار مطالبی که فقط برای گوگل نوشته شده بودند گسترش یافته بود و از کلمات کلیدی به تکرار استفاده می شد تا رتبه بهتری در نتایج گوگل داشته باشند. بنابراین مطالبی که واقعا برای کاربران مفید باشد و به صورت انسانی نوشته باشد بسیار کم شده بود. مطالب تولید شده توسط هوش مصنوعی بدون ویرایش انسان افزایش پیدا کرده بود در نتیجه سیستم تحلیل محتوای مفید در سال 2022 معرفی شد. اما تا سال های بعد بروزرسانی های مهمی دریافت کرد.

به طور مثال در سایت آموزشی هرمس تمامی مقالات و محتوا براساس تجربه واقعی نویسنده و مدرسین دوره ها نوشته میشود. ما با ارائه مطالب با کیفیت و مفید نیازهای کاربران را اولویت قرار میدهیم و برای مخاطبانمان ارزش قائل هستیم.

اهداف اصلی مدل تحلیل محتوای مفید چیست؟

  • محتواهایی که واقعا مفید هستند و توسط انسان نوشته شده را بررسی می کند.
  • محتواهایی که صرفا برای گوگل نوشته شده اند را کاهش می دهد.
  • از تکثیر محتوای نوشته شده توسط هوش مصنوعی بدون نظارت انسان جلوگیری می کند.

وظایف این مکانیزم جستجوی مطالب مفید چیست؟

  • محتوای کل سایت را بررسی می کند و درصورتی که درصد زیادی از محتوا نامفید باشد، کل سایت را جریمه می کند.
  • مطالبی که تجربه انسانی ندارند و تخصصی نیستند را رتبه نمی دهد.
  • مطالبی که فقط برای سئو نوشته شده باشد را شناسایی و حذف می کند.
  • درمواقعی حتی اگر بخشی از یک سایت مطالب بی کیفیت داشته باشد، کل سایت آسیب می بیند.

حال سوال این است که چگونه می توانیم با این مدل تحلیل محتوای با کیفیت هماهنگ شویم؟

  • مطالبی که منتشر می کنید توسط نویسندگان واقعی با تجربه شخصی نوشته شده باشد.
  • از مثال ها و دیدگاه های انسانی استفاده کنید.
  • از کلمات کلیدی تکراری پرهیز کنید.
  • اگر محتوای خود را با هوش مصنوعی تولید می کنید، حتما آن مطلب را بازبینی و ویرایش کنید.
  • روی پاسخ به نیاز واقعی کاربر تمرکز کنید.

 

سیستم قدرتمند جستجوهای چندمرحله ای MUM:الگوریتم MUM گوگل

بدون شک بارها برای شما پیش آمده که از موتورهای جستجو سوال های متعددی بپرسید تا به جواب نهایی خود برسید. مثلا تصور کنید میخواهید به یک تور گردشگری ویژه شمال کشور بپیوندید. در موتورهای جستجو گوگل سوال ” چه وسایلی برای سفر به شمال کشور نیاز دارم؟ ” را سرچ میکنید. گوگل میتواند کمک زیادی به شما بکند اما برای اینکه جواب متفکرانه ای بدهد به اطلاعاتی مثل دما ، زمان سفر ، وسیله حمل و نقل و شهری که قصد سفر دارید نیاز دارد.

درنهایت شما با چند سوال مختلف به جواب نهایی میرسید. کارشناسان شرکت گوگل متوجه شدند هر کاربر به طور میانگین هشت پرس و جو برای کارهای پیچیده ای مثل این مورد ارسال میکند. قطعا چنین جستجوهای زیادی باعث کلافگی کاربران میشود. الگوریتم گوگل MUM طراحی شد تا دیگر نیازی به سرچ های طولانی برای پاسخ به یک سوال نداشته باشید.

MUM از چارچوب متن به متن استفاده میکند که 1000 برابر قدرتمندتر از BERT است. مام نه تنها زبان را میفهمد بلکه آنرا تولید میکند. این سیستم در 75 زبان و وظایف مختلف به طور همزمان آموزش دیده و اجازه میدهد تا درک جامعتری از اطلاعات و دانش جهانی نسبت به مدل های

قبلی کسب کند.

وظایف مهم الگوریتم MUM:

  • درک پیچیده تر از نیاز کاربر
  • پاسخ به سوالات چندمرحله ای
  • پردازش چند زبانه
  • تحلیل چند رسانه ای
  • کاهش تعداد جستجوها

معایب و چالش های الگوریتم MUM:

  • هنوز به طور کامل پیاده سازی نشده.
  • احتمال دارد در تحلیل اطلاعات چندرسانه ای خطا کند.
  • تاکنون جزئیات دقیقی از فرایند این سیستم منتشر نشده.
  • به منابع متنوع و دقیق نیاز دارد.

 

الگوی بهینه سازی فرا ابتکاری گورخر (Zebra Optimization Algorithm):

محققان گوگل از طبیعیت و زیست شناسی گورخرها برای خلق این الگو استفاده کردند. این سیستم به اختصار ZOA خطاب میشود.  بنظر شما چه رفتاری از گورخر باعث شده تا الهام بخش الگوریتم های گوگل شود؟ رفتار گورخرها در جستجوی غذا و استراتژی دفاعی از خود دربرابر شکارچی ها دلیل این انتخاب است.

هدف این الگو، جدا کردن فروشگاه های تقلبی ، اسپم و بی کیفیت از فروشگاه های واقعی و خوب است. طرح پوست سفید و سیاه گورخر ، نشان دهنده غربالگری و تمایز بین سایت های خوب و بد است. ZOA ، الگوریتم های گوگل پاندا و پنگوئن که مخصوص محتوای باکیفیت و لینک سازی اسپم هستند را تکمیل میکند.

مزایای سیستم جداکننده ZOA :

  • کاربران به سایت های معتبرتری که امنیت آنهارا تضمین میکند هدایت میشوند.
  • فروشگاه هایی که محتوای خوب و مفید دارند بیشتر شناخته میشوند.
  • کلاهبرداری در سایت ها کاهش پیدا میکند.
  • سایت ها به ایجاد تجربه کاربری بهتر تشویق میشوند.

 معایب سیستم جداکننده ZOA:

    • بخاطر اینکه سخت گیری زیادی میشود ممکن است سایت های تازه کار هم آسیب ببینند.
    • سایت ها باید در همه زمینه ها بهترین باشند و بهینه سازی انجام دهند تا رتبه بالایی بگیرند.
    • گورخر برخلاف سایر الگوریتم های گوگل مثل RankBrain بروزرسانی محدودتری دارد.

کدام یک از الگوریتم های گوگل نیاز به آموزش آکادمیک و تخصصی دارد؟

برخی از الگوریتم هایی که قبلتر معرفی کردم نیاز به آموزش های آکادمیک، تمرین و تکرار پروژه محور دارند.

دوره آموزش جامع سئو در هرمس، تمام مباحثی که برای بهبود عملکرد سایت به آن نیاز دارید را دربرمیگیرد. پس برای یادگیری بهینه سازی موتورهای جستجو نیازی به شرکت در کلاس های فیزیکی و خسته کننده ندارید.

درادامه الگوریتم هایی که نیاز به یادگیری تخصصی دارند آورده شده.

      • BERT: به دلیل اینکه برت به صورت پردازش زبان طبیعی کار میکند ، برای درک بهتر آن باید درک عمیقی از زبان شناسی و مدل های عصبی داشته باشید.
      • ZOA: هدف سیستم گورخر تفکیک سایت های خوب از بد است. بخاطر همین برای فهم بهتر آن نیاز است به رفتار کاربر ، طراحی UX و امنیت سایبری مسلط باشید.
      • Medic Update: اگر موضوع سایت شما شامل پزشکی ، روانشناسی ، مالی و حقوق باشه حتما باید به این اطلاعات آشنا باشید تا بتوانید رتبه خوبی در موتورهای جستجو بگیرید.
      • RankBrain: چون این سیستم برپایه مدل های یادگیری ماشین کار میکند باید در این زمینه مهارت و اطلاعات کافی کسب کنید.
      • MUM: این الگوریتم درک چندمرحله ای ، چند زبانه و چندرسانه ای دارد. شما به عنوان یک سئوکار نیاز به کسب دانش در زمینه تحلیل تصویر ف متن و صوت دارید.

 

سخن آخر

در این مقاله با 12 ساختار تصمیم گیری کلیدی گوگل آشنا شدیم که هرکدام نقش مهمی در شکل‌دهی به نتایج جست‌وجو دارند. اما اگر می‌خواهی در سال ۲۰۲۵ واقعاً در صدر نتایج بمانی، باید بدانی کدام الگوها در حال حاضر بیشترین تأثیر را دارند. در مقاله بعدی، به‌صورت تخصصی الگوریتم های یادگیری ماشین و ارتباط آنها به سیستم های رتبه بندی گوگل در سال ۲۰۲۵ را بررسی می‌کنم و بهت می‌گم چطور می‌تونی از آن‌ها برای ارتقای رتبه سایتت استفاده کنی. آماده‌ای که سئوی سایتت رو با الگوریتم‌های گوگل آینده‌محور هماهنگ کنی؟ پس منتظر مقاله بعدی باش!

 

چه امتیازی به این مقاله می دهید؟

5/5 - (1 امتیاز)

دیدگاهتان را بنویسید