لیست کامل الگوریتم های گوگل در سال 2023

[post-views]
[rt_reading_time label="زمان مطالعه:" postfix="دقیقه" postfix_singular="دقیقه"]

الگوریتم های گوگل از روش‌های پیچیده و هوشمندانه‌ای استفاده می‌کنند تا صفحات وب سایت ها را رتبه بندی کنند. هر چه کیفیت صفحات بیشتر باشد، رتبه‌اش بالاتر است یعنی در صفحه نتایج در جایگاه بالاتری قرار می گیرد.

برای اینکه ملموس تر با این مفهوم آشنا شوید، یک تیم فوتبال را در نظر بگیرید. هر بازیکن یک صفحه وب سایت است و هر پاسی که بین بازیکنان رد و بدل می شود، همان لینک هایی هستند که سایت ها به هم می دهند. رتبه یک بازیکن با پاس ها و یا همان لینک هایی که دریافت می کنند، مشخص می شود. اگر بازیکنان سرشناس و مهم تیم به بازیکنی پاس بدهند، مسلما امتیاز آن بازیکن بیشتر می شود و نسبت به بازیکنان دیگر در رتبه بالاتری قرار می گیرد. هر پاس مساوی است با جابه‌جایی رتبه و امتیازات. هر بار که گوگل اهمیت یک صفحه وب را بازبینی می کند، باید به طور همزمان اهمیت تمام صفحات لینک شده را بازبینی کند.

این گونه بود که سئو متولد شد.

با ظهور الگوریتم جستجوی گوگل و با بازنشسته شدن PageRank یا همان سیستم لینک دهی که با فوتبال توضیح دادیم، مفهمومی به نام بهینه سازی موتورهای جستجو یا همان سئو ظهور پیدا کرد. سئو سبب شد محتوایی که از طریق گوگل پیدا می کنیم، با کیفیت و مرتبط بوده و پاسخ سوال هایمان را بدهد. چه چیزی کیفیت این محتواها را زیر نظر می گیرد؟

الگوریتم ها.

الگوریتم های گوگل با توجه به معیارهای مختلفی مانند کیفیت محتوا، صفحه‌بندی، سرعت بارگذاری و…، بهترین نتایج را برای کاربران به نمایش می‌گذارند. برای شناسایی بهترین نتایج، گوگل از الگوریتم‌های پیچیده ای استفاده می‌کند که در طول سال‌ها بهبود یافته‌اند.

در این مقاله، قصد داریم به بررسی عملکرد و روش کار الگوریتم گوگل و به بررسی جزئیات الگوریتم ها بپردازیم. همچنین، محدودیت‌ها و نقاط ضعف این الگوریتم نیز مورد بررسی قرار خواهد گرفت.




فهرست:

مهم ترین الگوریتم های گوگل

گوگل اکنون بیشتر از هر زمان دیگری می تواند صفحاتی که باید رتبه بگیرند و صفحاتی که لایق رتبه‌ی بالا نیستند را تشخیص دهد. دیگر نمی شود با روش ها و ترفندها گوگل را فریب داد و یک شبه رتبه اول گوگل شد. گوگل از مجموعه “الگوریتم ها” و “برنامه های یادگیری ماشینی” برای یافتن، بررسی و نمایش صفحات مرتبط که با نیاز جستجوی کاربر مطابقت دارد، استفاده می کند. اگر وب سایت دارید، آشنایی با روش کار گوگل باعث می شود رقبا را پشت سر بگذارید و شبکه عظیمی از مخاطبان برای خود ایجاد کنید.

اولین الگوریتم جستجوی گوگل که “PageRank” نامیده می‌شود، در سال 1996 توسط سرگئی برین و لاری پیج، بنیانگذاران گوگل، ابداع شد. این الگوریتم بر اساس تعداد لینک‌هایی که به یک صفحه وب اشاره دارند، آن صفحه را رتبه‌بندی می‌کند. با این حال، از آن زمان تاکنون، الگوریتم جستجوی گوگل به شدت تغییر یافته و با اضافه شدن فاکتورهای مختلف، روش‌های پیچیده‌تری برای رتبه‌بندی صفحات وب به کار گرفته شده است.

در حال حاضر، الگوریتم جستجوی گوگل از بخش‌های مختلفی، شامل: Panda، Penguin، Hummingbird، Pigeon Mobilegeddon، RankBrain ، Medic Core Update و… تشکیل شده است که هر یک برای رتبه‌بندی صفحات وب در نتایج جستجوی گوگل، از روش‌ها و فاکتورهای خاصی استفاده می‌کنند. در ادامه به معرفی تمامی آن ها می پردازیم.




الگوریتم پاندا (Panda Algorithm)

الگوریتم پاندا

الگوریتم پاندا برای بهبود کیفیت نتایج جستجو در موتورهای جستجوی گوگل طراحی شده است. این الگوریتم در سال ۲۰۱۱ توسط گوگل معرفی شد و بهبودی در کیفیت نتایج جستجوی گوگل به همراه داشت.

هدف اصلی پاندا، بهبود کیفیت محتوای سایت‌ها بود. این الگوریتم برای تحلیل محتوای سایت‌ها و ارزیابی کیفیت آن‌ها استفاده می‌شود. از میان مواردی که پاندا به آن توجه می‌کند می‌توان به مواردی مانند کپی‌برداری محتوا، تعداد صفحات فروشگاهی بدون محتوا، عدم به‌روزرسانی محتوا و نامشخص بودن موضوع سایت اشاره کرد. با اعمال این الگوریتم، گوگل تلاش می‌کند تا به بهترین نتیجه برای کاربران خود دست یابد و صفحاتی که دارای محتوای کم کیفیت یا غیراصولی هستند را در نتایج جستجو نمایش ندهد.

در سال‌های بعدی، گوگل تلاش کرد تا با بهبود پاندا و اضافه کردن الگوریتم‌های دیگر مانند پنگوئن، به بهترین نتایج جستجو برای کاربران خود دست یابد.

بیشتر بخوانید: الگوریتم پاندا گوگل چیست و چه معیارهایی برای جریمه دارد؟




الگوریتم پنگوئن (Penguin Algorithm)

الگوریتم پنگوئن

الگوریتم پنگوئن یکی از الگوریتم های موتور جستجوی گوگل است که در سال ۲۰۱۲ معرفی شد. هدف اصلی این الگوریتم، شناسایی و صفر کردن سایت هایی با محتوای بی کیفیت و لینک های اسپم، لینکدهی ضعیف و یا بدون مفهوم و سایت هایی که بیش از حد از تکنیک های SEO (بهینه‌سازی برای موتورهای جستجو) استفاده می کنند بود.

این الگوریتم نام خود را از پنگوئن ها، پرندگانی کوچک و قوی گرفته است که در منطقه قطبی زندگی می کنند. پنگوئن ها به دلیل وفاداری به همسر خود و توسعه رفتارهای اجتماعی، همکاری جدی بین اعضای گروه خود را به نمایش می گذارند.

با انتشار الگوریتم پنگوئن، گوگل تلاش کرد تا با رعایت اصول شفافیت و عدالت، بهترین نتایج جستجو را برای کاربران خود فراهم آورده و سایت هایی که با استفاده از تکنیک های نامشروع به صفحات اول نتایج جستجوی گوگل راه پیدا کرده بودند را مجازات کند.

بیشتر بخوانید: الگوریتم پنگوئن گوگل چیست و چه معیارهایی برای ارزیابی دارد؟




الگوریتم بروزرسانی پنگوئن 4.0

آخرین بروزرسانی اساسی الگوریتم پنگوئن (Penguin Algorithm) توسط گوگل در سال ۲۰۱۶ انجام شده است. این نسخه از الگوریتم با نام “Penguin 4.0” منتشر شد و باعث بهبود رویکرد الگوریتم در شناسایی تحرکات نامناسب در صفحات وب شد.

با ورود نسخه Penguin 4.0، گوگل از روش های جدیدی برای کار با این الگوریتم استفاده می کند. برخی از ویژگی های جدید این الگوریتم عبارتند از:

  1. تحلیل لحظه‌ای: الگوریتم پنگوئن ۴.۰ به صورت لحظه‌ای و بدون نیاز به بروزرسانی در حال کار است.
  2. فیلترهای جانبی: با استفاده از فیلترهای جانبی، الگوریتم پنگوئن بهترین نتیجه‌ها را در اختیار کاربران خود قرار می دهد.
  3. تأثیر لینک‌های خریداری شده: با توجه به نسخه جدید الگوریتم پنگوئن، لینک های خریداری شده به صورت مساعد شناسایی و مجازات خواهند شد.

با توجه به اینکه گوگل به صورت مداوم الگوریتم‌های خود را بهبود می بخشد، بروزرسانی های بعدی نیز احتمالاً صورت خواهد گرفت.




الگوریتم گورخر (Zebra Algorithm)

الگوریتم گورخر

الگوریتم گورخر در سال ۱۹۹۸ توسط مت کاتس، برنامه‌نویس شرکت گوگل، معرفی شد. الگوریتم گورخر برای رتبه‌بندی صفحات وب استفاده می‌شود و به عنوان یکی از اصلی‌ترین فناوری‌های مورد استفاده در موتور جستجوی گوگل شناخته می‌شود.

همانطور که میدانیم بدن گورخر راه راه و به رنگ سفید و سیاه است که ما را یاد بارکد خرید میندازد. از این رو میشود گفت الگوریتم گورخر در تلاش است تا با افرادی که از طریق سایت های فروشگاهی قصد کلاهبرداری دارند برخورد کند.

به وجود آمدن الگوریتم گورخر بخاطر وجود سایت های فروشگاهی بی کیفیت است که بعد از تحقیقات متوجه شدند سایت های فروشگاهی زیادی از طریق سئو کلاه سیاه توانسته اند به رتبه خوبی در گوگل برسند. پس برای از بین بردن سایت های فروشگاهی که با سئو کلاه سیاه برای کلاهبرداری پیشرفت کردند الگوریتم گورخر به وجود امد.

بیشتر بخوانید: الگوریتم گورخر گوگل چیست؟




الگوریتم مرغ مگس خوار (Hummingbird Algorithm)

الگوریتم مرغ مگس خوار

در سال 2013 گوگل الگوریتم جدیدی برای تکمیل الگوریتم های قبل به وجود آورد و نام آن را الگوریتم مرغ مگس خوار گذاشت.

احتمالا برایتان پیش آمده که در گوگل کلمه یا جمله ای سرچ کنید اما نتیجه دلخواه را به دست نیاورید. لینکدهی اسپم و استفاده نا به جا از کلمه کلیدی در متن دلیل به دست نیاوردن نتیجه دلخواه توسط کاربر می شد.

این اتفاقا باعث شد گوگل به اهمیت معنای کلمات پی ببرد، الگوریتم مرغ مگس خوار کلمات کلیدی را بررسی میکند، به معنا و هم خانواده آنها دقت میکند و تا حد زیادی مترادف آنها را نیز شناسایی میکند، این گونه است که نزدیک ترین کلمات کلیدی را نشان می دهد. به علاوه سایت هایی را که بیش از حد از کلمات کلیدی استفاده کردند جریمه میکند.

اگر قصد دارید سایتتان را از نظر سئو بهینه سازی کنید باید از مترادف کلمات کلیدی نیز برای الگوریتم مرغ مگس خوار استفاده کنید. از آنجا که میدانیم گوگل به داشتن محتوای با کیفیت اهمیت می دهد، از این پس سعی کنید با توجه به خواسته های گوگل محتوای خود را بهینه کنید.

بیشتر بخوانید: الگوریتم مرغ مگس خوار گوگل چیست و چگونه جریمه می کند؟




رنک برین (Rank Brain)

الگوریتم رنک برین

Google RankBrain الگوریتم یادگیری ماشینی است که گوگل از آن برای کمک به پردازش و درک سوالات جستجو استفاده می کند. این الگوریتم اولین بار در سال 2015 معرفی شد و از آن زمان به یکی از مهم ترین فاکتورهای رتبه بندی برای جستجوی گوگل تبدیل شده است.

هدف اصلی RankBrain درک بهتر معنای هر عبارت جستجو و سپس ارائه مرتبط ترین نتایج بر اساس آن درک است. این کار را با تجزیه و تحلیل حجم وسیعی از داده ها، از جمله نتایج جستجوی گذشته، رفتار کاربر، و عوامل دیگر انجام می دهد.

RankBrain علاوه بر درک معنای عبارت جستجو، فاکتورهای دیگری مانند اعتبار وب سایت، ارتباط و تعامل کاربر را هنگام تصمیم گیری در مورد اینکه کدام صفحات در نتایج جستجو رتبه بالاتری دارند را نیز در نظر می گیرد.

رنک برین بخش مهمی از الگوریتم جستجوی Google است و به کاربران کمک می‌کند مرتبط‌ترین و مفیدترین نتایج را برای جستجوهای خود دریافت کنند.

بیشتر بخوانید: رنک برین چیست؟




الگوریتم سازگار با موبایل (Mobilegeddon)

الگوریتم سازگار با موبایل

بروزرسانی الگوریتم سازگار با موبایل یا همان Mobilegeddon در 21 آوریل 2015 راه‌اندازی شد. هدف این بروزرسانی، بهبود تجربه سرچ با تلفن همراه برای کاربران با اولویت دادن به وب‌سایت‌هایی بود که در نتایج جستجو سازگار با موبایل هستند.

وب‌سایت‌هایی که برای دستگاه‌های تلفن همراه بهینه نشده بودند، در رتبه‌بندی جستجوی موبایل جریمه شدند، که منجر به کاهش دید و ترافیک آنها از سوی کاربران موبایلی شد. این بروز رسانی تنها بر نتایج جستجوی موبایل تأثیر می گذارد و بر رتبه بندی جستجوی دسکتاپ تأثیری ندارد.

به‌روزرسانی Mobilegeddon تأثیر قابل‌توجهی بر وب‌سایت‌هایی داشت که برای دستگاه‌های تلفن همراه بهینه نشده بودند و بر اهمیت داشتن یک وب‌سایت سازگار با موبایل برای بهبود تجربه کاربر و حفظ دید موتورهای جستجو تأکید کرد.

بیشتر بخوانید: الگوریتم سازگار با موبایل (mobilegeddon)




الگوریتم گوگل فرد (Google’s “Fred” Update)

الگوریتم گوگل فرد Google’s “Fred” Update در مارس سال 2017 به میدان آمد و سبب شد برخی از وب سایت ها تا 90 درصد از حجم ترافیک خود را از دست بدهند. هدف این آپدیت پیدا کردن سایت هایی بود که به تجربه کاربران در سایت خود اهمیتی نمی دادند و اساسا فقط برای تبلیغات ایجاد شده بودند. این سایت ها در استفاده از تکنیک های تبلیغات on-page زیاده روی می کردند و محتوای محدود و نامرتبط  داشتند.

 نام “فرد” به عنوان نامی غیر رسمی برای این الگوریتم برگزیده شد. بر اساس گری ایلیز  ،کارمند گوگل، هر به روز رسانی که گوگل برای آن نامی انتخاب نکرده است “فرد” نامیده خواهد شد. در واقع، زمانی که از “آلگوریتم فرد” سخن می‌گوییم، منظورمان آپدیت بدون نام 7 مارس سال 2017 است.

اگر می خواهید سایتتان قربانی الگوریتم فرد نشود، از لینک های تبلیغاتی بیش از حد استفاده نکنید و محتوای مناسب انتشار دهید. در کل، برای افزایش تجربه کاربری سایت تلاش کنید تا از عذاب این الگوریتم در امان بمانید.




الگوریتم پیشنهاد گوگل (Google Suggest)

Google Suggest یکی از ویژگی‌های موتور جستجوی گوگل است که هنگام تایپ در نوار جستجو، درخواست‌های جستجو را پیشنهاد می‌کند. الگوریتم Google Suggest عوامل مختلفی مانند محبوبیت عبارت جستجو، سایر عبارت‌های جستجوی مرتبط و سابقه جستجوی کاربر را در نظر می‌گیرد تا پیشنهادات مرتبط را ارائه دهد.

این الگوریتم از تکنیک‌های یادگیری ماشین برای تجزیه و تحلیل مقادیر زیادی از داده‌ها در زمان واقعی و ایجاد پیش‌بینی برای آنچه کاربر ممکن است به دنبال آن باشد، استفاده می‌کند. همچنین مکان، زبان و سایر عوامل زمینه ای کاربر را در نظر می گیرد تا پیشنهادات شخصی تری ارائه دهد.

هدف اصلی Google Suggest این است که به کاربران کمک کند آنچه را که به دنبال آن هستند به سرعت و به آسانی با پیشنهاد عبارت‌های جستجوی مرتبط هنگام تایپ پیدا کنند. این ویژگی به بخشی ضروری از تجربه جستجوی گوگل تبدیل شده است و روند جستجو را برای میلیون ها کاربر در سراسر جهان به طور قابل توجهی بهبود بخشیده است.




الگوریتم جستجوی شخصی گوگل (Google Personalized Search Algorithm)

الگوریتم جستجوی شخصی‌شده گوگل ویژگی‌ای است که نتایج جستجو را بر اساس علایق، سابقه جستجو، مکان و سایر داده‌های شخصی کاربر تنظیم می‌کند. از سیگنال‌های مختلفی مانند عبارت‌های جستجوی گذشته، نتایج جستجوی کلیک‌شده، سابقه مرور، فعالیت رسانه‌های اجتماعی و غیره برای درک ترجیحات کاربر و ارائه نتایج جستجوی مرتبط‌تر استفاده می‌کند. این الگوریتم نتایج جستجو را بر اساس تاریخچه جستجوی کاربر و علایق درک شده رتبه بندی می کند که می تواند از فردی به فرد دیگر متفاوت باشد. هدف جستجوی شخصی ارائه نتایج جستجوی دقیق تر و مفیدتر با در نظر گرفتن زمینه و رفتار منحصر به فرد هر کاربر است.




الگوریتم به روز رسانی بوستون (Google Boston Algorithm)

این الگوریتم از نوامبر 2019 به روی کار آمد و در جامعه SEO به “بروز رسانی بوستون” معروف شد. این به روز رسانی به صورت رسمی توسط خود گوگل اعلام نشده بود، اما به طور گسترده توسط کارشناسان سئو مورد مشاهده و تجزیه و تحلیل قرار گرفت.

به‌ روز رسانی بوستون بر بهبود روشی متمرکز بود که Google سؤالات جستجو را درک می‌کند و آنها را با محتوای مرتبط مطابقت می‌دهد. هدف آن تفسیرِ بهتر پرسش‌های مکالمه طولانی‌تر (معروف به کلیدواژه‌های دم بلند) با شناسایی زمینه پشت آن‌ها و شناسایی دقیق‌تر هدف کاربر بود.

در نتیجه به‌روزرسانی بوستون، برخی از وب‌سایت‌ها تغییرات قابل‌توجهی در رتبه‌بندی خود مشاهده کردند، به‌ویژه آن‌هایی که به شدت به هدف‌گیری دقیق کلمه کلیدی متکی بودند یا محتوای با کیفیت پایینی داشتند. با این حال، محتوای باکیفیت که به طور مؤثر به سؤالات کاربران پاسخ می داد و تجربه کاربری خوبی را ارائه می کرد، عموماً از این به روز رسانی بهره برد.




الگوریتم برت (Bert Algorithm)

BERT (Bidirectional Encoder Representations from Transformers)

این آپدیت تکنیک مبتنی بر شبکه برای پردازش زبان عامیانه است که برای درک بهتر بافت و معنای کلمات در یک جمله طراحی شده است.

چیزی که BERT را منحصر به فرد می کند، توانایی آن در درک نه تنها تک تک کلمات در یک جمله، بلکه نحوه ارتباط آن کلمات با یکدیگر است. این الگوریتم به گوگل اجازه می‌دهد ساختارهای پیچیده زبان را بهتر درک کند و نتایج دقیق‌تری در کارهایی مانند طبقه‌بندی متن، تشخیص موجودیت، پاسخ‌گویی به سؤال و موارد دیگر تولید کند.

BERT با استفاده از روش یادگیری خود نظارتی بر روی حجم وسیعی از داده های متنی آموزش دیده است، به این معنی که یاد می گیرد کلمات گم شده را در جملات پیش بینی کند بدون اینکه پاسخ صحیح به او گفته شود.همچنین کمک می کند تا الگوهای اساسی و روابط بین کلمات و عبارات را در متن زبان عامیانه بیاموزد.

بیشتر بخوانید: الگوریتم برت (BERT) | معرفی باهوش ترین الگوریتم گوگل




الگوریتم پیج لایوت (Page layout Algorithm)

تبلیفات

الگوریتم صفحه آرایی، الگوریتمی نرم افزاری است که قرارگیری عناصر را در یک صفحه مانند متن، تصاویر و سایر عناصر گرافیکی تعیین می کند. این الگوریتم‌ها در نرم‌افزارهای نشر رومیزی، نرم‌افزارهای طراحی وب و سایر برنامه‌هایی که شامل ایجاد یا طراحی اسناد چاپی یا دیجیتالی می‌شوند، استفاده می‌شوند.

الگوریتم‌های صفحه‌ آرایی معمولاً عواملی مانند اندازه، شکل و عناصری که قرار است در صفحه قرار گیرند، فضای موجود در صفحه، و هر قانون یا دستورالعملی که بر قرار دادن عناصر حاکم است را در نظر می‌گیرد. آنها همچنین ممکن است سایت های که تبلیغات بیش از حد قبول کرده اند را هم جریمه کند.




الگوریتم Intrusive Interstitial Penalty

 الگوریتم Intrusive Interstitial Penalty با هدف بهبود تجربه کاربران در ژانویه سال 2017 معرفی شد. این الگوریتم گریبان گیر سایت هایی می شود که دسترسی به سایت را برای کاربر دشوار می سازند. معمولا این سایت ها به محض ورود یک پنجره برای کاربر باز می کنند و او را مجبور به زدن ضربدر می کنند.

الگوریتم Intrusive Interstitial Penalty همچنین با سایت ‌هایی که محتوا را پشت کاور مخفی می کنند، به زیبایی سایت اهمیتی نمی دهند و از رنگ، اندازه و فونت های نامناسب استفاده می کنند مشکل دارد.

اگر می خواهید سایت شما رتبه خوبی در نتایج گوگل داشته باشد و ربات های گوگل از سایت شما راضی باشند، دسترسی کاربر به محتوا را آسان کرده و از گذاشتن پاپ آپ خودداری کنید.




آپدیت کبوتر گوگل (Google Pigeon Update)

الگوریتم کبوتر

در جولای 2014 گوگل، الگوریتم محلی بسیار مهمی را منتشر کرد. اسم آن را الگوریتم کبوتر گذاشت، چرا که کبوتران معمولا به خانه بازمیگردند. این الگوریتم محلی، یک نیاز بسیار اساسی کاربران را برطرف می کند.

اگر شما عباراتی مانند “دندانپزشکی نزدیک من” و یا “رستوران خوب در ولیعصر” را در گوگل سرچ می کنید، در واقع از الگوریتم کبوتر استفاده کرده اید. این آپدیت، بر اساس موقعیت مکانی کاربر جست وجو را انجام می دهد و سعی می کند مرتبط ترین و بهترین نتایج را بر اساس موقعیت مکانی  یا همان لوکیشن به شما نشان دهد.




الگوریتم موش کور (Possum Algorithm)

الگوریتم Possum و یا همان موش کور در سپتامبر سال 2016 معرفی شد. این آپدیت مانند الگوریتم کبوتر، آپدیتی محلی است و هدف آن بهینه سازی سرچ های محلی و جلوگیری از بالا آمدن سایت های اسپم می باشد. اگر کسب و کار محلی دارید، پیشنهاد می کنم با نحوه کار این الگوریتم آشنایی کامل داشته باشید.

برای اینکه با یکی از کاربردهای الگوریتم موش کور آشنا بشوید، تصور کنید عبارتی مثل “کافه در معالی آباد” را سرچ کرده اید. در گذشته کافه ای که خارج از محدود معالی آباد قرار داشت در نتایج سرچ گوگل نمی آمد. اما با این آپدیت، کسب و کارهایی که خارج از محدوده نیز هستند، در نتایج حضور دارند.

برای اینکه توسط الگوریتم موش کور فیلتر نشوید، اطلاعات سایت شما نباید تکراری و یا نامرتبط باشند. الگوریتم موش کور، به نظرات کاربران نیز بسیار اهمیت می دهد. هر چه تعداد نظرات کاربران بیشتر باشد و کاربران در این نظرات از کلمات کلیدی استفاه کرده باشند رتبه بالاتری در نتایج گوگل خواهید داشت.

بیشتر بخوانید: الگوریتم موش کور (possum) چیست؟ | تاثیر الگوریتم موش کور بر سئو محلی




الگوریتم دزد دریایی (Google Pirate)

در همه زمینه ها از فیلم گرفته تا موسیقی و اثرات ادبی، کپی کردن کاری خلاف قانون و اخلاقیات بشری محسوب می شود و مجازات هایی دارد. گوگل هم از کپی خوشش نمی آید و به همین دلیل سایت هایی که مطالب اورجینال ندارند را مجازات می کند. گوگل برای گیر انداختن سایت های دزد در سال 2012 الگوریتم دزد دریایی را معرفی کرد.

الگوریتم دزد دریایی تقریبا شبیه الگوریتم پاندا و پنگوئن است و با هر نوع محتوای کپی شده مانند متن، تصویر، ویدیو، پادکست و یا حتی محصول مشکل دارد. این الگوریتم هنگامی که محتوای کپی شده را شناسایی کند، URL را حذف می کند. اما اگر تشخیص دهد بیشتر از 50 درصد مطالب سایت کپی شده هستند، مجازات سنگین تری را اعمال می کند.

بیشتر بخوانید: الگوریتم دزد دریایی (Google pirate) + چگونه به محتوای دزدیده شده اعتراض کنیم؟




الگوریتم گراف دانش گوگل (Google Knowledge Graph)

الگوریتم گراف دانش در ماه می سال 2012 توسط گوگل معرفی شد. هدف این آپدیت دسترسی سریع تر و آسان تر کاربران به اطلاعات مورد نظر است. هنگامی که اطلاعاتی درباره موضوعات مختلف از قبیل سلبریتی ها، شهرها، کشورها، فیلم ها و سریال ها را سرچ می کنید، این اطلاعات در قالب یک پنل در سمت راست صفحه نتایج ظاهر می شود. گوگل ادعا می کند این گراف توانایی درک موجودات دنیای واقعی و روابط میان آن ها را دارد و می تواند جهان را تا حدودی مانند یک انسان واقعی درک کند. زمانی که این آپدیت کار خود را آغاز کرد بیشتر از 500 میلیون مفهوم را درک می کرد و بیش از 3.5 بیلیون فکت در مورد روابط میان آن ها می دانست.




آپدیت گوگل کافئین (Google Caffeine)

گوگل کافئین

آپدیت گوگل کافئین در سال 2009 معرفی و در سال 2010 وارد الگوریتم گوگل شد. این الگوریتم، سیستم جدیدی برای ایندکس کردن صفحات وب معرفی کرد و به کاربران اجازه داد اطلاعات جدیدتری را نسبت به قبل بیابند. قبل از گوگل کافئین، ربات های خزنده مراحل بسیار زیادی را برای ایندکس کردن صفحات سایت طی می کردند و این پروسه زمان زیادی می برد. اما با استفاده از این آپدیت صفحات وب در زمان بسیار کمتری ایندکس می شوند. از این طریق گوگل به کاربران اجازه می دهد همیشه به اطلاعات جدید دسترسی داشته باشند. کافئین تاثیری بر روی فاکتور های سئو ندارد، تنها سبب ایندکس بهتر و سریع تر آن ها می شود. بنابراین ابزاری بسیار قدرتمند برای دیده شدن وب سایت شما است.

بیشتر بخوانید: الگوریتم کافئین | عامل ایندکس شدن سریع صفحات




الگوریتم EMD

EMD مخفف “Exact Match Domain” است، یعنی دامنه‌ی دقیقا منطبق. قبل از اینکه این آپدیت معرفی شود، سایت هایی که دامنه‌شان کاملا منطبق بر کلمه کلیدی مورد نظر بود در نتایج گوگل یک سر و گردن بالاتر بودند، اما پس از معرفی این آپدیت دیگر برتری نسبت به سایر سایت ها نداشتند. هدف از طراحی الگوریتم EMD شناسایی سایت هایی بود که محتوای بی کیفیت تولید می کردند. اگر سایتی دامنه منطبق بر کلیدواژه داشته باشد، اما محتوای آن به درد کاربر نخورد، به لطف الگوریتم ای ام دی رتبه‌اش افت خواهد کرد.




الگوریتم ونیز Venice

اگر به یاد داشته باشید در گذشته که کلمه ای را در گوگل سرچ می کردیم، با نتایج نامرتبط مواجه می شدیم. رفته رفته گوگل آپدیت های جدیدی را معرفی کرد و نتایجِ پیشنهادی بسیار کاربردی و مرتبط شد، انگار که می تواند ذهن ما را بخواند. یکی از این آپدیت ها، الگوریتم محلی ونیز است که موقعیت مکانی کاربران را شناسایی می کند و مواردی مثل شماره تماس، موقعیت جغرافیایی و نقشه را پیشنهاد می دهد تا نزدیک ترین و مرتبط ترین لوکیشنی را که می خواهیم پیدا کنیم.




الگوریتم جستجو جهانی

شاید برایتان عجیب باشد، اما در گذشته صفحه نتایج گوگل بخش های مختلف را از هم جدا نمی کرد. با ایجاد این آپدیت در سال 2007، گوگل نتایج مختلف مانند عکس ها، فیلم ها و کتاب ها را از هم جدا کرد تا بتوانیم راحت تر آن ها را پیدا کنیم.

گوگل الگوریتم جستجوی جهانی خود را این گونه توصیف می کند:

“جستجوی جهانی توانایی جستجوی تمام محتوای یک سازمان از طریق یک جعبه جستجوی واحد است. اگرچه منابع محتوا ممکن است در مکان های مختلفی مانند شبکه شرکتی، روی دسکتاپ، یا در شبکه جهانی وب قرار داشته باشند، اما در یک صفحه نمایش داده می شوند. مجموعه منفرد و یکپارچه از نتایج جستجو.”




الگوریتم سئو کلاه سیاه

سئو کلاه سیاه

برخی از وب سایت ها با استفاده از تکنیک ها و ترفندها می خواهند ربات های گوگل را فریب دهند تا در سرچ گوگل جایگاه بالاتری داشته باشند. گوگل با آگاهی از این قضیه کلیه کلمات کلیدی سایت شما را حذف می کند و یا رتبه شما را به شدت کاهش می دهد.

هدف گوگل محبوب ماندن میان کاربران و ارائه بهترین نتایج ممکن به آن ها است. به همین منظور، از الگوریتم های گوناگونی استفاده می کند تا سایت های متقلب را گیر بیندازد و آن‌ها را از صفحه سرچ خود حذف نماید.

سایت‎‌ هایی که توسط این الگوریتم شناخته می شوند معمولا کارهای زیر را انجام می دهند:

  • از کلمات کلیدی بیش از حد استفاده می کنند
  • برخی از اطلاعات را از دید کاربران مخفی می نمایند
  • بازید کنندگان را به صفحات نامربوطه هدایت می کنند
  • با هدف ارتقای غیر اصولی شبکه خصوصی لینک سازی و یا همان پی بی ان تشکیل می دهند
  • محتوای خود را از سایت های دیگر کپی می کنند

این سایت ها دیر یا زود توسط ربات های گوگل شناسایی می شوند و متوقف یا جریمه خواهند شد.

بیشتر بخوانید: سئو کلاه سیاه چیست؟ + خطرناک ترین تکنیک های سئو کلاه سیاه




الگوریتم PayDay Loan

گوگل با استفاده از این الگوریتم سایت های اسپم را شناسایی می کند و رتبه آن ها در صفحه نتایج کاهش می دهد. سایت های اسپم، سایت هایی هستند که بدون اجازه برای کاربران خود تبلیغات و یا اطلاع رسانی ارسال می کنند.

در سال 2013 سایت های اسپم بخش اعظمی از نتایج گوگل را در بر گرفته بودند. بنابراین گوگل با ارائه این آپدیت صفحات اسپم را از حذف کرد تا کاربران در نتایج جستوجوی خود با این سایت ها مواجه نشوند.




الگوریتم Mobile First Index

الگوریتم موبایل

در ابتدا فقط می شد سایت ها را از طریق کامپیوتر مشاهده کرد، به همین دلیل سایت ها به گونه ای طراحی شده بودند که در دستکتاپ نمایان شوند. با گذشت زمان، موبایل وارد زندگی روزمره انسان ها شد و کاربران بیشتر تمایل داشتند از موبایل های خود برای جستجوی گوگل و مشاهده صفحات وب استفاده کنند.

 چالشی که این تغییر با خود به همراه داشت، بهینه نبودن وب سایت ها برای مشاهده در موبایل بود. گوگل برای حل این مشکل آپدیتی ارائه داد که بر رضایت کاربران موبایلی تمرکز داشت. پیش از معرفی این الگوریتم نسخه دسکتاپ صفحات مبنای رتبه بندی سایت ها بودند، اما اکنون گوگل نسخه موبایل را در اولویت قرار می دهد.




الگوریتم E-A-T

الگوریتم E-A-T برای نظارت بر محتوای منتشر شده در وب سایت ها ساخته شده است. گوگل اعتقاد دارد نویسنده محتوا در صفحات وب باید متخصص زمینه ای باشد که در مورد آن می نویسد. به عنوان مثال، مقاله ای در مورد موانع مصرف قرص استامینوفن باید توسط شخصی نوشته شود که در زمینه پزشکی تخصص دارد، مثلا دکتر یا پرستار باشد.

این الگوریتم  بر اساس فاکتورهای خاص خود تشخیص می دهد که شخص تخصص کافی دارد یا خیر. بنابراین محتوایی که برای سایت خود تولید می کنید باید توسط شخص متخصص نوشته شود تا در گوگل رتبه بهتری بگیرد.

بیشتر بخوانید: الگوریتم E-A-T | دستورالعمل رتبه بندی گوگل




گوگل دنس Google Dance

گوگل دنس

 هر سایتی که با جهش ناگهانی در رتبه بندی گوگل مواجه می شود، باید ممنون الگوریتم گوگل دنس یا همان رقص گوگل باشد. گوگل با این کار قصد دارد میزان رضایت کاربران از سایت شما را بسنجد. به نظر ربات های گوگل محتوای شما قابل قبول است اما نمی داند که کاربران چه میزان از آن رضایت دارند.

این الگوریتم از فاکتورهایی برای سنجش میزان رضایت کاربر از محتوای شما استفاده می کنند. این فاکتورها شامل موارد زیر می شوند:

  • سن دامنه – دامنه های نو پا معمولا تغییرات بیشتری را در رتبه بندی تجربه می کنند.
  • میزان رقابت کلیدواژه – هر چه میزان رقابت برای کلید واژه بیشتر باشد، رتبه بندی دچار تغییرات بیشتری می شوند.
  • لینک سازی – اگر در زمانی کوتاه بتوانید بک لینک های زیادی دریافت کنید، این موضوع نیز سبب تغییرات شدید رتبه سایت شما می شود.
  • به روز رسانی محتوا – هنگامی که محتوا خود را به روز رسانی می کنید، لینک های داخلی خود را سروسامان می‌دهید و دائما محتوا منتشر می کنید، رتبه سایت شما تغییر خواهد کرد. توجه داشته باشید که اگر مقالات منتشر شده ارتباط کمی با موضوع سایت شما داشته باشند، ممکن است رتبه سایتتان پایین بیاید.

بیشتر بخوانید: الگوریتم دنس (Google Dance) | علت افت ناگهانی رتبه سایت




الگوریتم مدیک Medic update

این آپدیت بیشتر سایت های پزشکی را تحت تاثیر قرار می دهد. الگوریتم مدیک متخصصان را شناسایی و تایید می کند تا از صحت و اعتبار محتوای نتایج گوگل اطمینان حاصل نماید. 

این الگوریتم تاثیر فراوان روی سایت های سلامت، پزشکی، خدمات مالی و حقوقی دارد. اگر می خواهید سایت شما از الگوریتم مدیک در امان بماند مراقب این موارد باشید:

  • کیفیت محتوای خود را حفظ کنید و برای نوشتن محتوا از متخصص همان زمینه استفاده کنید.
  • اگر سایت شما محصولاتی که ممکن است سلامت افراد را به خطر بیندازد میفروشد مثلا دارو، از کیفیت محتوای خود در مورد آن محصول اطمینان حاصل کنید.
  • وب سایت را بروز رسانی کنید. در این صورت، گوگل همیشه اطلاعات جدیدی برای ارائه به کاربران دارد.

بیشتر بخوانید: الگوریتم مدیک گوگل (Google Medic Algorithm)




الگوریتم هیلتاپ Hilltop Algorithm

الگوریتم هیلتاپ صفحات تخصصی را شناسایی می کند و در نتیجه به گوگل در رتبه بندی کمک می کند. هر صفحه به موضوع خاصی نسبت داده شده است و آن ها به صفحات خارجی زیادی لینک داده اند. الگوریتم هیلتاپ با استفاده از الگوریتم های لینک دهی، ارزش صفحه ها را مشخص می کند. هیلتاپ در رتبه بندی سایت شما می تواند تاثیر زیادی بگذارد و براساس فاکتورهای مشخصی رتبه سایت شما را تحت تاثیر قرار می دهد.

اگر سایت شما از سایتی که موضوعی مرتبط دارد، لینک بگیرد یا سایت های معتبری از لینک شما در محتوای خود استفاده کنند، الگوریتم هیلتاپ آن را شناسایی کرده و رتبه سایت شما را افزایش می دهد.

بیشتر بخوانید: الگوریتم هیلتاپ چیست؟ Hilltop چگونه بر سئو تاثیر میگذارد؟




الگوریتم Page Authority

Page Authority معیاری است که در بهینه سازی موتورهای جستجو برای تخمین قدرت بالقوه رتبه بندی یک صفحه وب استفاده می شود. این الگوریتم توسط Moz، شرکت نرم افزار سئو، توسعه یافته است. اعتبار صفحه در مقیاس لگاریتمی از 0 تا 100 نمره گذاری می شود. امتیازات بالاتر نشان دهنده احتمال بیشتری برای رتبه بندی خوب در نتایج موتورهای جستجو است.

Moz اعتبار صفحه را با در نظر گرفتن عوامل مختلفی مانند تعداد لینک ها، کیفیت، MozRank، MozTrust، سیگنال های اجتماعی و سایر نقاط داده محاسبه می کند. اساساً، ارزش کلی و ارتباط یک صفحه وب را بر اساس نمایه بک لینک آن و سایر عوامل اندازه گیری می کند. هر چه وب‌سایت‌های باکیفیت و معتبرتر به یک صفحه خاص پیوند داشته باشند، اعتبار صفحه آن بالاتر است.

بیشتر بخوانید: الگوریتم پیج آتوریتی (Page Authority) در سئو سایت چه تاثیری دارد؟




الگوریتم MUM

شرکت گوگل در 2021 الگوریتم جدیدی را رونمایی کرد، آپدیتی که قبل از رونمایی گفته شده می تواند آینده سئو را تغییر دهد. MUM مخفف عبارت Multitask Unified Model به معنای مدل یکپارچه چند کاره است. الگوریتم MUM جهت تکمیل الگوریتم برت در 2019 به وجود آمد. قبل از اجراسازی الگوریتم MUM گوگل اعلام کرد قدرت این الگوریتم هزار برابر بیشتر از الگوریتم برت می باشد.

همانطور که از اسم این الگوریتم مشخص است توانایی انجام چند وظیفه به طور همزمان را دارد. در این الگوریتم گوگل تمامی دیتا و اطلاعاتی که در سراسر دنیا دارد را جمع آوری می کند. سپس بر اساس نیاز کاربر لوکیشن و زبان کاربر را ترجمه می کند. این الگوریتم سعی میکند تخصصی ترین متن ها در سراسر جهان را برای شما پیدا کند و در اختیارتان قرار دهد. در صورتی که متن مورد نظر زبانی متفاوت از زبان کاربرد را داشته باشد، ابتدا ترجمه می شود و سپس در اختیار کاربر قرار می گیرد. در این الگوریتم اهمیتی ندارد شما به چه زبانی عبارتی را جستجو کرده اید، الگوریتم MUM تخصصی ترین متن را به کاربر ارائه می دهد.

بیشتر بخوانید: الگوریتم mum گوگل چیست؟ | روش کار الگوریتم مام




الگوریتم Freshness

تازگی

همانطور که کاربران محتوای تازه و بروز را میپسندند، گوگل نیز محتوای تازه را در اولویت قرار می دهد. اگر علاقمند به خواندان اخبار در اینترنت باشید یا دوست دارید همیشه محتوای جدید و تازه بخوانید، این الگوریتم برای رضایت شما طراحی شده است. گوگل برای جلب رضایت کاربران در تاریخ 2011 نوامبر از الگوریتم freshness رونمایی کرد تا به تولیدکنندگان اهمیت محتوا تازه و بروز را یادآوری کند.

احتمالا همه ما یک بار هم که شده نتایج لحظه ای بازی های فوتبال را در گوگل سرچ کرده ایم. این نوع جستجوها به عنوان جستجوهای QDF شناخته می شود. هر چقدر میزان جستجوی عبارات در رابطه با یک موضوع بیشتر باشد، اهمیت تازگی محتوای تولید شده نیز برای آن موضوع بیشتر است.

همانطور که برای تمامی الگوریتم ها قوانین و امتیازدهی هایی وجود دارد برای الگوریتم freshness نیز قوانین و راه حل هایی وجود دارد. برای این که گوگل متوجه شود در سایت شما محتوای تازه ایی موجود است مدت زمانی که کاربران در سایت شما می مانند باید بیشتر و بیشتر شود.

بیشتر بخوانید: الگوریتم Freshness چیست و بر چه سایت های تاثیر میگذارد؟




الگوریتم Sandbox

الگوریتم سند باکس

الگوریتم سند باکس روانشناسی گوگل از مدیر سایت است و مخصوص سایت های نوپا می باشد. برای اینکه بهتر با این الگو آشنا شوید تصور کنید به دلیل جا به جایی در مدرسه ای جدید ثبت نام کرده اید. آیا در آن مدرسه اعتبار دارید؟ مسلما نه، زیرا هیچکس شما را نمی شناسد. باید با رفتار و برخوردِ مناسب اعتماد و اعتبار برای خودتان بخرید. گوگل سند باکس وظیفه زیر نظر داشتن سایت های نوپا را برعهده دارد. روزانه بیش از 380 وب سایت کار خود را در فضای وب آغاز می کنند، بنابراین باید مورد بررسی قرار بگیرند.

طبیعتا نباید انتظار داشته باشید بعد از راه اندازی وب سایتتان در صفحه اول نمایش نشان داده شوید. هدف الگوریتم سندباکس مقایسه کردن سایت های نوپا و اولویت دادن به آنهاست.

لینک ها، صفحات، مقالات، کاربرانی که از سایت شما بازدید می کنند، سرعت بارگذازی، صفحات نمایش در موبایل و تمامی اطلاعات شما را مورد بررسی قرار می دهد و در مجموع میزان رضایت کاربر را متوجه می شود. مدت زمانی که سایت شما در سندباکس بماند به طور دقیق مشخص نیست و به میزان درست عمل کردن شما بستگی دارد.

بیشتر بخوانید: سندباکس گوگل چیست؟ راه های خروج از Sandbox




الگوریتم ماه عسل (Honeymoon algorithm)

شروع کار الگوریتم ماه عسل به سال 2004 برمی گردد. اگر به تازگی وب سایت خود را راه اندازی کرده اید، ممکن است متوجه شده باشید که به طرز شگفت انگیزی در صفحه اول نتایج (SERP) قرار دارید. این بخشی از سیاست های گوگل است.

با کمک الگوریتم ماه عسل سایت نوپای شما برای مدتی در صفحه اول نتایج قرار میگیرد. اما سپس به رتبه استاندار خودش بازمیگردد. در این بازه ی زمانی، گوگل اطلاعات مورد نیاز در مورد سایت شما را جمع آوری میکند. اگر نرخ پرش زیاد باشد نشان می دهد که کاربران محتوای شما را دوست ندارند، بنابراین رتبه شما کاهش پیدا خواهد کرد.

بیشتر بخوانید: الگوریتم ماه عسل (honeymoon) گوگل چگونه کار میکند؟




الگوریتم فانتوم گوگل Google Phantom

در ماه می 2015، بسیاری از کارشناسان سئو در سراسر جهان تغییرات قابل توجهی را در نتایج جستجو گزارش کردند. چندین وب سایت بیش از نیمی از بازدید خود را از دست دادند. انواع مختلف وب سایت ها تحت تأثیر قرار گرفتند؛ از سایت های تجارت الکترونیک گرفته تا وب سایت های خبری.

این ظن وجود داشت که گوگل ورژن جدیدی از الگوریتم پاندا یا پنگوئن را ارائه کرده است. در ژوئن 2015 گوگل تأیید کرد که تنظیماتی در الگوریتم انجام شده که عمدتاً به ارزیابی کیفیت وب سایت مربوط می شود.

در مجموع، پنج به‌روزرسانی Google Phantom از ماه می 2013 عرضه شده است.

به روز رسانی های معروف به “فانتوم” عمدتاً برای بهبود کیفیت وب سایت ها و در نتیجه کیفیت نتایج جستجو انجام شده است. الگوریتم اصلی یا همان هسته توسط گوگل بارها و بارها برای این منظور تنظیم می شود. گوگل اعلام نکرده است که کدام عناصر وب سایت در این آپدیت ها تحت تأثیر قرار میگیرند.




الگوریتم محتوای مفید Helpful Content

این الگوریتم یکی از جدیدترین آپدیت های گوگل محسوب می شود و در آینده ی نزدیک کار خود را برای بهینه کردن جستجوی کاربران آغاز می کند. سایت هایی که تنها به دلیل گرفتن رتبه خوب تولید محتوا می کنند هدف این آپدیت هستند. متخصصان تولید محتوا باید توجه ویژه ای به این الگوریتم داشته باشند. گوگل معتقد است هدف تولید محتوا باید اطلاع رسانی به کاربر باشد بنابراین اگر از آن دسته افرادی هستید که تولید محتوا را تنها ابزاری برای گرفتن رتبه در گوگل می دانید، زمان آن رسیده در تفکرات خود تجدید نظر کنید. محتوای سایت شما باید برای انسان ها تولید شوند نه برای رضایت موتور جستوجو، بنابراین سعی کنید به منظور افزایش تجربه کاربر در سایت خود تلاش کنید تا گوگل نیز رتبه بالایی به سایت شما دهد.

بیشتر بخوانید: تغییرات الگوریتم گوگل در سپتامبر 2023 | با آپدیت Helpful Content آشنا شوید




نتیجه

با توجه به مفاهیمی که گفته شد و یادگیری که از الگوریتم های گوگل داشتیم باید متوجه شده باشیم که چقدر تولید محتوای درست برای پیشرفت سایت شما مفید است. از نظر کلمات کلیدی، لینکدهی، تولید محتوا و … باید از تمامی حواستان استفاده کنید اگر قصد پیشرفت در کسب و کار دارید.

در این مقاله با الگوریتم های گوگل آشنا شدید. ممنون که تا انتهای این مقاله همراه ما بودید اگر در مورد این الگوریتم ها سوال و یا نظری داشتید در بخش نظرات زیر همین پست از کارشناسان و تیم پشتیبانی ما سوال بپرسید و در کوتاه‌ترین زمان ممکن جواب بگیرید.

16 پاسخ

  1. بسیار عالی و مفید بود مرسی از زحمتی ک کشیدین 😘

  2. بسیار مفید و ارزش مند بود مرسی که زحمت فراوان کشیده اید ❤️❤️

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *