لیست کامل الگوریتم های گوگل

نوشته شده توسط آرش محمد اصفهانی
آدرس کوتاه: https://darkoob.co.ir/?p=3038

حتی اگر اطلاعات کمی از دنیای دیجیتال مارکتینگ داشته و دانش مختصری در مورد سئو و بهینه سازی وب سایت داشته باشید، حتما می دانید که همه هر روز در تلاش هستند تا رتبه وب سایت خود را در میان سایر وب سایت هایی که اصطلاحا در گوگل ایندکس شده اند بهبود ببخشند. بهبود در این بخش به معنای نمایش سریع تر و حضور در صفحات بالایی موتور جستجوی قدرتمند گوگل است.

اما شاید سوال این وجود داشته باشد که گوگل چطور و به چه روش هایی ارزش یک وب سایت را برای نمایش دادن در صفحات اول خودش ارزیابی و رتبه بندی می کند. به طور خلاصه اگر بخواهیم بگوییم، بخش اصلی و امتیاز آور در این رقابت، رعایت قوانین و نکاتی است که خود گوگل به صورت مقطعی در الگوریتم هایش تعریف می کند.

به منظور اینکه با الگوریتم های گوگل و اینکه کلا چه بوده و چه حدفی را از معرفی کردن آنها دنبال می کند آشنا شویم، ابتدا از تعریف واژه الگوریتم شروع می کنیم.

الگوریتم چیست ؟

ساده ترین راه برای درک مفهوم الگوریتم این است که آن را به فهرستی از یک دستور العمل ها برای درست انجام دادن کاری تشبیه کنیم.

الگوریتم فهرستی کامل از دستور العمل هایی می باشد که ما را در حل مشکلات و کارهای بزرگی که پیش رو داریم کمک می کند. الگوریتم ها در تمامی بخش های زندگی ما حضور دارند و از ساده ترین کارها مثل آشپزی کردن کردن از روی کتاب آشپزی گرفته تا تعمیر یک دستگاه الکترونیکی یا خودرو، همواره یک دستورالعملی وجود دارد که نحوه انجام درست کار را به ما آموزش می دهد.

اما در دنیای مجازی و برنامه نویسی، الگوریتم حضور پر رنگ تری داشته و به منظور پیشبرد برنامه ها و ساخت محصولات کامپیوتری به آنها نیاز داریم. از برنامه نویسی در زبان های مختلف از جمله زبان پایتون گرفته تا برنامه نویسی های فوق پیشرفته که با چندین زبان و تکنولوژی مختلف اجرا می شوند، همگی براساس الگوریتم های مشخص و از پیش تعیین شده انجام پذیر هستند.

در حقیقت الگوریتم به مانند یک روش حل مسئله است که یک مسئله بزرگ را به چندین قسمت کوچک تر تقسیم بندی کرده و با تقسیم کار و مشکلات مختلف به بخش های کوچک، حل کردن آن را برای ساده تر می کند.

در دنیای امروز و شبکه اینترنت هم با توجه به حجم بالای پیچیدگی ها و نیاز به یک دستورالعمل یکپارچه برای رسیدن به هدف ها و انجام صحیح کارها، به الگوریتم ها نیازمند هستیم. الگوریتم ها را می توان در تمامی بخش های اینترنت به وفور دید. از الگوریتم های اعلام شده برای انجام خرید و فروش سهام در تالار بورس گرفته تا الگوریتم هایی که در خودروهای برقی تسلا وجود دارند. در واقع رفته رفته با هوشمندتر شدن ابزارها و وسایل های دور و اطرافمان، بیشتر از قبل به الگوریتم ها و روش راه و اندازی و استفاده از وسایل وابسته به هوش مصنوعی نیاز بیشتری پیدا می کنیم.

الگوریتم های گوگل چه هستند ؟

همین حالا کلمه یا جمله ای که بیشتر از سایر موارد ذهنتان را درگیر کرده است را در گوگل جستجو کنید. حتما می دانید که گوگل با اینکار احتمالا چند صد یا حتی هزاران وب سایت و نتیجه مرتبط به واژه یا جمله جستجو شده تان را به شما نشان دهد. اما هیچ فکر کرده اید که گوگل روی چه حساب و ترتیبی این وب سایت ها را به نوبت میزان مرتبط بودن به شما نشان می دهد. اینجاست که صحبت نیاز ما و گوگل به الگوریتم به میان آورده می شود.

در واقع گوگل برحسب الگوریتم ها و فهرست دستورالعمل هایی که خودش تعیین کرده دست به چنین کاری می زند. پس الگوریتم های گوگل با روش های منحصر به فردی، هر بار نتایج جستجوی شما را نمایش می دهند. اما قسمت مرموز و جذاب این الگوریتم ها، عدم معرفی شدن یا اصطلاحا رسانه ای شدن جزییات دقیق آنها از سوی گوگل است.

شرکت گوگل هیچ موقع مشخصات این الگوریتم ها را منتشر نمی کند و احتمالا اینجا از خودتان می پرسید پس چطور در مورد چیزی که وجود ندارد باید اطلاعات داشته باشیم؟

با وجود عدم انتشار جزییات الگوریتم های گوگل، کارشناسان مختلفی هستند که از طریق تحلیل تازه ترین بیانیه های این شرکت و تحقیقات بی شماری که بر روی تغییرات رفتار موتور جستجوی انجام می دهند، به مجموعه قوانینی که به احتمال زیاد به الگوریتم های معرفی نشده گوگل نزدیک هستند دست یافته و آن را در اختیار دیجیتال مارکترها و افراد فعال در این زمینه قرار می دهند.

الگوریتم های گوگل چه میزان در نتایج جستجوی ما تاثیر دارد ؟

گوگل با در اختیار داشتن یک سهم حداقل 80 درصدی از جستجوی های جهانی، در صدر لیست موتورهای جستجوی پرطرفدار مردم دنیا قرار دارد و در تسلط بی چون و چرای او شکی نیست. این مسئولیت سنگین، چنین شرکتی بزرگی را به ساخت و استفاده از الگوریتم های منحصر به فردی مجبور کرده و هر کدامشان، در نمایش جستجوها اثر گذاری مستقیم و غیر مستقیم دارند.

گوگل متوجه است که صحت اطلاعاتی که به عنوان نتیجه به کاربرها نشان می دهد، در نگرش کاربر به او اهمیت بالایی داشته و می داند که کاربر از او انتظار دارد که درست ترین و مفید ترین نتایج را نمایش دهد. برای همین است که تا سوالی را از کسی که جوابش را نمی داند می پرسیم، احتمالا به شما می گوید که “گوگل کن” یا “یک سرچی در گوگل بزن!”

شرکت گوگل به صورت مرتب مشغول بروزرسانی و بهینه سازی الگوریتم هایی است که دستپخت خودش بوده. این بروزرسانی ها شامل بهینه سازی و اضافه کردن امکانات تازه تری هستند که به نفع کاربرانی باشد که با گوشی هوشند، تبلت و یا کامپیوترهای رومیزی به سراغ جستجو کردن می روند. یکی از دلایل اصلی محبوبیت بالای گوگل در این زمینه، تلاش فراوان این شرکت در زمینه بهینه سازی موتور جستجوی خود و نمایش جذاب ترین و بهترین پاسخ ها به کاربرانش است.

الگوریتم های گوگل به عنوان دستورالعمل های فوق پیچیده، به بهترین شکل به بازاریابی داده ها پرداخته و در کسری از ثانیه بهترین نتایج را به کاربر نشان می دهند. اگر قصد داشته باشید که در این میان رتبه بهتری از دیگران پیدا کنید، باید اطلاعات عمومی خود را از الگوریتم هایی که از میان صحبت های گوگل رمز گشایی شده اند بالا ببرید.

اگر به الگوریتم های بدست آمده توجه نکرده و اصطلاحا به چهارچوب هایی که باید رعایت شوند پایبند نباشید، از سوی گوگل جریمه شده یا اصطلاحا پنالتی می خورید. این جریمه شدن برای متخصصان سئو می تواند گران تمام شده و به کاهش رتبه سایت و یا رفتن به صفحات پایین تر جستجوها متجر شود. شرکت طراحی وب سایت دارکوب با در اختیار داشتن تیمی از مجرب ترین کارشناسان در جهت طراحی وب سایت، بهینه سازی سایت و سئو وب سایت، رتبه شما را در زمینه بازاریابی اینترنت به بهترین شکل ممکن ارتقا خواهد بخشید.

نکته بسیار مهمی که متخصصان دیجیتال مارکتیگ و افرادی که وظیفه نگهداری از وب سایت ها را بر عهده دارند باید بدانند، این است که کلمات کلیدی عنصر اصلی و مهم ترین بخش از اثر گذاری الگوریتم های گوگل هستند. موتور جستجوی گوگل در اصل ابتدا به دنبال کلمات کلیدی صفحات می رود. استفاده از کلمات کلیدی در عنوان صفحه، استفاده از آنها در هدینگ ها و همینطور پراکندگی کلمات کلیدی در بخش های مختلف محتوا، نکاتی هستند که گوگل مایل است شما حتما رعایت کرده باشید.

البته نباید فراموش کرد که نزدیک به 10 سال است که از زمان ترفند پر کردن صفحه با کلمات کلیدی گذشته و اجرای این ترفند، چیزی جز امتیاز نفی برای وب سایت شما نخواهد داشت.

آغاز استفاده گوگل از الگوریتم های دست ساز خود

گوگل از سال 2003 به فکر طراحی الگوریتم ها و دستورالعمل های جستجو افتاد و اواخر همان سال دست به استفاده از آنها زد. این الگوریتم ها که از همان ابتدا بر پایه کلمات کلیدی ایجاد شده بودند، نتایج این موتور جستجو را دگرگون کردند. وینسنت Vincent اولین الگوریتم طراحی شده توسط کارمندان گوگل بود که به هدف جلب اعتماد کاربران جستجو کننده طراحی شده بود. وینست بر روی کلمات کلیدی تاکید و نظارت داشت و به دنبال معتبر ترین وب سایت ها برای نمایش داده شدن می رفت. در ادامه به صورت موردی به معرفی و توضیح در مورد الگوریتم های گوگل خواهیم پرداخت.

الگوریتم پنگوئن Penguin

الگوریتم پنگوئن اولین بار در سال 2012 توسط گوگل ساخته و اجرا شد. شرکت گوگل بعد از معرفی الگوریتم پاندا، متوجه شد که این الگوریتم به تنهایی نمی تواند جلوی تقلب ها و تکنیک هایی که به عنوان سئوی کلاه سیاه رواج داشتند را بگیرد.

پس از اینکه وب سایت ها متوجه ارزش بالای محتوای با کیفیت شدند، عده ای سعی کردند تا برای ارتقاء رتبه وب سایتشان، اقدام به لینک دهی و استفاده از کلمات کلیدی نا مرتبط با وب سایت خود کرده و رتبه بالاتری در گوگل پیدا کنند. برای همین به تولید بک لینک های نا مرتبط و یا استفاده از کلمات کلیدی پر بازدید اما نا مرتبط با فعالیت خود روی آوردند. نتیجه اینکار چنین شد که کاربری که به دنبال یک لپ تاپ بود، ممکن بود از وب سایت های مرتبط با علوم تجربی و علوم پزشکی سر در بیاورد.

پنگوئن گوگل به صورت مداوم در تلاش است تا محتواهایی که حاوی لینک های نا مرتبط و کلمات کلیدی دستکاری شده هستند را پیدا کرده و آنها را از جلوی چشم کاربرها دور کند. خلاصه اینکه پنگوئن به هیچ عنوان از اسپم کردن و کلمات کلیدی بیش از حد خوشش نمی آید و بلافاصله شما را جریمه خواهد کرد.

الگوریتم پاندا گوگل Panda

الگوریتم پاندا به عنوان یکی از شناخته شده ترین الگوریتم های گوگل، بررسی می کند که محتواهای صفحات از لحاظ کیفیت در چه حدی قرار دارند. تا پیش از انتشار این الگوریتم، محتواهای تکراری و بیهوده که به عنوان اسپم شناخته می شدند، سراسر اینترنت پخش شده بودند. این محتواهای کوتاه دارای کم ترین میزان ارزش بوده و فقط برای نمایش داده شدن حداکثر یک صفحه مشخص ایجاد می شدند.

شرکت گوگل با معرفی این الگوریتم تلاش کرد تا براساس میزان رضایت کاربرها، فرآیند رتبه بندی صفحات را راه بیندازد. بعد از اجرای الگوریتم پاندا چنین وب سایت های بی کیفیت متوجه شدند که راهی جز حذف صفحات و محتواهای اسپم ندارند. برای همین شروع به طراحی وب سایت های تازه و تولید محتواهای با کیفیت تر کردند و در نتیجه در کل همه چیز به نفع کاربرها تمام شد.

اولین الگوریتم پاندا از سال 2011 معرفی شد و از آن زمان شروع به دادن نمره کیفیت به صفحات وب سایت ها کرد. الگوریتم گوگل یک محتوا خوان با دقت است که تمامی محتواهای وب سایت ها را بررسی کرده و به ارزیابی آنها می پردازد. اگر محتوا بی کیفیت یا کپی شده باشد آن را علامت گذاری کرده و بدون شک برای تنبیه کردن و عدم تکرار چنین ترفند مضری، تلاش می کند تا آن را به صفحات پایین تر خود هدایت کند.

الگوریتم جعبه ماسه Sand Box

الگوریتم سند باکس یکی از دستورالعمل های نسبتا قدیمی گوگل است که قدمت آن به سال 2004 باز می گردد. سند باکس یک الگوریتم فیلتر کننده است و  به زبان ساده، اجازه نمی دهد که تازه کارها به راحتی در کنار کهنه کارها و با سابقه ها قرار بگیرند.

تصور کنید که وب سایت جدیدی را در مورد فناوری و گجت های نوین راه اندازی کرده اید، کلی صفحه و محتوا ساخته ای و کلمات کلید را هم به درستی به کار برده اید، اما با یک جستجوی ساده متوجه می شود که وب سایت شما حتی جزو 5 صفحه اول SERP یا نتایج جستجوی گوگل نیست و خیلی پایین تر از جایگاهی که فکرش را می کردید شما را در نظر گرفته است. احتمالا در خوشبینانه ترین حالت فقط بتوانید لینک صفحه اصلی وب سایتتان را در صفحات پایینی گوگل پیدا کنید.

این زمان است که وب سایت شما از دید گوگل در وضعیت جعبه ماسه یا سند باکس قرار داده شده و تحت نظر است. طراحان وب سایت و متخصصان سئو از همان سال 2004 متوجه شدند که وب سایت های تازه وارد، حداقل تا چند ماه رتبه خوبی در گوگل پیدا نمی کنند. نکته جالب این بود که بینگ و یاهو بر عکس این کار می کردند و تاریخ ایجاد وب سایت و صفحات آنها برایشان نادیده گرفته می شد و بلافاصله نشان داده می شدند.

الگوریتم فیلتر کننده سند باکس به طور رسمی از سوی گوگل معرفی و یا مطرح نشده اما تجربه اثبات کرده که این موتور جستجو از همین روش برای ارزش دادن به وب سایت های با سابقه تر استفاده می کند. همین موضوع باعث می شود که تلاش وب سایت های تازه تاسیس برای جلب نظر گوگل و از همه مهم تر، خود کاربرها بیشتر از قبل بشود.

الگوریتم کافئین Caffeine

در سال های گذشته و به خصوص پیش از سال 2010 که الگوریتم کافئین هنوز طراحی و اجرایی نشده بود، کاربران زمان جستجوی موضوعی خاص، شانس اینکه با وب سایت های قدیمی و رها شده که معمولا اطلاعات تاریخ گذشته و نه چندان مفیدی را نشان می دادند بسیار بالا بود.

علت بروز چنین رفتاری به نحوه ایندکس شدن وب سایت ها و سرعت بروزرسانی و خواندن مطالب تازه منتشر شده توسط ربات های خزنده گوگل بر می گشت و توجه چندانی به قدمت مطالب نمی شد.

گوگل در الگوریتم کافئین با باز طراحی روند کارکرد ربات های خود، نه تنها سرعت خواندن اطلاعات، بلکه حجم اطلاعاتی که ربات ها قادر بودن در طول یک بازه زمانی مشخص مرور کنند را متحول کرد.

نتیجه این کار چنین شد که تغییرات ایجاد شده روی وب سایت ها با سرعت بیشتری در دسترس کاربران قرار می گرفت و این یعنی اطلاعات قدیمی به صفحات پایین تر و وب سایت های حاوی اطلاعات تازه، شانس بیشتری را برای نمایش داده شدن توسط گوگل پیدا کردند.

الگوریتم مرغ مگس خوار  Hummingbird

مرغ مگس خوار یکی دیگر از حیوانات راه یافته به باغ وحش گوگل است که فعالیتش را از حدود سال 2013 آغاز کرد و تلاش کرد تا کیفیت جستجوهای کاربرها را ارتقا دهد. الگوریتم مرغ مگس خوار قادر است تا با پردازش زبان طبیعی، کلمات و محتواهای مشابه را تشخیص دهد.

پیش از مرغ مگس خوار، گوگل از الگوریتم کافئین برای نمایش آنی و سریع متون و کلمات تایپ شده در نوار جستجوی کاربر استفاده می کرد. اما کافئین جای بهبودی زیادی داشت و برای همین گوگل الگوریتم مرغ مگس خوار که مثل خود پرنده اش، ریز نقش و سریع است را طراحی کرد.

پرنده مرغ مگس خوار می تواند در کم ترین زمان، سریع ترین هدف را پیدا کرده و به سمت آن حرکت کند. گوگل هم درست همین رفتار را برای این الگوریتم پیاده سازی کرده و بعد از بررسی معنای کلمات کلیدی، محتوای صفحات را بررسی می کند تا با زبان طبیعی انسان همخوانی داشته و اصطلاحا به صورت روان نوشته شده باشند.

در حقیقت گوگل به کمک این الگوریتم به صورت مفهومی از متون و محتواهای تولید شده در وب سایت ها با خبر است و کاربری که سوال خود را غیر مستقیم از او بپرسد، به نزدیک ترین و بهترین وب سایتی که مرغ مکس خوار آن را درک کرده هدایت می شود. مثلا اگر به دنبال نام کتابی که ماجرای سه دوست را در کشور خاصی بیان می کند بوده ولی اسم آن را به خاطر ندارید بگردید، گوگل می تواند به خوبی کتاب ها یا رمان های مشابه را برایتان پیشنهاد کند.

برخلاف دو الگوریتم پاندا و پنگوئن گوگل که اجازه جریمه کردن وب سایت ها را دارند، الگوریتم مرغ مگس خوار به هیچ عنوان در صدد رتبه بندی نبوده و وب سایت شما را جریمه نمی کند.

الگوریتم کبوتر گوگل Pigeon

برای توضیح الگوریتم کبوتر قشنگ گوگل، از یک مثال ساده که احتمالا بارها خودمان هم به آن نیاز پیدا کرده ایم شروع می کنیم. تصور کنید که برای سفر به یک شهر دیگر رفته اید و سر ظهر قصد دارید به دنبال بهترین و نزدیک ترین رستوران برای صرف ناهار بگردید. بعید است که جمله “بهترین رستوران یا فست فود در فلان شهر ” را جستجو نکرده باشید.

الگوریتم کبوتر گوگل دقیقا کارش این است که براساس موقعیت مکانی کاربر، کسب و کارهایی که خودشان را برای او تعریف کرده اند را به کاربر جستجو کننده معرفی کند. این الگوریتم قدم بزرگی در راستای پیشرفت سئوی محلی صاحبان کسب و کارها برداشت. شاید در گذشته اگر به دنبال یافتن یک آموزشگاه زبان و یا نزدیک ترین فروشگاه مبلمان در محله خود بودید، باید خودتان دست به کار می شدید و خیابان به خیابان دنبال نیازتان می گشتید یا اینکه همواره مجله های تبلیغاتی محلی را دم دست نگه می داشتید تا در زمان نیاز، شماره تلفن یا آدرس کسب و کار نزدیک محل زندگی خود را با دشواری کم تری پیدا کنید.

الگوریتم کبوتر با در اختیار داشتن موقعیت مکانی کاربر جستجو کننده و همچنین کسب و کارها که خودشان را در گوگل ایندکس کرده اند، به راحتی این معضل چند سال گذشته را حل کرده است.

الگوریتم تازگی  Freshness

تصور کنید که در گوگل به دنبال نام مدیر عامل جدید شرکت اپل هستید، اگر گوگل به مانند 20 سال پیشش کار می کرد و الگوریتم های تازه را برای بهینه سازی نتایج جستجو به کار نبسته بود، احتمالا فقط با نام استیو جابز آشنا می شدید و خبری از تیم کوک که جای او را گرفته به چشمتان نمی خورد.

الگوریتم تازگی محتوا در گوگل از سال 2005 به فهرست دستورالعمل های این شرکت اضافه شده و درست بر روی رفع چنین نقصی تمرکز کرده است. ربات های خزنده گوگل به طور مداوم محتواهای وب سایت شما را زیر و رو می کنند. اگر محتوایی از لحاظ تازگی و بروز بودن، تا سال ها همان وضع اولیه خودش را حفظ کند، قطعا ارزش یک مطلب دائما بروز شونده مثل جستجو در بحث قیمت گوشی همراه را نخواهد داشت.

از همین رو توصیه می شود که محتواهای وب سایت خود هر چند وقت یک بار بروزرسانی کنید تا گوگل هم از اهمیت دادن شما به تازگی اطلاعات وب سایتتان با خبر شده و شما را بیشتر به کاربرانش توصیه کند.

الگوریتم چیدمان صفحه گوگل  Page layout

هدف گوگل از ایجاد الگوریتم چیدمان صفحه در اوایل سال 2012 این بود که وب سایت های حاوی تبلیغات فراوان و بیش از حد را هدف قرار داده و آنها را به حذف چنین تبلیغات مزاحمی مجاب کند.

با وجود اینکه درصد کمی از وب سایت ها هستند که حاوی تعداد بی شمار و بیش از حد بنرهای تبلیغاتی بوده و اصطلاحا روی اعصاب بازدیده کننده و کاربرها راه می روند، اما الگوریتم چیدمان صفحه همه را هم وادار کرد که در طراحی قالب وب سایت خود بازنگری کرده و ترتیب چینش صفحه و گنجاندن آگهی ها و تبلیغات را بهینه سازی کنند.

الگوریتم چیدمان صفحه بعد از چهار مرتبه به روزرسانی از سوی گوگل، به صورت خودکار از سوی گوگل فعال شد و وب سایت هایی که معمولا تبلیغات را در تب های جدید و کوچک که مزاحمت بسیاری برای کاربران ایجاد می کنند را حساب تنبیه خواهد کرد. اینکه وب سایتی کاربر را به خواندن محتوای تبلیغات وادار کرده و اجازه استفاده از محتوایی که به خاطر آن وارد سایت شده را نمی دهند، از سوی گوگل اصلا پذیرفتنی نبوده و به سرعت توسط الگوریتم چیدمان صفحه پیدا و نمره منفی خواهد گرفت.

الگوریتم EMD – Exact Domain Match

پس از  اجرای موفق الگوریتم های پنگوئن و پاندا، شرکت گوگل در اواخر سال 2012 یک الگوریتم ارزشمند و موثر دیگر به نام EMD که روی بر روی سئو اثر مستقیم دارد را راه اندازی کرد.

الگوریتم EMD به این جهت معرفی و اجرایی شده تا ترفندی که بسیاری از دیجیتال مارکترها و وب مسترها در طول سال ها به گوگل می زدند و در زمان کوتاه تری به هدف و رشد مناسبی می رسیدند را بی اثر کند. در حقیقت این الگوریتم که مخفف “همخوانی دقیق آدرس دامنه” است، وب سایت هایی را هدف گرفت که از لحاظ محتوایی ارزش آفرینی چندانی نداشته و در عوض، در نام دامنه خود از کلمات کلیدی پر طرفدار آن حیطه کاری انتخاب می کردند. به عنوان مثال یک وب سایت نه چندان قوی در زمینه فروش محصولات بهینه سازی سئو، صرفا با گنجاندن اصطلاح SEO در آدرس وب سایت، رتبه خوبی در میان سایر وب سایت ها پیدا می کرد.

حتی ممکن بود این وب سایت به لطف انتخاب چنین آدرس دامنه ای، از وب سایت هایی که تلاش بسیار بیشتری در زمینه تولید محتوا به خرج می دادند هم فراتر رفته و در صفحات ابتدایی گوگل به نمایش در می آمد. البته تمامی این اتفاق ها در پایان سال 2012 ختم به خیر شد و امروز دیگر خبری از رتبه های بالا و حضور چنین وب سایت های نه چندان با کیفیتی در صفحات اول گوگل نیست.

الگوریتم  PayDay Loan

الگوریتم PayDay Loan یکی دیگر از الگوریتم های مبارزه با سوء استفاده از کلید واژه های مهم و حساس است که گوگل از سال 2013 به صورت مستقل و در کنار الگوریتم پاندا و پنگوئن آن را مورد استفاده قرار داد.

در آن زمان استفاده از کلمات کلیدی مستهجن، کلمات مرتبط به اسامی داروها، شرایط آسان برای گرفتن وام و تعدادی دیگر از موارد مشابه به صورت گسترده توسط کلاه برداران سئو و وب سایت های اسپم مورد استفاده قرار می گرفت.

الگوریتم PayDay Loan در حقیقت نوعی فیلترینگ محتواهای مجرمانه و مستجهن از سوی گوگل بود و به نوعی فضای این موتور جستجو را برای کاربران کم سن و سال تر بهینه سازی کرد.

الگوریتم گورخر  Zebra

الگوریتم گورخر از مارس سال 2013 به عنوان یکی دیگر از حیوانات باغ وحش گوگل روانه بازار این موتور جستجو شد. گورخر شرکت گوگل به منظور ارزیابی و هدفمند سازی فروش محصولات اینترنتی و به ویژه محصولاتی که در آن زمان در شبکه اجتماعی گوگل پلاس عرضه می شدند طراحی شد.

گوگل قصد داشت تا با ساخت این الگوریتم، نظارت بیشتری بر روی کیفیت اجناسی که احتمالا توسط کلاه برداران به صورت آنلاین فروخته می شد داشته باشد. الگوریتم زبرا یا گورخر امروزه به شکل کلی به صورت یک الگو و قائده برای بخش گسترده ای از فروشگاه های اینترنتی جا افتاده و آنها را وادار کرده تا چهارچوب مشتری مداری را رعایت کنند.

برای اینکه از الگوریتم گورخر امتیاز منفی نگیرید می بایست بخش های مفید زیر را در فروشگاه اینترنتی خود بگنجانید:

  • ساخت بستر مناسب و امن برای پرداخت وجه از سوی کاربر
  • ایجاد سبد خرید
  • امکان ثبت نام با استفاده از ایمیل و به راه انداختن ایمیل مارکتینگ
  • ساخت صفحه سوالات متداول یا سوالات پر تکرار
  • بخش نظرات و تجربه کاربران از خریدهای خود

الگوریتم رقص گوگل Google Dance

تجسم کنید که در یک مسابقه بزرگ رقص شرکت کرده اید. هر کدام از شرکت ها در این مسابقه فرصت دارند تا به روی سن آمده و با چالش هایی که تیم داوری مسابقه برای آنها آماده کرده رو به رو شوند. شما در زمانی که مشغول اجرای خودتان هستید، باید بهترین عملکرد را به نمایش گذاشته و بالاترین امتیاز را از دید داوران و بینندگان کسب کنید. اگر عملکرد شما خود باشد، روی سن باقی می مانید و اگر غیر از این باشد، نفرات بعدی جای شما را می گیرند.

این دقیقا همان فرصتی است که گوگل به وب سایت ها برای دیده شدن می دهد. اگر محتوای یکی از صفحات وب سایت شما یا مقاله ای که به تازگی آماده کرده اید، به ناگهان در صفحات بالا دیده شده و یا برعکس، جایگاه پایینی را از گوگل کسب کرد، بدانید که گرفتار الگوریتم رقص گوگل شده اید و باز هم باید بر روی صفحه مورد نظر کار کنید.

گوگل ممکن است به صورت مقطعی لینک صفحه ای از وب سایت شما که با کلمه کلیدی جستجو شده مرتبط است را به صفحه اول یا دیگر صفحه های بالا هدایت کند تا نظر کاربران را در موردش بداند. اگر نرخ CTR یا کلیک خوردن خوبی پیدا کرد و مدت زمانی که کاربر در وب سایت شما حضور دارد نیز بالا باشد، بدانید که از این فرصت به بهترین شکل ممکن استفاده کرده اید.

الگوریتم گوگل برت BERT

الگوریتم برت گوگل در حقیقت یک نسخه هوشمند تر و کامل تر از الگوریتم مرغ مگس خوار است که بر طبق هوش مصنوعی و یادگیری زبان انسان کار می کند.

گوگل به کمک الگوریتم برت تلاش می کند تا ساختار معنایی کلمات به کار رفته در یک جمله را درک کرده و براساس آن به جستجو و یافتن نتایج برای کاربر بپردازد. تجربه ثابت کرده که کاربرها با همان زبان خودشان یعنی زبان محاوره به جستجوی در گوگل می پردازند. موتور جستجوی گوگل برای همین سعی کرد تا با به راه انداختن برت که زمان آن به سال 2018 بر می گردد، نتایج جستجو را مطابق با آنچه که به صورت محاوره سرچ می شود طبقه بندی کرده و بهترین وب سایت ها را برای یافتن سوالش به او نشان دهد.

در حقیقت برت بیشتر بر روی رشته کلمات و جملاتی که کاربر جستجو می کند تمرکز دارد و اهمیت کم تری به کلمات کلیدی تکی و کوتاه می دهد. کافیست جمله “چگونه همسر بهتری باشم” را در گوگل سرچ کنید، گوگل مانند یک دوست نتایجی را به شما نشان می دهد که حس می کنید انگار به خوبی منظور شما را فهمیده و به دنبال پاسخ سوالتان گشته است.

الگوریتم تخصص ، اقدار و اعتماد E-A-T  – Expertise – Authority – Trust

الگوریتم EAT اولین بار در اگوست سال 2018 شناسایی شده و حدودا یک سال بعد اثر خود را بر روی رتبه بندی وب سایت ها به خوبی نشان داد. شرکت گوگل بعد از اینکه از بابت بررسی مفهوم سمانتیکی وب سایت ها بر آمد، ربات های این شرکت قادر به بررسی محتواهای مختلف شدند و نوبت آن بود که وب سایت ها نیز از لحاظ کیفیت محتوا و میزان اعتبار و تخصص مورد ارزیابی و مقایسه قرار بگیرند.

این الگوریتم مخفف سه کلمه تخصص، اقتدار و تجربه است و می تواند تعیین کند که محتوای شما از نظر کیفی در چه جایگاهی قرار دارد. در این الگوریتم توجهی به کلید واژه ها و مواردی از این قبیل نمی شود و فقط هدف ارزیابی محتوای با کیفیت و کارآمد است. این محتوا می بایست توانایی پاسخ دادن به سوالات کاربر را داشته و از لحاظ علمی نیز اعتبار قابل قبولی داشته باشد.

Expertise

در قسمت تخصص این الگوریتم، توجه گوگل به دانش و سطح تجربه نویسنده مطلب در مورد آنچه که اطلاع رسانی کرده معطوف می شود.

Autority

بخش اقتدار نسبت به اطمینان نویسنده از محتوای اصلی تولید شده اش حساسیت دارد. در حقیقت نویسنده باید نسبت به آن محتوایی که تولید کرده است، به لحاظ کیفیت و اعتبار بالاترین اطمینان را داشته باشد.

Trust

در این بخش به قابل اطمینان بودن اطلاعات موجود در وب سایت شما برای کاربران و مفید بودن برای آنها رسیدگی می شود. هر چه مطالب را به زبان آسان تر و با همخوانی بیشتر با واقعیت و علم مربوط به آن نوشته باشید، اطمینان کاربران از اعتبار بالای مطالب شما بیشتر می شود.

گوگل با بررسی نحوه برخورد کاربر با مطالب وب سایت ها، به خوبی می تواند سطح مبتنی بودن بر اطلاعات واقعی و بروز بودن نوشته های موجود در آنها را ارزیابی کند. هر چه از لینک های با کیفیت تر، جزیبات دقیق مثل آدرس و اطلاعات تماس و بک لینک های با کیفیت تری استفاده شده باشد، امتیاز وب سایت توسط این الگوریتم افزایش پیدا خواهد کرد.

الگوریتم قدرت صفحه Page authority

الگوریتم قدرت صفحه همانطور که از نامش پیداست، میزان قدرت صفحه وب سایت را از لحاظ فاکتورهایی همچون میزان لینک های ورودی از سایت های دیگر، کیفیت محتوای تولید شده، تعداد بازدید کنندگان وب سایت و مدت زمانی که روی وب سایت شما سپری می کنند ارزیابی و امتیاز دهی می کند. هر چه قدرت صفحه بیشتر باشد، امتیاز و رتبه گوگل بهینه تر و تک رقمی تر می شود.

پس از اینکه گوگل معیار رتبه صفحه یا رنک پیج را کنار گذاشت، وب سایت معتبر Moz که یکی از وب سایت های شناخته شده در زمینه سئو است، دو مفهوم پیج آتوریتی و دامین آتوریتی Page Authority را معرفی کرد.

این دو الگوریتم نسبتا غیر رسمی، فعلا تنها مواردی هستند که سایت ها براساس آنها رتبه بندی می شوند. در کلام ساده باید گفت که دامین آتوریتی به ارزیابی اعتبار دامنه وب سایت و پیج آتوریتی هم به ارزیابی صفحات و امتیاز دهی به آنها می پردازد. مثلا یک وب سایت از لحاظ دامنه امتیاز بالایی داشته اما صفحات آن امتیاز مناسبی ندارند.

معمولا صفحه اصلی وب سایت ها از امتیاز پیج آتوریتی بالاتری برخوردار بوده و اینکه امتیاز صفحات یک وب سایت اگر بالا باشد، می تواند روی امتیاز دامنه هم اثر منفی بگذارد.

برای ارتقا قدرت صفحه و قدرت دامنه می توانید از بک لینک های با کیفیت استفاده کنید. علاوه بر آن مبحث لینک دهی داخلی را فراموش نکرده و تا امکان دارد از لینک های مرتبط در داخل دیگر لینک ها و مطالب وب سایت استفاده کنید تا ربات های گوگل زمان بیشتری را در داخل وب سایت شما سپری کنند. در مجموع عدد 70 یک رتبه بسیار ایده آل برای تمامی سایت ها، رتبه 60 یک رتبه خوب برای وب سایت های ایرانی، رتبه 40 تا 50 یک رتبه مناسب و رتبه های 30 و 20 مربوط به وب سایت های رو به رشد و نسبتا تازه تاسیس است.

الگوریتم بالای تپه Hilltop

الگوریتم بالای تپه یا هیل تاپ از جمله دستورالعمل های بسیار تاثیر گذار گوگل بود که پیدایش آن به سال 2003 باز می گردد، ولی همچنان اثر خود را بر روی سئو وب سایت ها نشان می دهد.

این الگوریتم به هدف شناسایی وب سایت هایی که از لحاظ محتوای تخصصی و بسیار مفید، اصطلاحا در بالای تپه قرار دارند راه افتاد. هیل تاپ ابتدا صفحاتی که از لحاظ موضوع و عنوان خاص تر بوده و از لحاظ محتوای تخصصی بالاترین ارزش را دارند و تعداد زیادی وب سایت به آن لینک دهی کرده اند را شناسایی می کند. سپس تمامی این وب سایت های شناسایی شده به مرحله بعدی راه پیدا کرده و در نهایت از میان آنها، بهترین ها به رتبه های بالا فرستاده می شوند.

خلاصه گوگل از آن سال تا به امروز در تلاش بوده تا وب سایت های مرجع و پر از اطلاعات تخصصی که دیگران از آنها برای استناد به اطلاعات و داده های خود بهره می برند را پیدا می گند. به عنوان مثال وب سایت هایی مثل ویکی پدیا و eHow و یاهو از جمله نمونه های مشهور در الگوریتم هیل تاپ گوگل به شمار می روند.

الگوریتم موبایل فرندلی Mobile Friendly

با پر رنگ تر شدن بازار گجت ها و گوشی های هوشمند که نمایشگرهایی به مراتب کوچک تر از رایانه های رومیزی داشتند، بهینه بودن وب سایت ها برای نمایش درست در چنین دستگاه هایی به یک مسئله مهم و ضروری تبدیل شد. اوایل سال 2015 بود که گوگل الگوریتم موبایل فرندلی را برای سازگاری هر چه بیشتر تجربه استفاده از اینترنت روی گوشی ها و تبلت ها طراحی کرد.

الگوریتم رنک برین RankBrain

الگوریتم رنک برین از لحاظ کارکرد شباهت بسیاری به الگوریتم مرغ مگس خوار دارد. این الگوریتم هم در ماه اکتبر سال 2015 تولید شد و به عنوان الگوریتم کمکی برای مرغ مگس خوار، تلاش کرد تا هوش مصنوعی و یادگیری ماشین را در اختیار بهبود کارکرد موتور جستجوی گوگل قرار دهد.

رنک برین می تواند منظور کاربر و معنای چیزی که به دنبال آن می گردد را درک کرده و تلاش کند تا دقیق ترین پاسخ را به او نمایش دهد. الگوریتم رنک برین که از نگاه گوگل به عنوان سومین الگوریتم تاثیر گذار در رتبه بندی وب سایت ها معرفی شده، هم تجربه کاربر وب سایت و هم کیفیت محتوایی که در آن منتشر شده است را ارزیابی می کند. خلاصه اینکه الگوریتم رنک برین به عنوان یک دوست دلسوز، حرف ها و سوالات کاربران را درک کرده و می کوشد تا مشکلات آنها را حل کند.

به عنوان مثال شما به دنبال یک جراح مغز گشته و ترجیح می دهید که نزدیک ترین دکتر مجرب را به محل سکونت خود پیدا کنید، کافیست جمله “بهترین جراح مغز و اعصاب” را جستجو کنید. رنک برین تلاش می کند که هم بهترین و هم نزدیک ترین دکتر را به شما معرفی کند.

الگوریتم موش کور Possum

الگوریتم موش کور گوگل در اولین روز از سپتامبر سال 2016 رونمایی شد تا کیفیت جستجوهای محلی و نزدیک به کاربر را بهینه سازی کند. از برخی از جهات الگوریتم موش کور شباهت بسیاری به الگوریتم کبوتر گوگل دارد و تلاش می کند تا کسب و کارهای هم محل با جستجو کننده در گوگل را به یکدیگر نزدیک تر کند.

برای اینکه موش کور به عنوان دوست شما در موتور جستجوی گوگل، کمک کند تا در جستجوهای بچه محل های خود نمایش داده شوید، حتما باید آدرس دقیق کسب و کارتان را طوری که گوگل درک کند معرفی کنید.

الگوریتم فرد FERD

الگوریتم فرد گوگل شاید جزو انگشت شمار الگوریتم هایی باشد که غیر رسمی بوده و بیشتر به جای اینکه شبیه یک دستورالعمل پیچیده و ناشناخته باشد شبیه به یک بروزرسانی است. با توجه به اینکه الگوریتم هایی مثل الگوریتم پنگوئن قادر هستند تا کیفیت محتواهای وب سایت ها را ارزیابی کرده و آنها را از لحاظ مفید بودن رتبه بندی کنند، اما باز هم افرادی پیدا می شوند که در میان محتواهای خود، به مقدار زیادی تبلیغات مزاحم و خسته کننده را بگنجانند که موجب کلافگی کاربرها بشود.

از آنجایی که گوگل در سئو به دنبال محتوا می گردد و کلا مبحث ارزیابی وب سایت ها در موتور جستجوی این شرکت، مقایسه و بررسی کیفیت محتوا می باشد، از همین رو اجازه سوء استفاده و به کاربردن تکنیک های سئو کلاه سیاه به سودجویان داده نخواهد شد.

برای همین الگوریتم فرد در مارس سال 2017 به صورت غیر رسمی به هسته گوگل اضافه شد تا با محتواهای بی هدف که فقط قصد سرکار گذاشتن و ارائه تبلیغ های مزاحم را دارند مبارزه کند.

الگوریتم YMYL

الگوریتم YMYL که مخفف جمله Your Money or Your Life به معنای پول شما یا زندگی شماست، گوگل را در نقش یک حامی دلسوز برای حفاظت از کاربران قرار می دهد.

این الگوریتم که در کنار الگوریتم EAT فعالیت کرده و مکمل آن است، از سال 2020 کار خودش را شروع کرد و باعث شد تا وب مسترها و مدیران وب سایت ها، ناگهان متوجه اختلال ها و جا به جایی های حساب نشده ای در رتبه وب سایت های خود و دیگران بشوند.

گوگل می داند وب سایت های بسیاری هستند که خدماتی را ارائه کرده و احتمالا این خدمات با پول کاربران سر و کار دارد. مثلا وب سایت هایی که به کاربران توصیه می کند تا پول ها و پس اندازهایشا را در پروژه ای جدید سرمایه گذاری کنند. علاوه بر وب سایت هایی که با جنبه مالی کاربران کار دارند، وب سایت هایی هم هستند که خدمات مرتبط با سلامت آنها را ارائه می کنند و خلاصه نباید هیچکدام از این دو با سوء استفاده و کلاه برداری، پول و جان آنها را در معرض خطر قرار بدهند.

به همین دلیل گوگل تلاش کرد تا از ماه مه سال2020 و به ویژه با گسترش ویروس کشنده کووید 19، اطلاعات دقیق، به روز و کارآمدی را در اختیار کاربرانی که به دنبال مراکز درمانی معتبر بودند قرار بدهد. آنها را از مکان های آلوده دور کند و در مجموع نقش مفیدی را برای بهبود آنهایی که دچار این بیماری شده بودند ایفا کند.

الگوریتم Page Experience

الگوریتم Page Experience به غیر از محتوای موجود در صفحه یک وب سایت، با سایر جوانب آن سرکار دارد. گوگل در این الگوریتم روی نوع تعامل کاربر با صفحه تمرکز کرده و مواردی مثل سرعت بارگذاری، میزان آسان بودن در پیمایش و هدایت صفحه و همچنین میزان خوانا بودن نوشته ها و فونت ها را به طور دقیق بررسی می کند. در حقیقت Page Experience از سال ها قبل یکی از قواعد مهم در سئو و بهبود رتبه وب سایت ها بوده و فقط اکنون قرار است با جدیت بیشتری مورد نظر قرار بگیرد. این الگوریتم ابتدا در سال 2019 معرفی شد و بعد از یک وقفه طولانی، از اوایل سال 2021 اجرایی شد.

صفحه ای که به درستی و ظرافت طراحی نشده باشد، باعث دور کردن کاربر از یک وب سایت می شود. برای همین به شما توصیه می کنیم تا در زمینه بهینه سازی Page Experience ، ایمن سازی وب سایت و بهینه سازی سرعت وب سایت، پروسه طراحی وب سایت خود را به برنامه نویسان ما در شرکت طراحی وب سایت دارکوب بسپارید.

کلام پایانی

گوگل تمامی الگوریتم ها یا بهتر بگوییم حیوانات باغ وحش خودش را به صورت مستمر مورد بررسی قرار می دهد و بروز رسانی می کند. هر بار که چنین اتفاقی می افتد، رتبه وب سایت ها هم دچار نوسان و تغییرات می شود و در این میان، وب مسترها و صاحبان وب سایت هایی که طبق چهارچوب گوگل رو به جلو حرکت کرده اند، از تغییرات بوجود آمده نهایت استفاده را می برند.

چالش اصلی یک سئو کار در این دنیا مسئله غیر قابل پیشبینی بودن و تغییرات ناگهانی رفتار الگوریتم های گوگل است. ممکن است یک الگوریتم برای شما مفید واقع شده و یا با ظهور یک الگوریتم جدید دیگر به شدت جریمه شوید.

برای همین منظور اگر دغدغه اصلی شما نگه داری یک وب سایت موفق و همواره حاضر در صفحات اولیه جستجوهای گوگل است، می توانید با متخصصان شرکت طراحی وب سایت دارکوب جهت تبلیغات در گوگل، شناسایی الگوریتم های گوگل و همینطور اجرای موفق بازاریابی اینترنتی همراه باشید.

 



دارکوب نام تجاری ثبت شده. دارای مجوز از سازمان نظام صنفی رایانه ای و وزارت فرهنگ و ارشاد اسلامی. رتبه چهار شورای عالی انفورماتیک کشور.

آموزشگاه طراحی وب سایت و سئو دارکوب با مجوز رسمی از سازمان فنی و حرفه ای تاسیس شد.

دارکوب به عنوان شرکت خلاق توسط معاونت علمی و فناوری ریاست جمهوری برگزیده شد.
پشتیبانی 24 ساعته 7 روز هفته