Raised circle image

مدرس:

رضا شیرازی


زمان برگزاری دوره:

چهارشنبه 2 بهمن 98 ساعت 16 الی 19


اطلاعات بیشتر:

سرفصل ها:
هوش مصنوعی چیست؟
الگوریتم های هوشمند گوگل کدامند؟
گوگل چگونه سایتهای اسپم را تشخیص میدهد؟
چه کسی برنده میشود؟


محل برگزاری:

میدان آزادی، ابتدای بزرگراه شهید لشکری، نبش ایستگاه مترو بیمه، کارخانه نوآوری آزادی، سوله هفت و هشت، آمفی تئاتر زیر زمین




ویدئو

هوش مصنوعی در برابر حماقت طبیعی

در این مقاله در مورد هوش مصنوعی و الگوریتم های گوگل، فلسفه گوگل، تصوراتی که در این حوزه وجود دارد، روندی که در حوزه تکامل و پیشرفت هوش مصنوعی درحال انجام است و مسیری که در آینده به سمت آن خواهیم رفت صحبت خواهیم کرد.

موضوعی مهمی که در سئو وجود دارد اهمیت به چرایی یک مسئله است نه صرفا چگونگی انجام یک کار. خیلی از افراد چگونگی انجام ‏یک کار در سئو سایت را می‌دانند اما از چرایی آن بی‌خبرند. به این ترتیب با کمی تغییرات نمی توانند تصمیمات درست گرفته و به ‏نتیجه مطلوب برسند.‏

در سئو سوالاتی وجود دارد که همیشه باید از خود بپرسیم.‏

فلسفه گوگل چیست؟

گوگل چطور نتایج را به کاربران نمایش می‌دهد؟

کارهایی که روی سایت انجام می‌دهیم چرا باید در سئو اثر مثبت داشته باشند؟

چرا باید گوگل به این کارها امتیاز خوب بدهد؟

گوگل چه سایت هایی را پنالتی می کند؟

زمانی که علت انجام کاری را بدانید چگونگی آن را پیدا خواهید کرد و در صورت تغییر شرایط می‌توانید تصمیم درستی بگیرید. اما اگر ‏صرفا چگونگی انجام یک کاری را بدانید و به چرایی آن فکر نکرده باشید با تغییر اوضاع، نمی دانید که هر کاری را برای چه باید انجام ‏می‌دادید. به این ترتیب، در شرایط پیش بینی نشده نمی‌توانید کار درست را انجام دهید و به نتیجه برسید.

گاهی مردم جستجوهای جالبی انجام می دهند. مثلا «قیمت سرویس طلای دختر خالم» یا « عطری که مریم خریده چیه؟» و انتظار دارند ‏گوگل پاسخ آن‌ها را بداند. البته گاهی پاسخ به این قبیل سوالات هم، با توجه به اطلاعات زیادی که گوگل از افراد دارد، امکان‌پذیر است.‏

به تازگی در یک تصویر طنز که بصورت کاریکاتور منتشر شد مردی برای جستجوی نام خانمی که پشت او در صندلی اتوبوس نشسته بود از ‏گوگل کمک می‌گیرد. این کار در نگاه اول باعث خنده می‌شود در حالیکه در واقعیت اگر هر دو آن افراد موقعیت مکانی خود را روشن کرده ‏باشند انجام این کار برای گوگل دور از ذهن نخواهد بود و با توجه به اطلاعاتی که در اختیار دارد می تواند آن را انجام دهد.‏

بحث اصلی را با یک سوال شروع می کنیم. 

کدام یک از 6 فاکتور زیر تاثیر بیشتری در سئو دارند؟

‏1.‏ کلیک بر روی نتایج گوگل و افزایش ‏CTR

‏2.‏ خرید بک لینک از سایت های ‏‎.org‎‏ و ‏‎.edu‎

‏3.‏ تکرار کلمه کلیدی در تگ های ‏Heading

‏4.‏ ‏ استفاده از ‏AMP

‏5.‏ ‏ استفاده از ‏Schema

‏6.‏ استفاده از کلمه کلیدی در متا توضیحات

در پاسخ به این سوالات، نظرات متفاوتی وجود دارد و در طی گذر زمان برحسب تجربه نظرات افراد می تواند دستخوش تغییرات شود. سئو همچون هنر است و ‏سئوکار مانند یک هنرمند که امضا و سبک کار خود را دارد و هر سئوکاری بر اساس تجربه شخصی خود در کار، ممکن است نظر خاص ‏خود را داشته و از آن دفاع کند.‏

برای اینکه بدانیم هر کدام از فاکتورها چه میزان در سئو تاثیرگذار هستند ابتدا باید بدانیم فلسفه گوگل چیست و چرا باید به یک سایت بر اساس یک ‏فاکتور، امتیاز بیشتری بدهد و چرا  این امتیاز را برای سایتی قائل می‌شود. هر چه بیشتر به دنبال چرایی این سوالات باشیم پاسخ بهتری برای آن‌ها پیدا خواهیم کرد.

حماقت طبیعی

دیدگاه‌ها و تفکراتی در زمینه سئو وجود دارد که بسته به شرایط می توانند صحیح یا غلط باشند اما آن چیزی که اهمیت دارد ‏علت و چرایی تاثیرگذاری این موضوعات از نگاه گوگل است.


گاه افراد سوالات و دیدگاه های عجیبی در حوزه محتوا دارند مانند:‏

  • تولید چند محتوای روزانه برای سئو خوب است؟ ‏
  • هر روز ساعت 10 صبح یک مقاله می نویسم، چرا رتبه خوبی ندارم؟!‏
  • گوگل محتوای کپی را تشخیص نمی دهد و کافی است افعال جمله را تغییر دهم.‏


یا نظراتی مانند این:‏

  • استفاده از ‏AMP‏ باعث بهبود رتبه سایت می شود.‏
  • ایجاد لینک خارجی رتبه سایت را بهبود می‌دهد.
  • استفاده از نقشه سایت ‏‎(site map)‎‏ در بهبود رتبه سایت تاثیر دارد.‏


گاهی تصور می‌کنند سئو به معنی تکرار کلمه کلیدی در صفحه است و کلمه کلیدی را در همه جا بدون دانستن دلیل تاثیرگذاری آن به کار می‌برند.

  • درصد تکرار کلمه در صفحه چقدر است؟ ‏
  • تکرار کلمه کلیدی در متن
  • تکرار کلمه کلیدی در متا توضیحات
  • تکرار کلمه کلیدی در ‏Headings‏ ‏
  • تکرار کلمه کلیدی در ‏alt‏ تصاویر


عده‌ای نیز گمان می‌کنند سئو فقط به معنی خرید بک لینک و لینک سازی ‏است و کارهایی از این دست را انجام می‌دهند.

  • لینک سازی در کامنت
  • لینک سازی در انجمن ها
  • خرید بک لینک در ساید بار ‏
  • خرید بک لینک ‏gov‏ و ‏org‏ 


هر کدام از این کارها به خودی خود می تواند موثر باشد یا نباشد اما توجه کنید که چرا گوگل باید برای این کارها امتیاز مثبت در نظر ‏بگیرد؟

گاه افراد استفاده از ربات برای کلیک بر روی نتایج گوگل را انتخاب می کنند و یا حتی به ایجاد کامنت های غیرواقعی بر روی محتوای خود ‏و تاثیر آن بر روی نتایج گوگل باور دارند. گاهی نیز سئو را به معنی لینک سازی دانسته و به ایجاد لینک در کامنت و انجمن ها و یا خرید ‏بک لینک در ساید بار و گرفتن بک لینک هایی با پسوند ‏‎.gov‎‏ یا‎ ‎‏ ‏‎.org‎‏ می پردازند.‏

باید فکر کنیم که چرا گوگل به بک لینک هایی با این پسوندها ارزش بالاتری می‌دهد؟

شاید اگر فلسفه گوگل را بدانیم و جواب این چرایی‌ها را پیدا کنیم متوجه شویم که خیلی از آن ها تاثیر چندانی بر سئو ندارند. البته همگی آن‌ها باید آزمایش شوند و تاثیر گذاری هر مورد سنجیده شود.‏


هوش مصنوعی گوگل

  • هوش مصنوعی چیست؟
  • سیستم های فازی
  • شبکه های عصبی
  • هوش ازدحامی
  • الگوریتم های تکاملی (مسائل بهینه سازی)‏
  • پردازش زبان طبیعی ‏
  • درخت تصمیم گیری ‏
  • بینایی ماشین ‏
  • تبدیل گفتار به متن
  • تبدیل متن به گفتار

‏هوش مصنوعی چیست؟

هوش مصنوعی تعاریف مختلفی دارد. اولین تعریفی که از هوش مصنوعی ارائه شد این بود: «هر وقت شما پشت سیستمی بنشینید و با ‏یک ربات چت کنید و نتوانید تشخیص دهید که او انسان است یا ربات می توان گفت بشر توانسته به هوش مصنوعی دست پیدا کند‏».

این مسئله مدت زیادی است حل شده و الگوریتمی در گوگل وجود دارد به نام الگوریتم آلیس که شما وقتی با آن چت می‌کنید متوجه ‏انسان نبودن آن نخواهید شد.

در هوش مصنوعی سیستم هایی به نام سیستم های فازی وجود دارد. در واقع سیستم های فازی مدلی در ریاضیات است که اولین بار یک ‏دانشمند ایرانی آن را ابداع کرد. اگر سیستم های فازی وجود نداشتند خیلی از وسایلی که ما در زندگی استفاده می‌کنیم مثل ماشین‌های ‏ظرفشویی حتی به وجود نمی‌آمدند. ‏

مفهومی به اسم عدد فازی نیز وجود دارد. اعداد فازی بر خلاف ریاضیات به صورت صفر و یک نیستند بلکه یک ‏بازه را شامل می شوند. به طور مثال اگر بگوییم هوا گرم است این گرما برای هر شخصی می تواند یک دمای خاص باشد. برای شخصی دمای 20 ‏درجه و برای دیگری 25 درجه می تواند معنی گرما بدهد. اعداد فازی در یک بازه‌ای قرار می گیرند که میزان و خوب و بد آن از دید افراد ‏مختلف متفاوت است. گوگل در تعدادی از الگوریتم های خود از این اعداد فازی استفاده می‌کند.

شبکه های عصبی

شبکه های عصبی مدلی از یادگیری ماشین هستند که مدلسازی مغز انسان را انجام می دهند و مانند انسان که خیلی چیزها را یاد می ‏گیرد شروع به یادگیری در محیط کرده و می توانند خود را با محیط تطبیق بدهند و فرمول های ان محیط را بیاموزند.‏

هوش ازدحامی

روشی در هوش مصنوعی که برگرفته از موجوداتی است که به خودی خود هوشی ندارند اما وقتی در کنار یکدیگر قرار می‌گیرند یک اجتماع ‏هوشمند را تشکیل می‌دهند. مثلا در الگوریتم مورچه ها، یک مورچه به خودی خود موجود هوشمندی محسوب نمی‌شود اما به واسطه ‏بویی که از خود منتشر می‌کند می تواند راه خود را در فاصله لانه تا غذا  پیدا کرده و باز گردد. مورچه‌ها وقتی مسافت ‏بیشتری را طی می‌کنند و فاصله بیشتری از لانه می‌گیرند بویی که از خود منتشر می‌کنند بیشتر شده و به‌راحتی می توانند نزدیک‌ترین مسیر را به لانه شناسایی کنند.‏

مثلا وقتی شما آدرس یک سایت را وارد می‌کنید و از طریق ‏DNS‏ به سرور یک وبسایت وصل می‌شوید در واقع از الگوریتم مورچه ها استفاده ‏می‌کند تا شما را به نزدیک‌ترین سرور وصل کند.‏

الگوریتم های تکاملی (بهینه سازی)‏

تکامل یعنی شایستگی بیشتر فرزندان نسبت به والدین.

الگوریتم های تکاملی برای حل مسائل بهینه سازی استفاده می‌شوند. وقتی از سئو صحبت می‌کنیم با یک محیط بهینه سازی طرف ‏هستیم و مسائل ریاضی برای این موارد جوابی ندارند. در این شرایط باید از الگوریتم های تکاملی استفاده کنیم تا بفهمیم در آن محیط ‏چه اتفاقی می‌افتد. ‏

پردازش زبان طبیعی Natural Language Processing

مفهومی به نام ‏NLP‏ با هدف تشخیص زبان طبیعی انسان وجود دارد که باعث می‌شود هوش مصنوعی بفهمد انسان چگونه صحبت می‌کند.

دیگر الگوریتم هایی که بر اساس هوش مصنوعی پیش می‌روند، درخت تصمیم گیری، بینایی ماشین (که در آن کامپیوتر مثل انسان ‏می‌تواند اشیا را شخیص داده و ببیند و درواقع گوگل لنز از این الگوریتم استفاده می‌کند)، تبدیل گفتار به متن، متن به گفتار و ... هستند. ‏

یادگیری ماشین

وقتی یک برنامه یا نرم افزار توسط یک برنامه نویس نوشته می‌شود ورودی‌هایی به برنامه داده و خروجی‌هایی از آن گرفته می شود. در ‏یادگیری ماشین ما، ورودی‌ها و خروجی‌ها را به ماشین می‌دهیم و هوش مصنوعی برنامه را می‌‏نویسد. یک مجموعه آموزشی و آزمایشی.

ما مجموعه‌ای از داده‌ها را به هوش مصنوعی می‌دهیم، هوش مصنوعی ارتباط بین این داده‌ها را ایجاد کرده و فرمول و برنامه را می‌‏دهد، به این ترتیب برنامه را مورد تست قرار می‌دهیم تا ببینیم چه نتیجه‌ای برای ما خواهد داشت.

‏تبدیل گفتار به متن

در سال 2018 تقریبا حدود 20 درصد جستجوهای گوگل از طریق جستجوی صوتی بود. در اینجا می‌توان متوجه شد که گوگل از ‏الگوریتم تبدیل گفتار به متن استفاده می کند.‏

مترجم ماشینی

گوگل در حال حاضر بهترین مترجم ماشینی دنیا را دارد. هر ساله یک مسابقه جهانی برای ترجمه ماشینی برگزار می‌شود و تیم‌های ‏بسیاری از پژوهشگاه‌ها و دانشگاه‌های مختلف دنیا در این مسابقه شرکت می‌کنند تا الگوریتم مترجم ماشینی قدرتمندتری بسازند.‏

گوگل 3 سال پیاپی از سال 2014 تا 2016 در این مسابقه اول شد ولی او را متهم به تقلب کردند. اما دلیل اتهام به تقلب این بود که ‏گوگل سیستم مترجم ماشینی خود را بر اساس ‏corpus‏ و داده‌هایی که در اختیار داشت آموزش داده بود. به دلیل داده‌های بسیار ‏زیادی که گوگل دارد، وقتی یک سیستم هوش مصنوعی را آموزش می‌دهد، آن سیستم بخاطر آموزش قدرتمندی که داشته بسیار ‏قوی عمل خواهد کرد.

این در حالی است که دیگر شرکت‌ها چنین داده‌هایی نداشته و به همین دلیل همیشه شکست خورده‌ بودند. ‏

بعد از آن، قانون مسابقه عوض شد و قرار شد همه با ‏corpus‏ یکسان در مسابقه شرکت کنند و به این ترتیب شرایط برای همه یکسان شد.‏

Corpus چیست؟

Corpus‏ داده‌هایی است که در گوگل وجود داشته و از طریق وب آن‌ها را جمع‌آوری می‌کند و بر اساس همین داده‌ها می‌تواند تصمیمات ‏بسیار هوشمندانه بگیرد.‏

TF-IDF چیست؟

الگوریتمی در گوگل وجود دارد به نام ‏TF-IDF‏ که مخفف ‏term frequency–inverse document frequency‏ است.‏

اینکه یک کلمه کلیدی چند بار باید در محتوا استفاده شود تا در سئو نتیجه بگیرد سوال پرتکراری است که همیشه از یک سئو کار پرسیده ‏می شود. این سوال در واقع ‏term frequency‏ یا تکرار کلمه به نسبت کل محتوایی است که وجود دارد.‏

شاید اگر خیلی ساده به موضوع نگاه کنیم به این فکر کنیم که تعداد تکرار کلمات برای گوگل مهم بوده و دقیقا تعداد آن‌ها را شمرده و ‏لحاظ می‌کند. ‏

الگوریتم هایی مثل ‏TF-IDF‏ الگوریتم هایی هستند که بر اساس ‏corpus،‏ رفتار طبیعی کاربر را تشخیص می‌دهند. پس فقط تکرار کلمه ‏اهمیت ندارد. ‏inverse document frequency‏ لگاریتمی بر پایه ‏e‏ است که مشخص می‌کند یک کلمه در اسناد گوگل چقدر ‏تکرار شده و میزان تکرار طبیعی کلمه را می‌سنجد. ‏

به طور مثال اگر در یک متن 2000 کلمه‌ای 100 بار کلمه «با» استفاده شود کار غیرطبیعی نیست زیرا در اسناد و ‏document‏ های ‏گوگل این حجم از تکرار این کلمه وجود دارد و طبیعی است ولی اگر کلمه «سئو» در یک متن 1000 کلمه ای ده بار تکرار شود یک کار ‏غیر طبیعی است زیرا در دیگر اسناد همچین کاری نکرده‌اند.‏

در واقع گوگل رفتار طبیعی و رفتار غیرطبیعی ما را بر اساس ‏corpus‏ و داده‌هایی که دارد می‌تواند تشخیص دهد. به راحتی ‏می تواند توازن یک سایت را مشخص کند و بفهمد:

  •  بک لینک هایی که یک سایت می‌گیرد به صورت طبیعی به وجود می‌آید یا ‏غیرطبیعی است؟
  • توازن لینک ها به طور طبیعی در یک سایت با چه درصدی بین صفحه خانه و صفحات داخلی تقسیم می‌شود؟
  • اگر یک سایت ده هزار صفحه دارد چقدر باید جستجوی برند داشته باشد؟
  • کاربران در اینترنت چقدر باید راجع به آن سایت صحبت کنند؟ 
  • آیا لینک هایی که می‌گیرد روندی طبیعی را طی می‌کنند؟

چون گوگل این ‏corpus ‎‏ را دارد رفتارهای طبیعی و غیرطبیعی و توازن سایت ما را به راحتی تشخیص می‌دهد. هر چه داده‌های گوگل ‏افزایش پیدا می‌کند و داده‌های آموزشی بیشتری را به سیستم هوش مصنوعی خود می‌دهد سیستم هوش مصنوعی آن قوی‌تر شده و ‏راحت‌تر می‌تواند این مسائل را تشخیص دهد. ‏

سیستم خبره فازی

گوگل سال 2011 دو الگوریتم پاندا و پنگوئن و بعد از آن الگوریتم گوره خر را ارائه کرد. بعد از ایجاد این الگوریتم ها تغییرات بسیار زیادی ‏در نتایج ایجاد شد. تا پپیش از این الگوریتم ها، یک دید صفر و یک وجود داشت یعنی یا سایتی اسپم بوده و وارد لیست سیاه گوگل شده و از ‏نتایج حذف می‌شد یا سفید بوده و در نتایج نمایش داده می‌شد.‏

اما پاندا، پنگوئن و گوره خر، یک ویژگی مشترک داشته و هر سه حیوان سیاه و سفید بودند. از این زمان به بعد گوگل به صورت صفر و یک به ‏مسائل نگاه نکرد بلکه با منطق فازی آن‌ها را بررسی می‌کرد. منطق فازی یک بازه‌ای از سیاه و سفید است و لزوما سیاه یا سفید مطلق ‏نیست. برای همین از منطق فازی در الگوریتم های پنگوئن و پاندا استفاده می‌کند تا مشخص کند یک سایت از نظر لینک و محتوا تا چه مقدار ‏اسپم است.‏

در حال حاضر الگوریتمی به نام ‏ELT‏ وجود دارد که شامل سه فاکتور اعتبار، اعتماد و تخصص می‌شود. گوگل بررسی می‌کند:

  • سایتی که ‏محتوایی را در حوزه مربوط به اقتصاد یا سلامتی تولید می‌کند آیا صلاحیت تولید این محتوا را دارد؟ 
  • آیا از تخصص لازم برای تولید چنین محتوایی را برخوردار است؟ ‏
  • آیا تعهد دارد که پاسخگوی سوالات ‏کاربران باشد؟ 
  • آیا گواهینامه دارد؟ 

گوگل تمام این موارد را به صورت انسانی چک می‌کند. برای چک کردن این موارد افرادی وجود دارند که سایت ها را چک کرده و به آن ‏ها امتیاز می‌دهند. این امتیاز وارد سیستم یادگیری ماشین گوگل می‌شود و به این ترتیب گوگل از طریق یادگیری ماشین ‏corpus‏ ‏خود را قوی تر می‌کند.‏

پردازش زیان طبیعی یا ‏NLP‏ ‏‎(Natural Language Processing)‎‏

وقتی در هوش مصنوعی درباره پردازش زبان طبیعی یا ‏NLP‏ صحبت می‌کنیم با الگوریتم های دیگری آشنا می‌شویم. مثلا در الگوریتم ‏مرغ مگس خوار، تمرکز روی عبارتی که شما جستجو می‌کنید نیست بلکه تمرکز روی مفهومی است که شما در جستجوی آن هستید.‏

مثلا فرض کنید شما عبارت «از کجا می‌توانم یک موبایل ارزان سامسونگ بخرم» را جستجو می‌کنید. در این حالت دقیقا به دنبال پیدا ‏کردن این عبارات در سایت‌ها نیست بلکه به دنبال یافتن مفهوم عبارتی است که شما جستجو کرده‌اید تا خواسته و نیاز شما را درک ‏کرده و بهترین نتایج را برای شما به نمایش بگذارد. در این عبارت متوجه می‌شود که شما به دنبال یافتن یک مکان هستید، قیمت برای ‏شما مهم است و همچنین به دنبال خرید گوشی موبایل سامسونگ نیز هستید.‏

الگوریتم ‏BERT‏ که به تازگی توسط گوگل معرفی شد یک الگوریتم ‏NLP‏ است. هدف این الگوریتم این است که هوش مصنوعی ‏بتواند مفهوم یک عبارت را تشخیص دهد و مانند انسان زبان طبیعی را بفهمد. ‏

BERT‏ سومین الگوریتمی است که گوگل به عنوان اختراع منتشر کرده است.‏‎ ‎اولین اختراع گوکل الگوریتم ‏page rank، سپس ‏الگوریتم کبوتر و در نهایت سومین اختراع یا همان الگوریتم ‏BERT‏ که آن را در سال 2018 ثبت کرده است. ‏

یک سیستم منبع باز ‏‎(open source)‎‏ را نیز به نام ‏ALBERT‏ قرار داده و بخش کوچکی از ‏BERT‏ را منتشر کرده که در آن می‌گوید هوش ‏مصنوعی چگونه می‌تواند زبان انسان را بفهمد و مفهوم عبارت را درک کند.‏

ترکیب ‏BERT‏ که روی محتوای صفحات و مرغ مگس خوار که روی عبارات جستجوی کاربران ‏‎(query)‎‏ کار می‌کند، می‌تواند نتایجی را ‏به کاربران نمایش دهد که دقیقا خواسته آن‌ها است و لزوما شامل عبارتی که آنها جستجو کرده‌اند نیست اما همیشه می‌تواند کاربر را ‏راضی نگه دارد.‏

الگوریتم رنک برین‎ Rank Brain ‎

یک الگوریتم یادگیری ماشین در هوش مصنوعی است و وظیفه آن مشخص کردن وزن فاکتورهایی است که در رتبه بندی صفحات گوگل ‏وجود دارند. سیستم هوش مصنوعی، بر اساس بازخوردی که از کاربران می‌گیرد متوجه می‌شود که در چه کلمه‌ای باید چه وزنی را در ‏نظر بگیرد.‏

مثلا اگر در گوگل عبارت «قیمت دلار» را جستجو کنید بروزترین صفحه را به شما نمایش می‌دهد زیرا گوگل متوجه این موضوع ‏شده‌است و می‌داند کسانی که «قیمت دلار» را جستجو می‌کنند در واقع در جستجوی قیمت لحظه ای دلار هستند و صفحاتی که دیرتر بروزرسانی می‌شوند ارزش زیادی ندارند.‏

سایت های خبری متوجه این موضوع شدند و برای اینکه همیشه در صدر نتایج قرار بگیرند به طور مرتب اخبار جدید منتشر می‌کنند. به ‏طور مثال اگر همین عبارت «قیمت دلار» را جستجو کنید زمان بروزرسانی سایت‌های اول بسیار نزدیک به زمان جستجوی شماست، مثلا ‏‏4 دقیقه پیش. ‏

حال اگر عبارت دیگری مثلا «طراحی سایت» را جستجو کنید، در هر شهری که باشید نتایج متفاوتی خواهید دید. اگر در تهران باشید ‏شرکت‌های طراحی سایت تهران، اگر در کرج باشید شرکت‌های ساکن کرج و اگر در اصفهان یا هر شهر دیگر باشید شرکت‌های موجود ‏در همان شهر را در صدر نتایج جستجو خواهید دید. زیرا گوگل متوجه شده که این کلمه به موقعیت مکانی مرتبط است و باید نتایج ‏مربوط به همان منطقه را نمایش دهد.‏

درواقع کاری که رنک برین انجام می‌دهد این است که برای هر عبارتی که در گوگل جستجو می‌شود فاکتورها و وزن فاکتورها را تغییر می‌دهد و به این ترتیب اگر شما یک کار ثابت را در سئو انجام می‌دهید نمی‌توانید نتیجه مطلوبی بگیرید. ‏

اگر برای تمام عباراتی که دارید به یک شیوه عمل کنید ممکن است با یک کلمه به جایگاه اول گوگل برسید اما برای عبارت دیگر تغییر ‏مثبتی نداشته باشید. زیرا هر عبارت وزن متفاوتی از نظر فاکتورهای موثر بر خود دارد.‏

در چنین حالت‌هایی بهتر است روی هر کلمه‌ای که می‌خواهیم کار کنیم خود را به ذهن کاربران نزدیک کرده، بفهمیم کاربر چه می خواهد و بر اساس آن کار سئو را پیش ببریم.‏

داستان خرید مشتری ‏‎Customer Journey‎‏

رنک برین داستان خرید مشتری ‏‎(customer journey)‎‏ را از ابتدا تا انتهای مسیر در نظر می‌گیرد. در ‏customer journey‏ افراد ‏در هر مرحله ای که هستند وقتی عبارتی را در گوگل جستجو می‌کنند انتظار دارند نتایجی که می‌بینند مرتبط با نیازشان در آن مرحله ‏باشد.‏

معمولا ‏customer journey‏ شامل سه مرحله می‌شود: ‏

  • Awareness
  • Consideration
  • Decision

Awareness‏: افراد در این مرحله به دنبال آگاهی هستند و با کلماتی که نیاز به آگاهی یافتن آن‌ها را درباره موضوعی حل می‌کند به جستجو می‌پردازند.‏

فرض کنید تصمیم به لاغری گرفته‌ایم. در این حالت در اولین مرحله در گوگل با عباراتی مانند «چگونه لاغر شویم»، «روش های کاهش ‏وزن» یا «چگونه شکم خود را کوچک کنیم» و عباراتی به این شکل به جستجو می‌پردازیم. در این مرحله به دنبال آگاهی هستیم و بعد از ‏خواندن چند مقاله با روش‌های مختلف آشنا می‌شویم.‏

Consideration‏: در این مرحله ممکن است به جستجو درباره «مضرات قرص‌های لاغری»، «فواید لاغری از طریق ورزش» یا ‏‏«مشکلات عمل لاغری» و عباراتی نظیر این مثال‌ها بپردازیم.‏

Decision‏: در این مرحله تصمیم خود را برای خرید یا استفاده از خدمات خاصی گرفته‌ایم. پس در گوگل عباراتی مانند «قیمت تردمیل ‏تایوانی» یا «باشگاه ورزشی نزدیک میدان ونک» را جستجو می‌کنیم.‏

قاعدتا گوگل در هر کدام از این سه مرحله باید نتایج متفاوتی را به کاربر نمایش دهد. مثلا زمانی که در مرحله آگاهی قرار داریم و به دنبال ‏روش‌های لاغری هستیم انتظار نداریم در نتایج محصول لاغری نمایش دهد.‏

از طرفی زمانی که در مرحله تصمیم گیری و به دنبال خرید کالا هستیم گوگل مقاله نمایش نمی‌دهد و ما نیز انتظار دیدن مقاله را نداریم.‏

الگوریتم رنک برین این موارد را به خوبی تشخیص می‌دهد و عبارات مورد جستجوی کاربران را به خوبی با مرحله‌ای که در آن قرار دارند ‏و نتایجی که انتظار دارند به دست بیاورند تطبیق داده و به آن‌ها نمایش می‌دهد.

نبرد انسان و هوش مصنوعی

سوالی که پیش می‌آید این است که پیروز این میدان کیست؟

خیلی از تکنیک‌هایی که در سئو سیاه وجود دارد و اصطلاحا سئوکاران کلاه سیاه از آن‌ها استفاده می‌کنند در واقع روش‌هایی است که ‏سئوکاران می‌خواهند با گوگل مبارزه کنند و سیستم هوش مصنوعی آن را با چنان داده‌ها و ‏corpus‏ قدرتمندی دور بزنند و تصورشان ‏بر این است که اگر به طور مثال هر روز یک مقاله راس یک ساعت مشخص بر روی سایت قرار بدهند یا در کامنت‌های مختلف برای یک ‏صفحه لینک ایجاد کنند به خوبی نتیجه می‌گیرند و می‌توانند موفق شوند.‏

اگرچه این کارها در گذشته خوب بودند اما هر چه زمان می‌گذرد گوگل الگوریتم های خود را بهبود می‌دهد و این هوش مصنوعی یاد ‏می‌گیرد که چگونه باید با این کلاه سیاهان مبارزه کند.‏

شاید تصور ما بر این باشد که انسان باهوش‌تر است و می تواند هوش مصنوعی را شکست دهد. در صورتی که در عصر حاضر قدرت هوش ‏مصنوعی به حدی بالاست که حتی قهرمانان شطرنج را نیز شکست می‌دهد. پس بهتر است به جای فکر کردن به اینکه چطور در سئو ‏کلاهی بر سر گوگل بگذاریم و آن را فریب دهیم، به دنبال پیروی از قوانین صحیحی باشیم که فلسفه گوگل بر آن پایه‌گذاری شده است و ‏فعالیت‌های خود را بر اساس آن‌ها انجام دهیم زیرا ما توان مقابله با این هوش مصنوعی قدرتمند را نداریم.‏

کافیست تا به جای مقابله با خود گوگل، از رقبای دیگر بهتر باشیم تا در این بازی برنده باشیم و بتوانیم موفقیت کسب کنیم.

در نهایت مهم‌ترین چیزی که گوگل بسیار به آن اهمیت می‌دهد این است که وقتی یک جستجو در گوگل انجام می‌شود، کاربر جوابی را ‏که دقیقا طبق خواسته خودش است دریافت کند. پس برای موفق بودن در سئو باید سعی کنیم خود را به خواسته کاربران نزدیک کنیم. ‏کاری را انجام دهیم که کاربر می‌خواهد و نتیجهای را ایجاد کنیم که مطابق خواسته کاربران است. ‏


عنوان سخنرانی: هوش مصنوعی در برابر حماقت طبیعی

گوگل در سال‌های اخیر الگوریتم هوش مصنوعی خود را توسعه بخشیده و در حال حاضر بهترین سیستم ترجمه ماشینی دنیا را دارد. تا کنون گوگل، اختراعات زیادی در حوزه هوش مصنوعی به ثبت رسانده و هوش مصنوعی نقشی بزرگ در الگوریتم‌های گوگل بازی می‌کند. در حال حاضر، بسیاری از فاکتورهای رتبه بندی گوگل توسط هوش مصنوعی تنظیم می‌شود و به مرور زمان سئوکارها باید با هوش مصنوعی گوگل رو به رو شوند. در این سخنرانی در مورد این موضوعات صحبت میشود:

  • هوش مصنوعی چیست و چه الگوریتم‌هایی را شامل می‌شود؟
  • پردازش زبان طبیعی (NLP) چیست؟
  • گوگل چه Corpus ای دارد؟
  • گوگل برای شناخت PBN، چگالی کلمه کلیدی در صفحه و پیدا کردن مدل‌های متوازن وب سایت‌های اسپم از چه روش‌هایی استفاده می‌کند؟
  • در سال 2020 چه اتفاقی در گوگل خواهد افتاد و هوش مصنوعی گوگل به چه سمتی حرکت خواهد کرد؟

و در آخر اینکه آیا انسان می‌تواند با هوش مصنوعی مقابله کند؟ 

نظرات کاربران

نظر تازه ای ثبت کنید