فعالیت های وب سایت بخش جدید و مهمی از الگوریتم گوگل است که در جهت رتبه بندی وب سایت هایی که از ترکیب کلمات کلیدی خاص استفاده کرده اند کاربرد دارد. این بخش” جنبه های مختلف فعالیتهای وب سایت ” به تازگی توسط گوگل ساخته شده و بخش جدائی ناپذیر از روند رتبه بندی وب سایت ها می باشد.

اخیراً برخی موتورهای جستجو شرکتهای تولید کننده و عرضه کنندهء‌ نوار ابزار برای مرورگر ها که جهت بررسی مسیر فعالیت های کاربران می باشد را خریداری کرده اند. با این کار گوگل قادر به نظارت بر منابع مختلف ارائهء ترافیک وب سایت ها خواهد شد. حتی توانایی نظارت بر آن دسته از وب سایت هایی که نرم افزارهای تجزیه و تحلیل بر روی آنها نصب نیست، خواهد داشت.

در ابتدا، این محتویات وب سایت بوده که مهم ترین موضوع برای بهینه سازی سایت و دستیابی به رتبه خوب در موتورهای جستجو بوده است. زمانی در سال 1990 که بهینه سازی سایت محتوا و اغلب اوقات بیش از آنچه در حال حاضر بر بهینه سازی محتوا اصرار داشتیم؛ در واقع این تمام چیزی بود که برای رسیدن به یک ترافیک مناسب برای وب سایت از موتورهای جستجو لازم بوده است. سپس گوگل اهمیت اتصال به بک لینک ها را به الگوریتم خود اضافه کرد. این اتصال به سادگی رخ می دهد، بدین صورت که لینک یک وب سایت به لینک سایت های مختلف پیوند خورده و متصل می شوند.

گوگل هر آنچه به عنوان مقیاس رتبه بندی معرفی کرده به اجرا می گذارد. که این مقیاس با نصب نوار ابزار گوگل در هر صفحه ای قابل مشاهده خواهد بود. این ابزار نه تنها تعداد بک لینک ها بلکه کیفیت آنها را نیز بررسی می نماید. همه چیز باید در این امر مساوی باشد. کیفیت و کمیت بک لینک سایت گیرنده، آن سایت را قادر ساخته که توسط کلمات کلیدی در موتورهای جستجو رتبه بهتری کسب نماید.

برای مدتی عمدتاً محتوای وب سایت در بک لینک ها، برای مورد پذیرش قرار گرفتن از طرف گوگل گوگل مهم بوده و این امر به منظور تشخیص چگونگی نوشتن محتوا توسط کلمات کلیدی خاص می باشد. البته راهکارهای مختلفی برای دستکاری بک لینک وجود دارد. که از جمله این راهکارها، برنامه ها و نرم افزارهای قابل دسترسی هستند که در مدت زمان کوتاهی قادر به بدست آوردن حجم زیادی بک لینک می باشد. گوگل نیز در جریان در دسترس بودن این برنامه ها برای مدیران وب سایت ها بوده و به همین جهت برای تعداد بک لینک ها و مدت زمان برقراری لینک برای وی سایت های لینک دهنده، محدودیت اعمال کرده است.

به عبارت دیگر گرفتن تعداد زیادی بک لینک خیلی زود باعث ایجاد رتبهء ضعیف در لیست موتورهای جستجو شده و حتی گاهی موجب مسدود شدن وب سایت می شود.البته این موضوع به تشخیص گوگل مرتبط می باشد. یعنی اگر برای بدست آوردن رتبه بندی، از دستکاری بک لینک ها استفاده شود، نتیجه آن موجب مسدود شدن وب سایت شما خواهد شد. از آنجایی که دستکاری در سیستم بک لینک ها روش های زیادی وجود دارد، گوگل اقدام به ساخت ” فعالیت های سایت” کرده و آن را مهم ترین بخش جهت سنجش در رتبه بندیوب سایت ها قرار داده است. در واقع ” فعالیت های سایت” به سادگی قادر به هدایت ترافیک به صفحهء وب سایت مشخص شده از منابع مختلف می باشد.

به عنوان مثال برای داشتن ترافیک از یوتیوب، تویتر، فیس بوک،‌دایرکتوری های مقالات، وبلاگ ها، تالارهای گفتگو و دیگر وب سایت ها به یک صفحهء مشخص؛ تمای اینها را در نظر بگیرید که موجب ایجاد ترافیک وب می شوند. توجه داشته باشید که فعالیت های سایت توسط نرم افزار های آنالیز گوگل بررسی می شود. همچنین با خرید بسیاری از نوار ابزارهای مرورگر ها و نصب آن می تواند این کار را انجام دهد.

مدیران وب سایت باید در نظر داشته باشند که امروزه کیفیت محتوا و بک لینک ها تنها چیزهایی برای بهینه سازی سایت موتورهای جستجو نمی باشد. بنابراین جنبهء مهم دیگری از سئو، فعالیتهای سایت بوده که باید آنرا در نظر داشت. برای یک وب سایت جدید، در ابتدای کار ایجاد ترافیک همواره دشوار بوده است. برخی از سریع ترین راه ها برای بدست آوردن ترافیک وب سایت از انواع گوناگونی از منابع، بازاریابی ویدئو، بازاریابی مقاله و شبکه های اجتماعی می باشد.

پیاده سازی تمامی این روش ها بسیار ساده بوده و به منظور ارائه فعالیت های وب سایت برای گوگل بسیار ضروری بوده و به جهت رتبه بندی خوب مورد نیاز می باشد. به خاطر داشته باشید رقابت بیش از حد برای بدست آوردن جایگاهی در رتبه بندی، اهمیتی نداشته و برای دستیابی به رتبهء صفحهء اول موتورهای جستجو به “فعالیت سایت” نیاز دارید.

آموزش بهینه سازی سایت

آموزش بهینه سازی سایت به نظر شما چگونه است که موتورهای جستجو در عرض تنها چند میلی ثانیه میلیون ها وب سایت را جستجو می کنند و به ما نتیجه کار را نمایش می دهند ؟ آیا به محض اینکه شما کلید واژه ای را در موتور جستجو وارد کنید تمامی صفحات وب جستجو می شوند ؟ جواب این مسئله قطعا خیر است ، اگر چنین مسئله ای وجود داشت زمان پاسخگویی موتورهای جستجو به شدت بالا می رفت. موتورهای جستجو در واقع تمامی صفحات موجود در اینترنت را برای شما در پایگاه داده خود ایندکس یا Index می کنند و بعد از اینکه شما جستجویی را انجام می دهید در واقع موتور جستجو در این پایگاه داده و صفحات ایندکس شده خود به دنبال نتیجه می گردد نه در وب سایت ها . اما سئوال اصلی اینجا پیش می آید که چگونه این صفحات در پایگاه داده های موتورهای جستجو قرار می گیرند و چگونه این پایگاه داده بروز می شود ؟ جواب این مسئله در واقع همان تعریفی است که ما از Spider ها یا Crawler ها می خواهیم در این مقاله ارائه دهیم.

 

Spider یا Crawler در SEO به چه معناست ؟


یک Spider ، یک Crawler از نظر لغوی به معنی عنکبوت و خزیدن است. Spider ها یا Crawler ها هر دو در واقع یک چیز هستند ، آنها نرم افزار یا اسکریپت اتوماتیکی هستند که لینک های اینترنتی را به یک الگوریتم مشخص و هدفمند دنبال می کنند و به وب سایت های مختلف سر می زنند و محتوای موجود در صفحات وب سایت را برای پایگاه داده های موتورهای جستجو ایندکس می کنند تا این پایگاه داده همیشه به روز باشد. در واقع Crawler ها یک نوع روبات هستند که بصورت روزانه همین عملیات را انجام می دهند. تمامی اسامی از قبیل Crawler ، Spider ، Web Spider ، Automatic Indexer همه و همه در واقع یک چیز هستند و تفاوتی با هم ندارند ، حتی اسامی ممکن است در موتورهای جستجوی مختلف متفاوت باشد برای مثال موتور جستجوی AltaVisat به Crawler خود Scooter می گوید . تمامی واژه هایی که در طبیعت مشاهده می کنید و در مباحث فنی مورد استفاده قرار می گیرد یک منشاء منطفی دارند ، زمانیکه ما صحبت از Spider و لینک ها می کنیم باید توجه کنیم که عنکبوت ها در طبیعت برای منتقل شدن از یک تار به یک تار دیگر از نخ ها یا لینک ها استفاده می کنند. Spider ها در موتورهای جستجو هم دقیقا به همین شکل عملی می کنند آنها فقط می توانند لینک ها را از صفحه ای به صفحه دیگر پیگیری کنند و از یک وب سایت به یک وب سایت دیگر بروند به این لینک های در اصطلاح SEO فید یا Feed گفته می شود ، این دقیقا همان نکته مهمی است که لینک هایی که به وب سایت شما انجام می شود در فرآیند سئو و عملکرد خود سایت شما در موتورهای جستجو تاثیر مستقیم دارند. لینک های مستقیم از وب سایت های دیگر به وب سایت شما به Spider ها تغذیه بهتری می دهد . هر چقدر بیشتر به شما لینک داده شود Spider ها بیشتر در وب سایت شما باقی می مانند و بیشتر از صفحات وب سایت شما بازدید می کنند.

 

موتور جستجوی گوگل برای ایجاد ایندکس ها و پایگاه داده جستجوگر خود وابسه به این Spider ها می باشد. Spider ها و Crawler ها از طریق لینک هایی که از سایر وب سایت ها به وب سایت شما داده شده است وارد صفحات وب سایت شما می شوند اما شما می توانید صفحات وب سایت خود را نیز بصورت دستی به این Spider ها و موتورهای جستجو معرفی کنید تا Spider های آن موتور جستجو به صفحه وب سایت شما مراجعه کنند. در صورتیکه می خواهید وب سایت خود را بصورت دستی در موتورهای جستجوی google و Bing ثبت کنید می توانید به مطلب مهندس پویا فضلعلی با عنوان معرفی سایت به موتورهای جستجو مراجعه کنید. البته در این حین یک نکته را نیز در نظر داشته باشید ، با اینکه این قابلیت که شما می توانید وب سایت خود را بصورت دستی به موتورهای جستجو معرفی کنید بسیار مفید است اما معمولا اینکار برای موتورهای جستجویی مثل google پیشنهاد نمی شود زیرا این موتورهای جستجوی اینترنتی بصورت خودکار وب سایت شما را پیدا می کنند و آنها را در خود ثبت می کنند هر چند برای Yahoo ممکن است اینکار به درستی انجام نشود. اینکار برای وب سایت شما از نظر سئو بسیار خوب است که در چندین موتور جستجوی مختلف وب سایت خود را ثبت کنید اما توجه کنید که موتورهای جستجوگری که دارای نرم افزار Spider و Crawler خوبی باشند نیازی به ثبت کردن وب سایت بصورت دستی ندارند.

بعد از اینکه Crawler های موتورهای جستجو لینک های موجود در وب سایت ها را برای پایگاه داده مربوطه Index کردند ؛ باید هر چند وقت یکبار این لینک ها را مجددا بررسی کنند و به همین دلیل مجبور هستند مجددا به لینک مربوطه سر بزنند. این سرکشی مجدد از لینک های وب سایت ها که Revisit نام دارد بر اساس یک سری خط مشی یا Policy انجام می شود. Policy هر موتورجستجوی اینترنتی ممکن است با Policy سایر موتورهای جستجو متفاوت باشد. Crawler ها کار آسانی ندارند و مشکلات متعددی در فرآیند عملکرد آنها ممکن است پیش بیاید که کاملا مرتبط با پیچیدگی ها و ویژگی های اینترنت دارد ، همین مسئله باعث می شود به روز نگه داشتن Index ها در پایگاه داده کار چندان آسانی نیز نباشد ، مهمترین ویژگی های اینترنت که باعث سخت شدن کار Crawler ها می شود به سه قسمت تقسیم می شوند.به دلیل حجم و تعداد زیاد صفحات وب در اینترنت سرعت و وهله های زمانی که صفحات تغییر می کنند بسیار زیاد است ، در این حین اضافه شدن صفحات به وب سایت های Dynamic را هم اضافه کنید که باعث سخت شدن و زمانگیر شدن عملیات Crawl می شود. متنوع بودن لینک ها و URL های اینترنتی باعث می شود که Crawler ها برای هر یک از لینک های صفحات وب موجود در مجموعه خود اولویت بندی یا Prioritization انجام دهند. انجام عملیات اولویت بندی صفحات وب که بصورت مستقیم مربوط به ترتیب نمایش آنها در نتایج جستجو می باشد توسط چهار عدد Policy مخصوص Crawler ها انجام می شود که معمولا این Policy ها برای همه موتورهای جستجو یکسان هستند و تنها کمی تفاوت دارند ، این Policy ها به شرح زیر هستند :

  • خط مشی انتخاب یا Selection Policy : این Policy تعیین می کند که چه صفحاتی برای Crawl باید دانلود شوند؟
  • خط مشی بازدید مجدد یا Re-Visit Policy : این Policy تعیین می کند چه زمانی برای تغییرات صفحات وب باید بررسی شوند؟
  • خط مشی ادب یا Politeness Policy : این Policy تعیین می کند چگونه وب سایت ها Crawl شوند که Overload نداشته باشند؟
  • خط مشی موازی کاری یا Parallelization Policy : این Policy تعیین می کند چگونه Distributed Crawler ها هماهنگ باشند ؟

Crawler های موتورهای جستجو علاوه بر اینکه از Policy هایی که گفته شد برای اولویت بندی و به حداقل رساندن فرآیند انجام کار برای بهینه سازی استراتژی Crawling خود استفاده می کنند ، نیاز به یک معماری بسیار بهینه سازی شده برای کار خود نیز دارند. همین معماری بسیار قدرتمند و بسیار بهینه سازی شده است که باعث می شود سیستم های مورد استفاده در موتورهای جستجو قادر باشند میلیون ها صفحه وب را تنها در عرض چند هفته دانلود کنند و به لیست Index های خود اضافه کنند. این معماری ممکن است به نظر کاربران ساده به نظر برسد اما باید پس زمینه کار را نیز دید. در یک Crawler حرفه ای که در موتورهای جستجو استفاده می شود ، هر صفحه وب ابتدا از اینترنت یا بهتر بگوییم از محیط World Wide Web جدا می شود و در یک نرم افزار downloader بسیار قوی قرار می گیرد. آدرس های URL ای که توسط این downloader دریافت می شوند در یک صف یا queue قرار می گیرند و بعد بصورت زمانبندی شده و اولویت بندی شده دانلود می شوند و به همراه متن و MEAT data ها در درون سیستم ذخیره سازی موتورهای جستجو قرار می گیرند. امروزه Crawler های حرفه ای در دنیا دیده می شود که مشهورترین و قدرتمند ترین آنها بدون شکر google crawler است . بدون استفاده از Search Engine Crawler ها یا همان Spider ها دیگر نه نتیجه ای در موتورهای جستجو به شما نمایش داده می شود و نه صفحه ای در این نتایج بروز رسانی می شود.

صحبت های بسیاری در مورد سئو و بهینه سازی وردپرس و تکنیک های آن انجام میشود اما در سالهای اخیر صحبت های زیادی پیرامون سئوی منفی یا همان negative SEO در دنیای اینترنت صورت گرفته است.
البته مفهوم سئوی منفی چیز جدیدی نیست ولی با سیاست های گوگل پررنگ تر از قبل شده است.
در این نوشته از مکانیک وردپرس، به بررسی سئو و بهینه سازی منفی پیپردازیم…

سئو و بهینه سازی منفی چیست؟

سئو منفی چیست؟

سئو یا بهینه سازی سایت برای موتورهای جستجو هدفی جز بهبود جایگاه شما در کلمات کلیدی مشخص و جذب بازدیدکننده از موتورهای جستجو ندارد، سئوی منفی فعالیت هایی عموما خارج از مجموعه شماست برای مقابله با موفقیت تان. بنابراین هر زمان شخصی تلاش کند که جایگاه شما را در نتایج جستجوی گوگل پایین بیاورد و از این طریق بازدید سایت شما را کاهش دهد در حال انجام سئوی منفی است.

تقریبا همه ما میدانیم که گوگل با استفاده از الگوریتم های فوق پیشرفته خود میتواند به بررسی تمام لینک های موجود در فضای اینترنتی بپردازد. در نتیجه اگر لینک هایی که برای سایت خود کسب میکنیم میتوانند مشکلاتی بهمراه داشته باشند پس لینک هایی که دیگران به سایت ما نیز میدهند از این قاعده مستثنی نیستند، اینجاست که سئوی منفی وارد میشود.

در سال ۲۰۰۷ مت کاتس در مصاحبه ای با مجله ی Forbes اعلام کرد که از بین بردن جایگاه یک رقیب در نتایج گوگل با استفاده از لینک های مخرب غیر ممکن نیست ولی بسیار مشکل است. ما همواره تکنیک های جدید را دنبال میکنیم و به سرعت پادزهرهایی برای هرکدام تهیه خواهیم کرد.

  • 1