آموزش سئو تکنیکال
خب به نصیب اصلی نوشتهی علمی برویم و ببینیم که این سئو تکنیکال را چطور بایستی خیال و خاطر بگیریم؟ به هیچ عنوان از چند نصیب درست شده و چطور میتوانیم آن را در تارنما خودمان پیادهسازی کنیم؟ تمام سعیم را میکنم که درپی نوشته ی علمی همه چیز را به سادهترین شکل ممکن برایتان توضیح بدهم :) خب، به سراغ اولین فاکتور برویم.
1. سرعت وب سایت
شاید برای شما هم دیدنی باشد بدانید که گوگل وقتی قرار است یک برگه از وب سایتتان را به نتایج اول بیاورد، به عنوان یک فاکتور اساسی سرعت آن را نسبت بهسرعت صفحات رقبا پژوهش میکند. این یعنی ممکن می باشد سرعت لود پایین تارنما شما؛ سبب خواهد شد محتوای جذاب و مفیدتان در مقابل روئت کرد آموزش سئو در مشهد کاربران قرار نگرفته و به پیمان خودمان «به پول تبدیل نشود!»
اما چرا سرعت؟ خب راستش گوگل به کاربران اهمیت زیادی میدهد و در ادامه هم کاربران از چشم به راه ماندن پای صفحات تلفن همراه یا رایانه برای باز شدن شیت تارنما شما خوششان نمیآید. یادم میباشد در گذشته ما ایرانیها حتی حاضر بودیم برای تلاوت یک نوشتهعلمی 300 کلمهای در سایتی مثل ترفندستان، یکسری دقیقه به صفحه سفید رایانه در کافی نت نگاه کنیم و چشم به راه بمانیم؛ اما امروز حتی 10 ثانیه معطل ماندن آزارمان می دهد.
در صورتیکه بخواهم یه خرده با آمار و اعداد کلام کنم؛ می بایست زمان باز شدن هر ورقه از تارنما شما چیزی در بین 2 تا 7 ثانیه باشد. به این ترتیب به عنوان قدم نخستین از بهینه سازی تکنیکال بایستی استارت نمایید به با صرفه کردن سرعت وب سایتتان. چطور؟ یا با یاری یادگرفتنهای سطح وب یا یک نرمافزار نویس ماهر و خبره. توصیه میکنم نوشته ی علمی فراگیری ارتقا سرعت سایت در وب لاگ نوین را هم برای آشنایی عالی پژوهش کنید.
2. ساختار با صرفه شده برای رباتها
گوگل و بقیه موتورهای جستجو گر برای مشاهده صفحه های وبوب سایت شما، از یکسری ربات کمک میگیرند که به اسمهایی مثل کراولر (crawler) یا خزنده، عنکبوت و... شناخته میگردند. نکته قابل توجه اینجاست که این خزندهها خیلی توانگری بالایی در تفحص صفحه ها وبسایت ندارند. یعنی اینطور نیست که امروز یک نوشتهعلمی بنویسید، آن را به امید پروردگار ول فرمایید و چشم به راه باشید که خزندهها کاغذتان را پیدا کنند.
به طبع بخوانید: نرخ برگشت سرمایه (ROI) در بازاریابی چیست؟
اصولا شما باید برای دیده شدن تارنما و صفحات آن، به رباتها امداد فرمایید. چطور؟ یک کدام از بهترین راهکارها، ایجاد یک ساختار قابل پیگیری و دنبال کردن در سایت میباشد.
خزندهها اصولاً برای کشف کردن صفحه ها تازه، از پیوندها کمک میگیرند. یعنی چنانچه من اینجا به صفحه یادگرفتن سئو در آکادمی نوین لینک بدهم، علاوه بر اینکه آن صفحه را به شمای کاربر معرفی کردهام، راهی هم ساختهام تا رباتها به آن برگه دسترسی پیدا کرده و ایندکسش کنند. (منظور از ایندکس ذخیره ورقه در دیتابیس گوگل و نمایش در حاصل میباشد).
با توجه به همین مثال، وبسایت شما می بایست به طور استاندارد دارای پیوندهای داخلی باشد. در شرایطی که بخواهم به صورت خلاصه بگویم، بایستی برای همه صفحات وبسایتتان لینک و پیوند داخلی وجود داشته باشد؛ در غیر اینصورت ممکن هست خزندهها به صورت ناقص وبسایت را خزش کنند.
3. فایل robot.txt
تا جایی که من میدانم رباتها موجودات زبان نفهمی میباشند و به راحتی نمیشود حالیشان کرد که ربات عزیز این برگه را ایندکس نکن!
اما خب با بعضا زبانهای نرمافزار نویسی میگردد با آن ها کلام کرد. فولدر متنی robot.txt که در هاست وبوب سایت شما بارگذاری می گردد، حاوی یکسری فرمان اپلیکیشن نویسی می باشد که با رباتهای موتور جستجو ارتباط برقرار میکند. اما چرا؟
اصولا این فایل به شما کمک میکند نسبت به خلق خزندهها دربارهی وبسایتتان، کمی کنترل داشته باشید. از جملهً می توانید به یاری فولدر robot از آنها درخواست فرمایید که صفحاتی مثل صفحه پرداخت و... سایتتان را ایندکس نکنند.
مثالی که از دوستم زدم را یادتان میباشد؟ دقیقاً نقص اینجا بود که در موقعیت پیش فرض تارنماهای وردپرسی یک خط کد در داخل فایل روبوت میگذارند تا رباتها نتوانند تارنما ناقص را استیناف کنند و این وظیفه طراح وبسایت می باشد که بعد از کامل شدن پروژه، این کد را از آن حذف کند. البته حذف کردن یا قرار دادنش هم کار سختی نیست؛ کافی است به بخش تنظیمات وردپرس بروید، سراغ گزینه خواندن رفته و تیک گزینهای که در پایین میبینید را حذف فرمایید:
البته درخصوص خود فایل robot.txt به صورت پیشفرض وردپرس این فایل را برای وبوبسایت شما میسازد. اما پیشنهاد می کنم برای آشنایی بیشتر سراغ مقاله آن در وبلاگ نوین بروید و اطلاعات بیشتری به دست بیاورید.
4. صفحات 404 و لینک و پیوندهای شکسته
درحالتی که همین اکنون دچار یک خوددرگیری مزمن بشوم و تصمیم بگیرم نوشته ی علمی فراگیری seo تکنیکال که در درحال حاضر خواندنش می باشید را حذف کنم؛ زمانی که بخواهید بار دیگر به آن وارد شوید، با یک کاغذ 404 روبرو خواهید شد. در اصل صفحه ها 404 صفحاتی می باشند که محتوای آن تماما حذف شده میباشد.
درپی هر لینکی که از وبسایت شما به صفحه ها 404 تارنما خودتان (یا سایرافراد) داده شود؛ یک لینک شکسته میباشد. خب؟ در اصل همه این مقدمهچینیها برای این بود که بیان کنم رباتهای گوگل از این صفحه های 404 متنفرند و وجودشان در سایت شما سبب کاهش قدرت seo تکنیکالتان می گردد.
راه حل چیست؟ چاره استفاده از ریدایرکت 301 هست. به کمک این ریدایرکت شما میتوانید رباتها و کاربرانی که وارد این صفحات حذف شده می شوند را به صفحه های مرتبط (اکثر وقت ها شیت مهم تارنما) هدایت نمائید.
5. جلوگیری از وجود صفحه ها تکراری (duplicate content)
نقص محتواهای تکراری اکثر زمان ها مشکلی میباشد که فروشگاههای اینترنتی با آن روبرو میگردند. از جملهً فروشگاهی که در محصولاتش، 5 گوشی LG مدل k8 دارد و تنها تفاوت آنها در رنگشان است. در اصل کلیه این 5 کاغذ یک محتوا و توضیحات محصول یکسان و جزئیات مشابه دارند.
گوگل در مقابل محتواهای تکراری درون وب سایت شما ساکت نمیشیند و ترجیح میدهد اعتبار سئوتان را کاهش دهد.
البته خب راه حل این نقص چیست؟ چطور یک مغازه میتواند تولیدات مشابه را هم در وب سایتش داشته باشد؟
مسلما بخوانید: تکنیک هدف گذاری SMART چیست؟
روش حلی که خود گوگل برای این خلل تعیین کرده، به کارگیری از تگ کنونیکال می باشد. با کمک این تگ شما می توانید به گوگل بفهمانید که از بین صفحه ها تکراری در سایتتان، کدام یکیاز نسخه اصلی میباشد و کدام را در نتیجه ها ایندکس نکند.
آموزش سئو تکنیکال
خب به نصیب اصلی نوشتهی علمی برویم و ببینیم که این سئو تکنیکال را چطور بایستی خیال و خاطر بگیریم؟ به هیچ عنوان از چند نصیب درست شده و چطور میتوانیم آن را در تارنما خودمان پیادهسازی کنیم؟ تمام سعیم را میکنم که درپی نوشته ی علمی همه چیز را به سادهترین شکل ممکن برایتان توضیح بدهم :) خب، به سراغ اولین فاکتور برویم.
1. سرعت وب سایت
شاید برای شما هم دیدنی باشد بدانید که گوگل وقتی قرار است یک برگه از وب سایتتان را به نتایج اول بیاورد، به عنوان یک فاکتور اساسی سرعت آن را نسبت بهسرعت صفحات رقبا پژوهش میکند. این یعنی ممکن می باشد سرعت لود پایین تارنما شما؛ سبب خواهد شد محتوای جذاب و مفیدتان در مقابل روئت کرد آموزش سئو در مشهد کاربران قرار نگرفته و به پیمان خودمان «به پول تبدیل نشود!»
اما چرا سرعت؟ خب راستش گوگل به کاربران اهمیت زیادی میدهد و در ادامه هم کاربران از چشم به راه ماندن پای صفحات تلفن همراه یا رایانه برای باز شدن شیت تارنما شما خوششان نمیآید. یادم میباشد در گذشته ما ایرانیها حتی حاضر بودیم برای تلاوت یک نوشتهعلمی 300 کلمهای در سایتی مثل ترفندستان، یکسری دقیقه به صفحه سفید رایانه در کافی نت نگاه کنیم و چشم به راه بمانیم؛ اما امروز حتی 10 ثانیه معطل ماندن آزارمان می دهد.
در صورتیکه بخواهم یه خرده با آمار و اعداد کلام کنم؛ می بایست زمان باز شدن هر ورقه از تارنما شما چیزی در بین 2 تا 7 ثانیه باشد. به این ترتیب به عنوان قدم نخستین از بهینه سازی تکنیکال بایستی استارت نمایید به با صرفه کردن سرعت وب سایتتان. چطور؟ یا با یاری یادگرفتنهای سطح وب یا یک نرمافزار نویس ماهر و خبره. توصیه میکنم نوشته ی علمی فراگیری ارتقا سرعت سایت در وب لاگ نوین را هم برای آشنایی عالی پژوهش کنید.
2. ساختار با صرفه شده برای رباتها
گوگل و بقیه موتورهای جستجو گر برای مشاهده صفحه های وبوب سایت شما، از یکسری ربات کمک میگیرند که به اسمهایی مثل کراولر (crawler) یا خزنده، عنکبوت و... شناخته میگردند. نکته قابل توجه اینجاست که این خزندهها خیلی توانگری بالایی در تفحص صفحه ها وبسایت ندارند. یعنی اینطور نیست که امروز یک نوشتهعلمی بنویسید، آن را به امید پروردگار ول فرمایید و چشم به راه باشید که خزندهها کاغذتان را پیدا کنند.
به طبع بخوانید: نرخ برگشت سرمایه (ROI) در بازاریابی چیست؟
اصولا شما باید برای دیده شدن تارنما و صفحات آن، به رباتها امداد فرمایید. چطور؟ یک کدام از بهترین راهکارها، ایجاد یک ساختار قابل پیگیری و دنبال کردن در سایت میباشد.
خزندهها اصولاً برای کشف کردن صفحه ها تازه، از پیوندها کمک میگیرند. یعنی چنانچه من اینجا به صفحه یادگرفتن سئو در آکادمی نوین لینک بدهم، علاوه بر اینکه آن صفحه را به شمای کاربر معرفی کردهام، راهی هم ساختهام تا رباتها به آن برگه دسترسی پیدا کرده و ایندکسش کنند. (منظور از ایندکس ذخیره ورقه در دیتابیس گوگل و نمایش در حاصل میباشد).
با توجه به همین مثال، وبسایت شما می بایست به طور استاندارد دارای پیوندهای داخلی باشد. در شرایطی که بخواهم به صورت خلاصه بگویم، بایستی برای همه صفحات وبسایتتان لینک و پیوند داخلی وجود داشته باشد؛ در غیر اینصورت ممکن هست خزندهها به صورت ناقص وبسایت را خزش کنند.
3. فایل robot.txt
تا جایی که من میدانم رباتها موجودات زبان نفهمی میباشند و به راحتی نمیشود حالیشان کرد که ربات عزیز این برگه را ایندکس نکن!
اما خب با بعضا زبانهای نرمافزار نویسی میگردد با آن ها کلام کرد. فولدر متنی robot.txt که در هاست وبوب سایت شما بارگذاری می گردد، حاوی یکسری فرمان اپلیکیشن نویسی می باشد که با رباتهای موتور جستجو ارتباط برقرار میکند. اما چرا؟
اصولا این فایل به شما کمک میکند نسبت به خلق خزندهها دربارهی وبسایتتان، کمی کنترل داشته باشید. از جملهً می توانید به یاری فولدر robot از آنها درخواست فرمایید که صفحاتی مثل صفحه پرداخت و... سایتتان را ایندکس نکنند.
مثالی که از دوستم زدم را یادتان میباشد؟ دقیقاً نقص اینجا بود که در موقعیت پیش فرض تارنماهای وردپرسی یک خط کد در داخل فایل روبوت میگذارند تا رباتها نتوانند تارنما ناقص را استیناف کنند و این وظیفه طراح وبسایت می باشد که بعد از کامل شدن پروژه، این کد را از آن حذف کند. البته حذف کردن یا قرار دادنش هم کار سختی نیست؛ کافی است به بخش تنظیمات وردپرس بروید، سراغ گزینه خواندن رفته و تیک گزینهای که در پایین میبینید را حذف فرمایید:
البته درخصوص خود فایل robot.txt به صورت پیشفرض وردپرس این فایل را برای وبوبسایت شما میسازد. اما پیشنهاد می کنم برای آشنایی بیشتر سراغ مقاله آن در وبلاگ نوین بروید و اطلاعات بیشتری به دست بیاورید.
4. صفحات 404 و لینک و پیوندهای شکسته
درحالتی که همین اکنون دچار یک خوددرگیری مزمن بشوم و تصمیم بگیرم نوشته ی علمی فراگیری seo تکنیکال که در درحال حاضر خواندنش می باشید را حذف کنم؛ زمانی که بخواهید بار دیگر به آن وارد شوید، با یک کاغذ 404 روبرو خواهید شد. در اصل صفحه ها 404 صفحاتی می باشند که محتوای آن تماما حذف شده میباشد.
درپی هر لینکی که از وبسایت شما به صفحه ها 404 تارنما خودتان (یا سایرافراد) داده شود؛ یک لینک شکسته میباشد. خب؟ در اصل همه این مقدمهچینیها برای این بود که بیان کنم رباتهای گوگل از این صفحه های 404 متنفرند و وجودشان در سایت شما سبب کاهش قدرت seo تکنیکالتان می گردد.
راه حل چیست؟ چاره استفاده از ریدایرکت 301 هست. به کمک این ریدایرکت شما میتوانید رباتها و کاربرانی که وارد این صفحات حذف شده می شوند را به صفحه های مرتبط (اکثر وقت ها شیت مهم تارنما) هدایت نمائید.
5. جلوگیری از وجود صفحه ها تکراری (duplicate content)
نقص محتواهای تکراری اکثر زمان ها مشکلی میباشد که فروشگاههای اینترنتی با آن روبرو میگردند. از جملهً فروشگاهی که در محصولاتش، 5 گوشی LG مدل k8 دارد و تنها تفاوت آنها در رنگشان است. در اصل کلیه این 5 کاغذ یک محتوا و توضیحات محصول یکسان و جزئیات مشابه دارند.
گوگل در مقابل محتواهای تکراری درون وب سایت شما ساکت نمیشیند و ترجیح میدهد اعتبار سئوتان را کاهش دهد.
البته خب راه حل این نقص چیست؟ چطور یک مغازه میتواند تولیدات مشابه را هم در وب سایتش داشته باشد؟
مسلما بخوانید: تکنیک هدف گذاری SMART چیست؟
روش حلی که خود گوگل برای این خلل تعیین کرده، به کارگیری از تگ کنونیکال می باشد. با کمک این تگ شما می توانید به گوگل بفهمانید که از بین صفحه ها تکراری در سایتتان، کدام یکیاز نسخه اصلی میباشد و کدام را در نتیجه ها ایندکس نکند.