Создание сайтов. Технические аспекты сайта.

   • Страницы сайта должны стабильно загружаться не более чем за 3–5 секунд. Его «расторопность» удобно проверять с помощью штатного инструмента Google (https://developers.google.com/speed/pagespeed/insights), PR-CY.ru (http://www.pr-cy.ru/speed_test) или Pingdom (http://tools.pingdom.com/).

 

  Обратите внимание  

   Неплохо, чтобы в конце ссылок, ведущих на каталоги, повсеместно ставился слэш. То бишь не http://www.site.ru/tovarchiki, а http://www.site.ru/tovarchiki/. Мелочь, но таким образом браузеру сразу ясно, что «пункт назначения» – именно каталог, и он не делает дополнительного запроса. Из таких нюансов и складывается быстродействие.

 

   • Каким бы гением ни был программист, а проверить HTML-код сайта на валидность не помешает: http://validator.w3.org. И чем меньше замусорен код, тем лучше.

   • Необходимо убедиться, адекватно ли выглядит дизайн сайта и правильно ли осуществляется взаимодействие с ним в различных браузерах, а точнее в различных версиях различных браузеров. Удобный инструмент: BrowserShots.org (http://browsershots.org).

   • Если перефразировать известный мем, «ваши дубли огорчают “Яндекс”». Да и не только его. Дубли – это повторяющийся (частично или полностью) в пределах сайта контент. Вольное или невольное самоповторение гарантированно ухудшает ранжирование ресурса. В целях борьбы с этим злом следует в числе прочего:

   • выбрать основное зеркало сайта (с префиксом www или без него) и указать его в кабинете веб-мастера;

   • проверить, не создает ли ваша CMS страниц с идентификаторами пользовательской сессии (выглядит приблизительно как &session_id= в конце URL в адресной строке браузера), поскольку таким образом поисковый робот может проиндексировать страницу как по ее обычному адресу, так и по тому «сессионному», по которому он на нее вышел;

   • посмотреть, имеет ли место чрезвычайно часто встречающийся дубль главной страницы по адресу http://www.site.ru/index.php;

   • закрыть от индексации «Версию для печати» (хотя существует способ обойтись с ней иначе, см. блок «Полезно знать») и т. д.

   Чтобы обнаружить дубли, используйте инструмент «Анализ контента сайта» с PR-CY.ru: http://www.cy-pr.com/tools/analyzer/. Технические дубли закрывайте через настройки (если дело сложнее, веб-мастер бывает, например, вынужден хитрыми манипуляциями укрощать CMS), а вот оказавшийся плагиатом контент подлежит замене на уникальный.

   • Необходимо, чтобы на каждый документ сайта можно было попасть по обычной HMTL-ссылке, чтобы на нем не было оторванных ото всего и вся страниц.

   • Файл robot.txt, во-первых, должен в принципе существовать, а во-вторых, подлежит вдум чивому редактированию. В нем указывается, что на сайте индексировать, а что нет. Служебную информацию, включая результаты внутреннего поиска, серверные логи и административную панель, конечно же, надо закрыть от ботов.

   • На сайте должен быть полный порядок с серверными заголовками. Так, несуществующим страницам полагается отдавать браузеру ошибку 404, с устаревших версий страниц на новые должен вести редирект 301. Нужно, чтобы страница 404 была вписана в дизайн сайта и предлагала посетителю способы разобраться с ситуацией (перепрыгнуть на титульную, зайти на карту сайта и т. д.). На открытие продвигаемой страницы сайта сервер в норме дает ответ вида 2xx – обычно 200 OK.

   • Нет спаму и вирусам! Прежде чем отдавать сайт на индексацию поисковикам, убедитесь в том, что он чист. Веб вам в помощь: Dr. Web (http://vms.drweb.com/online/), Virustotal (https://www.virustotal.com/).

 

   Небольшая ремарка о системах управления контен том. Имейте в виду, что среди тиражных CMS едва ли найдется хоть одна безукоризненная с точки зрения SEO. Так или иначе, готовый движок со стороны придется «подкручивать» ради полного взаимопонимания с поисковиками, вопрос лишь, насколько трудоемкой будет подгонка. Существуют проблемы, характерные для многих таких систем: например, сквозной текстовый блок в разделе каталога может индексироваться на каждой его странице, образуя частичные дубли, а следовательно, при сличении контент на них почти наверняка будет признан поисковиком неуникальным.