Как не допустить дублей сайтов в индексе

Исследования

31 марта 2016

0 1302

Привет, друзья! На улице весна, всем хочется гулять. Так что постараюсь быстро и коротко рассказать про свою сегодняшнюю боль.

На самом деле, боль не совсем моя и это не мой сайт попал в сопли и не продвигается, а падает с каждым апдейтом, но все же, мне было стремно это видеть.

В чем суть случившегося

Конец месяца, я анализирую трафик и позиции (да-да, я до сих пор иногда ориентируюсь на позиции, потому что клиент так хочет) на клиентских сайтах. Манагеры попросили меня скинуть свеженькие позиции сайта напарника, я снял и ошалел. Вот почти поседел – там нет никаких позиций и они падают в течение всего месяца.

Ладно думаю хрен с ним, забил, сайт все равно не мой.

Делаю дела дальше. Меня попросили посмотреть корпоративный сайтец, потому что его спустя годы решили «выложить в интернет». Ну что ж…

Прогнал на 404 ошибки и заметил несколько странных ссылок. Стал копать.

Что выяснилось

А выяснилась очень простая вещь, которая не позволила продвинуть нормальный сайтец – кривые руки программиста.

Оказывается, он каким-то немыслимо кривым образом настроил web-сервер, что у него сайт оказался не в поддиректории, где обычно у нас лежат сайты в разработке, а вынес его на поддомен, и получилось так что поддомен стал 4 уровня! Жесть. Но это не помешало ему проиндексироваться!

По вине косорукого прогера бизнес у клиента топчется на месте, а бабки улетают в трубу.

Представьте картину: 100 сайтов прогер делает нормально, все лежит там, где надо, а сто первый сайт кривой! Это как так можно было лохануться.

Это как можно было на 101 сайте забыть прописать запретный robots.txt или прогер был настолько пьян, что море по колено? До сих пор остается загадкой. Но факт есть факт – сайт улетел, как ненужный поисковым системам дубль.

Все.

Мораль сей басни такова:

Сотрудничайте только с пряморукими программистами

Мнение автора является его собственностью и не претендует на истину в последней инстанции.