- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт site.biz, около года назад были склеены www.site.biz и site.biz
Недавно обнаружил, что яндекс расклеил сайты, и теперь при проверке с www и без www выдает различное количество проиндексированных страниц.
Вопрос, почему это произошло (я абсолютно ничего не менял), и как это может повлиять на сайт (если вообще как-нибудь повлияет)?
Suvoroff, либо глюк, имхо, либо они и не были склеены..контент на сайтах в данный момент одинаковый? Если да, то пройдёт зеркальщик и заклеит по новой.
При вводе в yandex.ru/addurl.htm сайта site.biz выводилось сообщение:
"Адрес site.biz может быть внесен в нашу базу данных (и, соответственно, проиндексирован) по адресу www.site.biz"
Это не склейка?
Контент естественно одинаковый
Suvoroff, ЭТО-склейка. А сейчас не так?
Suvoroff, либо глюк, имхо, либо они и не были склеены..контент на сайтах в данный момент одинаковый? Если да, то пройдёт зеркальщик и заклеит по новой.
Я уже без малого три месяца жду этого зеркальщика, писал в яндекс, где Платон ответил, что не может никак сделать это вручную - ждите.
В выдаче по ключевому запросу есть только один сайт, причем без www (а все ссылки идут на сайт с www). Мало того, сайт в ЯК зарегистрирован с www.
Плюс ко всему на сайте лежит robots.txt, в котором написано, кто главный.
И это еще не все, как говорят менеджеры по продажам :) Сайт без www делает 301 редирект на сайт с www :) (недавно было сделано, чтобы добить эту скотину)
Все бесполезно :)
ЗЫ. Количество страниц на сайтах с www и без www разное
Я не знаю, как устранить данный "глюк" - сам в него вляпался.
Но знаю, как предотвратить следующие - договориться с любым знакомым Олигархом на подачу жалобы в Антимонопольный Комитет. На 95% уверен - морды склеятся сами-собой, причем у всех пострадавших. =))))
Я зеркальщика тоже три месяца ждал... Вот такой это инертный робот...
Меры:
- внести в robots.txt основной домен, для этого надо почитать методику заполнения данного файла.
- перенастроить сервер, чтобы выдавал, когда надо, ошибку 301.
Я зеркальщика тоже три месяца ждал... Вот такой это инертный робот...
Положим, заходит ежедневно
- внести в robots.txt основной домен, для этого надо почитать методику заполнения данного файла.
Host: - нестандартный тег, на него ругаются все валидаторы robots.txt
- перенастроить сервер, чтобы выдавал, когда надо, ошибку 301.
Можно упустить момент, когда зеркальщик сделает свое дело.
Положим, заходит ежедневно
Host: - нестандартный тег, на него ругаются все валидаторы robots.txt
Можно упустить момент, когда зеркальщик сделает свое дело.
Конечно он не стандартный, поэтому лучше в нем делать специальный раздел для Яндекса. Да, это самый раздел должен обязательно содержать директиву (запрещающую индексацию чего-либо или разрешающую). Потому что без директивы пойдет нарушение...
Пример:
User-Agent: Yandex
Disallow:
Host: www.site.ru
User-Agent: *
Disallow:
Пример:
User-Agent: Yandex
Disallow:
Host: www.site.ru
User-Agent: *
Disallow:
Валидаторы, к сожалению, не видят подразделов User-Agent. И не факт, что через месяц тот же Google (который, кстати, проверяет средствами WebMaster Tools синтаксис robots.txt) не начнет "козлиться" на подобные артефакты. И тоже будет прав.
Яндексу, понятно, будет абсолютно по-барабану, если произойдет нечто подобное.
Многие _старые_ ресурсы, обросшие поддоменами, не прописывают ничего подобного в robots.txt. Стало быть, рано или поздно может произойти расклейка www. и . - зачем держать под домокловым мечом устоявшуюся часть ру-нета?
Самое интересное, что при подобной расклейке "старого" сайта, уже обросшего постоянной аудиторией, можно определить жизнеспособность ресурса как такового - т.е. в отсутствии существенного траффика с ПС. В моем случае - все замечательно. Произошла оценка аудитории, процент траффика с Я (он оказался гораздо меньше 30% среднесуточных уников), и ... похоже, выросло абсолютное значение конверсии (т.е. среднее число фактических обращений в день, без привязки к количеству посещений для текущего сезона).
Иными словами, траффик с Яндекса, по своей природе, иногда можно отнести к нецелевым посещениям ресурса. C'est la vie!
Не так. Сейчас как обычно - "Документ http://www.site.biz уже проиндексирован и доступен для поиска.
Вы можете посмотреть, какие страницы сайта http://www.site.biz доступны в Яндексе к настоящему времени (13540 страниц)." (для сайта с www и без разное количество страниц).
В этом и вопрос собственно, почему расклеились, ведь абсолютно ничего не далал