Чтобы убрать сайт из индекса Яндекса. :)
Снял переходы на сайт с GA и увидел, что данных очень мало. Потом вспомнил, что основной запрос у меня "not provided" :(
Можно ли вытащить список запросов из WebMaster ? или только ручками?
Просто там с опозданием на несколько дней отображается более полный список запросов.
Вынужден признать, что яндекс каким-то образом склеил страницы. Но нельзя утверждать, что он за это не штрафанул. Хотя, кто его знает и я не всеведущ.
Офтоп. Данная страница серьезно поколебала мои знания о работе с сайтами. Дмв метатега charset, 16 ошибок html.
sitemap 216 страниц
В индексе яндекса 527 (куча файлов ppt+ русские url) Из sitemap 46 страниц нет в индексе. Всего 109 url выкинутые из индекса, но отдающие 200.
Google
Файл robots.txt и sitemap.xml в индексе
В основном индексе, который по запросу с /& нет 109 страниц из sitemap.xml и еще куча интересных вещей.
Есть повод для размышления. :)
Кто Вам сказал такую глупость, что дубли не индексируются? Дубли прекрасно могут быть проиндексированы это я наблюдал у себя, сейчас зачистил. Или Вы хотели сказать, что дубли не присутствуют в выдаче? Не проверял.
Совсем недавно чистил у гугла следующие дубли (это немножко в сторону от начального вопроса):
site1.ru/page/
site1.mainsite.ru/page/
И они были прекрасно проиндексированы. И серьезно влияли на ранжирование обеих сайтов.
site1.ru и mainsite.ru - это сайты абсолютно разной тематики.
PS. Мое мнение адреса:
site.ru/page1
site.ru/pAge1
Для поисковой системы являются абсолютно разными адресами.
И ответ вашего сайта на обращение по адресу site.ru/pAge1 может быть следующий (варианты) :
- Редирект 301 на один из адресов
- Ответ 404 по одному из вариантов (что менее желательно, так как существует вероятность, что на страницу site.ru/pAge1 имеются внешние или внутренние ссылки)
- Разное содержимое. Если в этом нет крайней необходимости, то такое решение нежелательно. Сложно контролировать внешние и внутренние ссылки, возможно изменение алгоритмов поисковых систем, ди и самому запутаться легко.
- Канонический адрес (самое простое и работающее решение)
Если у вас сайт отдает один и тот же контент по адресам:
То продвинуть такие страницы очень сложно. Если такая картина наблюдается по всему сайту, потеря трафика может составлять 15-20% (по моему опыту). Серьезных фильтров не наблюдал.
Сейчас показать примеры не могу, так как таких уже косяков не делаю. Но могу утверждать, что полтора года назад и Яндекс и Гугл считали это разными страницами и дублями.
Проверил на себе, когда обнаружил ссылки на сайт с Заглавными буквами.
Редирект не делал, сделал канонические ссылки на страницах
Воскресенье, вечер и я продолжаю тупить.
То есть Вы хотите сказать, что в ТОПе яндекса есть страница донора по данному запросу и у нее в сниппете есть ссылка на мой сайт. Когда пользовател кликает в данный снипет, то попадает на мой сайт и это есть трафик с яндекса по данному запросу. Я правильно понял Вашу мысль?
Завтра проверю. Сегодня уже не то состояние.
А можно данный момент поподробнее? Жирные тематические доноры есть и они в индексе. Более того они в ТОП-10. Получается, что пользователи переходящие по ссылке с донора, на который зашли с Яндекса, Гугл Аналитикс считает трафиком Яндекса?
Еще один нюанс, это не "новые посещения"
Ситуация в чем: сайт поймал в Яше фильтр из-за adsense. Трафик с Яндекса упал с 170-220 до 15-20. (С гула трафик был примерно в 3 раза выше- такова специфика данной группы запросов).
15-20 уников в данном случае ни о чем. Я решил провести эксперимент с рестартом сайта в Яндексе.
После вылета из индекса я закрыл сайт в robots.txt и стал ждать.
Сейчас думаю запускать индексацию по новой или еще подождать и данный трафик немного напрягает.---------- Добавлено 26.01.2014 в 16:14 ----------
По тем запросам, перходы по которым показывает GA сайта в выдаче нет.
Для ПС это разные URL, со всеми вытекающими последствиями. Если у вас движок сайта настроен так, что может выдавать один и тот же контент с заглавными и строчными буквами в адресе, то Вы имеете дубли.
Самый простой вариант борьбы это rel canonical
Для этих целей у яши есть скрипты для популярных CMS.
Называются yandex-pinger
Ага! Узнаешь! Все страницы в ТОПе по ключевому слову "(not provided)"
:D