DmitriyPopov

Рейтинг
32
Регистрация
22.02.2015
Руководитель группы сервисов для веб-мастеров компании Яндекс
wildbeez:
DmitriyPopov, приветствую!
в разделе о структуре справа "При удалении пользовательского раздела из структуры сайта информация о нем в базе Поиска сохраняется."
будет ли удаляться?
учитывается ли в % для существующих страниц?

Первого вопроса я не понял.

В хелпе речь идет о том, что удаление раздела из структуры не приводит к удалению документов из поиска (это просто виртуальное удаление виртуального раздела из вебмастера).

По второму - при создании пользовательского раздела в структуре - данные по этому разделу собираются целиком. Эти разделы созданы, во-многом для того, что бы дать вебмастерам возможность отслеживать разделы, занимающие меньше 1% от общего объема сайта.

Эдуардoff:
Для меня все становится очень странным после того, как я увидел эту страницу:
toloka.yandex.ru
Почему-то представил себе сотни школьников оценивающих сайты, которые и есть "умный алгоритм оценки сайтов"
😂
Расходы на оплату этим школьникам-роботам наверно и есть причина того, что Яндекс несколько неповоротлив

Толока - это вообще про другое, с качеством сайтов она связана очень посредственно.

moto-wizard:
Угу. 15-я позиция, что так что эдак. Пару часов назад в режиме инкогнито была 9-я.
Что за болтанка блин?

Выдача зависит от кучи факторов. Увидеть на какой позиции по запросу сайт реально физически показывается "в среднем" можно только через один единственный сервис - Яндекс.Вебмастер.

Все остальное - это так, "общая картинка для пристрелки и самоуспокоения"

Verka_:
Доброго дня всем. Возможно это вопрос поднимался, если что киньте ссылку.
Яндекс Вебмастер показывает, что на сайте больше тысячи страниц с ответом 404, при проверке в индексе их нет site:, bertal показывает 301 ответ и ранее с этих страниц был редирект 301, но через нек время удалились, так как проиндексировались новые. Что делать, кому верить?

Естественно в индексе неможет быть страниц, которые отдают 404 и Яндекс про это знает.

Зайдите в вебмастер и посмотрите в индексироваии и загруженных страницах примеры страниц с 404-м кодом

Для яндекса - URL это просто адрес документа. Из чего он состоит разницы для обхода нет

Внимание, вопрос: Яше что пофиг на ограничения в robots.txt и он все равно по ним ходит (загружает)? Даже если URL-параметры образуют количество уникальных URL x в степени n? Яша что слепая лошадь и будет пахать пока не упадет?

В вебмастере в цифре "загруженные" показывается количество всех известных поиску документов, которые он либо обошел, либо не смог обойти, в т.ч. из-за закрытия в robots. Документы, закрытые в robots.txt поисковым роботом не обходятся.

Можно зайти и посмотреть что яндекс реально обходит в разделе Индексирования - там можно подробно увидеть и по кодам ,что обошли и какая часть из документов исключена, как закрытые в robots.txt.

Если вы при этом видите что яндекс реально ходил по этим документам (а судя по вашему сообщению - нет, вы этого не видите) - тогда можно написать в саппорт

Со временем такие страницы из базы тоже уйдут.

fleman:
Спасибо, будем общаться с поддержкой. Наверняка не признаются. А что на счет пессимизации со стороны ПС? Возможны санкции? Просто пока не наблюдаю каких то изменений в худшую сторону, наоборот трафик растет. Но это пока...

Пессимизации из-за проблем в метрике не бывает. Если вы не получали аналогичных сигналов из вебмастера (только убедившись что подписаны на уведомления на фатальные и критичные проблемы) - значит поиск нормально скачивает документы с вашего сайта.

J-ran:
Спрошу здесь, чтобы темы не плодить: подтверждение прав на сайт в панели Вебмастера (html-файл в корне сайта) у всех не работает?

Сегодня в первой половине дня, действительно, были проблемы с подтверждением, но уже починили

После первого поста я даже думал подключиться к разговору... Но нет, после второго никак - я вообще получается для ТСа крайний случай возбудимости - не просто сотрудник Яндекса, а еще и исходно деанонимизированный!

Пойду место продам кому-нибудь что ли. А то надоело ипотеку платить из зарплаты...

При переезде Яндекс советует сначала переехать через robots.txt, а уже потом, после того как зеркало перенесется (что можно будет увидеть в Яндекс.Вебмастере) делать редиректы.

В данном случае Яндекс действительно не сможет прочитать robots.txt, потому что сам по себе стандарт robots.txt подразумевает его распространение именно на том домене, на котором он лежит физически.

Всего: 167