Вопросы по Яндекс-вебмастеру

G
На сайте с 16.11.2013
Offline
55
#661

Добрый день!

Где можно найти график изменения количества внешних ссылок в новом вебмастере? Есть ли он вообще?

adel92
На сайте с 04.01.2012
Offline
334
#662
querty:
old.webmaster перестал работать. У всех так? Кто знает когда поинят?

Я думаю его уже не починят. Теперь еще пару лет будут допиливать этот интерфейс, потом он устареет и по новой ...

NVMe VDS (https://well-web.net/nvme-vps) с поддержкой 24/7 - от 545 руб.! Безлимитный хостинг (https://well-web.net/ssd-hosting) - от 129 руб.! Домен в подарок! Перенос бесплатно! Заказывайте сейчас, и получите скидку 50%! Заходи! (https://well-web.net/limited-offers)
Михаил
На сайте с 02.03.2007
Offline
153
#663
querty:
В Вебмастере не обновляются внешние ссылки, а old.webmaster перестал работать. У всех так? Кто знает когда поинят?

Так рассылалось же уведомление, что его скоро отключат наввсегда. Вот и отключили.

Счастье для всех, даром, и пусть никто не уйдёт обиженный!
EA
На сайте с 17.10.2016
Offline
1
#664

Имею сайт со 160 уникальным продуктами через ЧПУ (они же прописаны в sitemap). Уникальный URL всего <600. Не ЧПУ-шны URL закрыты в robots и это факт, так как я проверял все URL с параметрами - все красные. Яша же нашел на сайте 1000 URL, при том, что в поиске всего 100 URL.

Внимание, вопрос: Яше что пофиг на ограничения в robots.txt и он все равно по ним ходит (загружает)? Даже если URL-параметры образуют количество уникальных URL x в степени n? Яша что слепая лошадь и будет пахать пока не упадет?

Просто всякие тестировщики сайтов, типа Screaming Frog, сразу следуют robots.txt, выдавая <600 уникальных URL, после чего обход заканчивают. Так что же Яша там пыжится? Ему там еще пахать и пахать месяцами. Он так может не найти страницы с контентом, которые разрешены, тем более, что с парсингом sitemap у него проблемы, чтоб мне подтвердили в техподдержке (файл sitemap есть, а Новый сервис webmaster неделями говорит, что sitemap не найден).

Radical_R
На сайте с 25.01.2013
Offline
61
#665

1. Сам часто замечаю, что яндекс игнорирует роботс. Ничего, кроме письма платону, на ум не приходит.

2. С сайтмапом у меня также были проблемы. В ВМ очень долго писало "не проиндексирован"

Написал в ТП - сказали подождать 2-3 нед. Подождал месяц, написал в ТП.

мне объяснили, что оказывается проблема на их стороне. Карта индексируется нормально, просто в ВМ это не отображается.

DP
На сайте с 22.02.2015
Offline
32
#666
Внимание, вопрос: Яше что пофиг на ограничения в robots.txt и он все равно по ним ходит (загружает)? Даже если URL-параметры образуют количество уникальных URL x в степени n? Яша что слепая лошадь и будет пахать пока не упадет?

В вебмастере в цифре "загруженные" показывается количество всех известных поиску документов, которые он либо обошел, либо не смог обойти, в т.ч. из-за закрытия в robots. Документы, закрытые в robots.txt поисковым роботом не обходятся.

Можно зайти и посмотреть что яндекс реально обходит в разделе Индексирования - там можно подробно увидеть и по кодам ,что обошли и какая часть из документов исключена, как закрытые в robots.txt.

Если вы при этом видите что яндекс реально ходил по этим документам (а судя по вашему сообщению - нет, вы этого не видите) - тогда можно написать в саппорт

Со временем такие страницы из базы тоже уйдут.

Когда-то руководитель группы сервисов для веб-мастеров Компании "Яндекс"
EA
На сайте с 17.10.2016
Offline
1
#667
DmitriyPopov:
В вебмастере в цифре "загруженные" показывается количество всех известных поиску документов, которые он либо обошел, либо не смог обойти, в т.ч. из-за закрытия в robots. Документы, закрытые в robots.txt поисковым роботом не обходятся.

Дмитрий, спасибо за ответы!

Несколько уточнений. Т.е. загружено - это все, что бот нашел, вне зависимости от разрешений и запретов в robots? Верно?

Можно зайти и посмотреть что яндекс реально обходит в разделе Индексирования - там можно подробно увидеть и по кодам ,что обошли и какая часть из документов исключена, как закрытые в robots.txt.

Я там бываю. Там просто очень долго не было списка URL, а были только коды ответов (сайт новый, 4 недели). Сейчас я увидел там списки URL, пару дней назад их не было. В целом все ясно, Яша схватил часть красных URL (они запрещены в robots и тест на доступность не проходят - красный результат). Надеюсь, что попозже Яша их выкинет. Но факт, что он по ним пошел несмотря на рабочий запрет.

Впрочем, это не есть корень проблемы! Проблема оказалась куда проще. Движок OpenCart затраивает карточки продуктов по разным URL с разной структурой. Это и дало 600 URL при 160 продуктах. В sitemap затраивание убрал, а вот с редиректами - куда сложнее. Ровно как и написать один фильтр на все не удается из-за структуры ЧПУ. Буду думать как быть. Косяк движка.

Если вы при этом видите что яндекс реально ходил по этим документам (а судя по вашему сообщению - нет, вы этого не видите) - тогда можно написать в саппорт. Со временем такие страницы из базы тоже уйдут.

Да там слезы, 5 страниц. И я тоже надеюсь, что они уйдут со временем.

Verka_
На сайте с 24.01.2016
Offline
66
#668

Доброго дня всем. Возможно это вопрос поднимался, если что киньте ссылку.

Яндекс Вебмастер показывает, что на сайте больше тысячи страниц с ответом 404, при проверке в индексе их нет site:, bertal показывает 301 ответ и ранее с этих страниц был редирект 301, но через нек время удалились, так как проиндексировались новые. Что делать, кому верить?

ПП
На сайте с 05.08.2014
Offline
97
#669

Почему-то когда скачиваю архив всех ссылок по тексту в ЯВМ:

"Здесь могут быть не все известные нам внешние ссылки. Чтобы увидеть полный список, скачайте

архив всех внешних ссылок от 13.10.2016."

То анкоры написанные русскими буквами отображаются кракозбрами 🙄

Как можно открыть этот файл что бы все нормально читалось 😕

DP
На сайте с 22.02.2015
Offline
32
#670
Verka_:
Доброго дня всем. Возможно это вопрос поднимался, если что киньте ссылку.
Яндекс Вебмастер показывает, что на сайте больше тысячи страниц с ответом 404, при проверке в индексе их нет site:, bertal показывает 301 ответ и ранее с этих страниц был редирект 301, но через нек время удалились, так как проиндексировались новые. Что делать, кому верить?

Естественно в индексе неможет быть страниц, которые отдают 404 и Яндекс про это знает.

Зайдите в вебмастер и посмотрите в индексироваии и загруженных страницах примеры страниц с 404-м кодом

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий