- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Добрый день!
Где можно найти график изменения количества внешних ссылок в новом вебмастере? Есть ли он вообще?
old.webmaster перестал работать. У всех так? Кто знает когда поинят?
Я думаю его уже не починят. Теперь еще пару лет будут допиливать этот интерфейс, потом он устареет и по новой ...
В Вебмастере не обновляются внешние ссылки, а old.webmaster перестал работать. У всех так? Кто знает когда поинят?
Так рассылалось же уведомление, что его скоро отключат наввсегда. Вот и отключили.
Имею сайт со 160 уникальным продуктами через ЧПУ (они же прописаны в sitemap). Уникальный URL всего <600. Не ЧПУ-шны URL закрыты в robots и это факт, так как я проверял все URL с параметрами - все красные. Яша же нашел на сайте 1000 URL, при том, что в поиске всего 100 URL.
Внимание, вопрос: Яше что пофиг на ограничения в robots.txt и он все равно по ним ходит (загружает)? Даже если URL-параметры образуют количество уникальных URL x в степени n? Яша что слепая лошадь и будет пахать пока не упадет?
Просто всякие тестировщики сайтов, типа Screaming Frog, сразу следуют robots.txt, выдавая <600 уникальных URL, после чего обход заканчивают. Так что же Яша там пыжится? Ему там еще пахать и пахать месяцами. Он так может не найти страницы с контентом, которые разрешены, тем более, что с парсингом sitemap у него проблемы, чтоб мне подтвердили в техподдержке (файл sitemap есть, а Новый сервис webmaster неделями говорит, что sitemap не найден).
1. Сам часто замечаю, что яндекс игнорирует роботс. Ничего, кроме письма платону, на ум не приходит.
2. С сайтмапом у меня также были проблемы. В ВМ очень долго писало "не проиндексирован"
Написал в ТП - сказали подождать 2-3 нед. Подождал месяц, написал в ТП.
мне объяснили, что оказывается проблема на их стороне. Карта индексируется нормально, просто в ВМ это не отображается.
В вебмастере в цифре "загруженные" показывается количество всех известных поиску документов, которые он либо обошел, либо не смог обойти, в т.ч. из-за закрытия в robots. Документы, закрытые в robots.txt поисковым роботом не обходятся.
Можно зайти и посмотреть что яндекс реально обходит в разделе Индексирования - там можно подробно увидеть и по кодам ,что обошли и какая часть из документов исключена, как закрытые в robots.txt.
Если вы при этом видите что яндекс реально ходил по этим документам (а судя по вашему сообщению - нет, вы этого не видите) - тогда можно написать в саппорт
Со временем такие страницы из базы тоже уйдут.
В вебмастере в цифре "загруженные" показывается количество всех известных поиску документов, которые он либо обошел, либо не смог обойти, в т.ч. из-за закрытия в robots. Документы, закрытые в robots.txt поисковым роботом не обходятся.
Дмитрий, спасибо за ответы!
Несколько уточнений. Т.е. загружено - это все, что бот нашел, вне зависимости от разрешений и запретов в robots? Верно?
Я там бываю. Там просто очень долго не было списка URL, а были только коды ответов (сайт новый, 4 недели). Сейчас я увидел там списки URL, пару дней назад их не было. В целом все ясно, Яша схватил часть красных URL (они запрещены в robots и тест на доступность не проходят - красный результат). Надеюсь, что попозже Яша их выкинет. Но факт, что он по ним пошел несмотря на рабочий запрет.
Впрочем, это не есть корень проблемы! Проблема оказалась куда проще. Движок OpenCart затраивает карточки продуктов по разным URL с разной структурой. Это и дало 600 URL при 160 продуктах. В sitemap затраивание убрал, а вот с редиректами - куда сложнее. Ровно как и написать один фильтр на все не удается из-за структуры ЧПУ. Буду думать как быть. Косяк движка.
Да там слезы, 5 страниц. И я тоже надеюсь, что они уйдут со временем.
Доброго дня всем. Возможно это вопрос поднимался, если что киньте ссылку.
Яндекс Вебмастер показывает, что на сайте больше тысячи страниц с ответом 404, при проверке в индексе их нет site:, bertal показывает 301 ответ и ранее с этих страниц был редирект 301, но через нек время удалились, так как проиндексировались новые. Что делать, кому верить?
Почему-то когда скачиваю архив всех ссылок по тексту в ЯВМ:
"Здесь могут быть не все известные нам внешние ссылки. Чтобы увидеть полный список, скачайте
архив всех внешних ссылок от 13.10.2016."
То анкоры написанные русскими буквами отображаются кракозбрами 🙄
Как можно открыть этот файл что бы все нормально читалось 😕
Доброго дня всем. Возможно это вопрос поднимался, если что киньте ссылку.
Яндекс Вебмастер показывает, что на сайте больше тысячи страниц с ответом 404, при проверке в индексе их нет site:, bertal показывает 301 ответ и ранее с этих страниц был редирект 301, но через нек время удалились, так как проиндексировались новые. Что делать, кому верить?
Естественно в индексе неможет быть страниц, которые отдают 404 и Яндекс про это знает.
Зайдите в вебмастер и посмотрите в индексироваии и загруженных страницах примеры страниц с 404-м кодом