- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите пжлст - как это исправить? Например, такой статус у этой ссылки. В Search Console в разделе Файл индекса Sitemap ошибки отсутствуют, но есть предупреждения двух типов:
В последнем случае в качестве примеров приведены ссылки на картинки в wp-content/themes/, как я понимаю так и должно быть. Тогда что не так?
Что надо-то? Если Вас интересует, должны ли быть ошибки, - то можно ответить, что ошибки надо по возможности исправлять.
Ошибки я привел на всякий случай, судя по примерам они не имеют отношения к моей проблеме. А проблема в том, что "страница проиндексирована, но её нет в файле Sitemap" - хотелось бы знать как это исправить. И как вообще возможно, что Google индексирует новую запись быстрее, чем сам сайт?
время ответа исправляется, сюрпрайз, уменьшением времени ответа страницы. Смотреть в нормальном браузере, где есть что-то типа "Webmaster tools" - "Network": какие элементы страницы тормозят, искать - почему
Со вторым путктом все еще проще - "или крестик снимите, или трусы наденьте": в Sitemap должны быть только открытые публично ресурсы. Ссылки в карте сайта должны вести только на страницы, которые доступны к индексации. И никаких "картинок", закрытых в robots
При чем здесь картинки? Вынужден повторить, что упомянул эти два предупреждения на всякий случай - а здесь и сейчас меня интересует почему НЕ ВСЕ записи (не картинки, а записи. т.е. публикации!) попадают в Sitemap (в результате чего их нет в выдаче поисковика). В настройках Yoast SEO по записям такие настройки:
Те. все записи для индексации доступны - но почему-то не все они попадают в Sitemap.
---------- Добавлено 25.09.2018 в 17:12 ----------
Кстати у меня этот Sitemap в архиве (sitemap.xml.gz) и последний раз редактировался в 2014 году. Может его у меня попросту нет?
---------- Добавлено 25.09.2018 в 17:24 ----------
В Search Console вижу /page-sitemap.xml, /post-sitemap1.xml ..., /post-sitemap4.xml, но большая часть элементов из них проиндексирована - похоже дата архива от редактирования его содержимого не меняется. Нельзя ли как-нибудь в Search Console отфильтровать те элементы, которые не были проиндексированы? И потом проиндексировать их вручную?
меня интересует почему НЕ ВСЕ записи (не картинки, а записи. т.е. публикации!) попадают в Sitemap
...
Кстати у меня этот Sitemap в архиве (sitemap.xml.gz) и последний раз редактировался в 2014 году.
Самообслуживание? Сам спросил, сам ответил.
---------- Добавлено 25.09.2018 в 16:38 ----------
В Search Console вижу /page-sitemap.xml, /post-sitemap1.xml ..., /post-sitemap4.xml
Это не ответ, а факт, который не имеет отношения к проблеме - ниже показал, что файлы sitemap внутри архива все-таки редактируются.
---------- Добавлено 25.09.2018 в 17:42 ----------
Похоже, Вам надо разобраться с тем, что Вы отдаёте поисковикам.
В настройках Yoast SEO я отдаю поисковикам ВСЕ записи - но почему-то НЕКОТОРЫЕ из них не попадают в Sitemap - и поэтому не попадают в выдачу поисковика.
Это не ответ, а факт, который не имеет отношения к проблеме - ниже показал, что файлы sitemap внутри архива все-таки редактируются.
Это только Вы так думаете. Поисковик может иметь своё мнение. 😂
В вашем роботсе 2 строки
Sitemap: http://gadgets-news.ru/sitemap.xml.gz
Sitemap: http://gadgets-news.ru/sitemap.xml
В архивном файле sitemap.xml.gz - только старьё. В файле sitemap.xml - новая информация. И я не знаю, что по этому поводу думает робот. Как минимум, Вам надо удалить первую строку.
С чего вы взяли, что старье - разве Sitemap не может быть разбит на части и храниться в архиве? В robots.txt логичнее как раз удалить вторую строчку - в ней ссылка на стандартный, неразбитый на части и неархивированный Sitemap, которого у меня нет. А следуя вашему совету я уберу ссылку на единственный Sitemap, который у меня имеется.
С чего вы взяли
С того, что я посмотрел эти файлы.
---------- Добавлено 25.09.2018 в 17:08 ----------
В robots.txt логичнее как раз удалить вторую строчку - в ней ссылка на стандартный, неразбитый на части и неархивированный Sitemap, которого у меня нет. А следуя вашему совету я уберу ссылку на единственный Sitemap, который у меня имеется.
В таком случае куда подевался /sitemap.xml ? Почему, если он вдруг взял и исчез, у меня нет никаких явных ошибок в этом разделе в Search Console? Почему благополучно попадают в выдачу другие новые записи?