Проблемы с картой сайт и RSS.

12
LL
На сайте с 18.02.2015
Offline
30
1609

Доброй ночи.

На днях заметил, что с 5 по 7 сентября у сайта появились дубли всех страниц с добавлением конце url каждой статьи /feed:madd:

Сайт: http://sitelena.ru/

Полез в feedburner на сайте, он начал выдавать:

This page contains the following errors:
error on line 2 at column 6: XML declaration allowed only at the start of the document
Below is a rendering of the page up to the first error.

Кроме того, до этого, заметил что яндекс вебмастер ругатся на не обновляемую карту сайта, которая генерируется плагином XML-sitemap, зашел в плагин, при попытке посмотреть карту сайта, он выдает похожую ошибку, но ссылается на другую строчку:

This page contains the following errors:
error on line 2 at column 1: Extra content at the end of the document
Below is a rendering of the page up to the first error.

Что интересно, что не давно, обратив внимание на возмущения вебмастера яндекса, смотрел карту сайта в настройках плагина и все работало нормально, а теперь нет.

Погуглил, рекомендации по удалению пробелов в системных файлах проверил, пробелов не нашел, при чем в файлах я не лазил последнее время.

Из всего что делал последнее время, это настраивал мобильную версию через style.css и пробовал перейти на php 7 с php 5.6? в результате чего получал следующую ошибку:

Warning: Declaration of description_walkers::start_el(&$output, $item, $depth, $args) should be compatible with Walker_Nav_Menu::start_el(&$output, $item, $depth = 0, $args = Array, $id = 0) in /home/l/luckyzpua/Sitelena/public_html/wp-content/themes/newsgrandnewwpthemes/lib/default-derwidget.php on line 70

Все, больше никаких оперций не совершал, в чем может быть проблема? не могу понять, уже мозг взрывается...:D:

ЗЫ. и как можно запретить индексацию всех страниц с окончанием /feed через roborts.txt ??

Заранее, всем спасибо за советы, реально не знаю что делать...:crazy:

дани мапов
На сайте с 06.09.2012
Offline
204
#1

Тут смотрели http://zmoe.ru/xlm-sitemap/ ?

Написание и доработка скриптов (PHP, MySQL, JavaScript, jQuery) (/ru/forum/811046)
LL
На сайте с 18.02.2015
Offline
30
#2
дани мапов:
Тут смотрели http://zmoe.ru/xlm-sitemap/ ?

Спасибо за ссылку, прогу так и не поставил, не понятно каким боком, сегодня с утра, все работает в обычном режиме...как такое может быть?

И самое главное, как заблокировать через robots.txt все 150 лишних ссылок(дублей), которые появились с окончанием /feed ??? ручное удаление п о одной ссылке вообще впечатляет.🍿

Лишние страницы попали только в индекс яндекса.

Disallow: /feed

Такое не подойдет?

S
На сайте с 14.12.2012
Offline
45
#3
LuckyLuciano:
Disallow: /feed
Такое не подойдет?

Да, или так:

Disallow: *feed

После внесения правок, проверьте ваши url в вебмастере Яндекс - "Анализ robots.txt"

LL
На сайте с 18.02.2015
Offline
30
#4
Saend:
Да, или так:
Disallow: *feed
После внесения правок, проверьте ваши url в вебмастере Яндекс - ""

Спасибо, первый вариант не подошел, а вот Ваш показывает результат: *feed* если вбить ссылку с окончанием /feed, в разделе "Анализ robots.txt" -> "Разрешены ли URL?".

Я так полагаю запрет действует? и можно ждать когда яндекс начнет выкидывать лишние страницы из индекса?🍿

S
На сайте с 14.12.2012
Offline
45
#5
LuckyLuciano:
Я так полагаю запрет действует? и можно ждать когда яндекс начнет выкидывать лишние страницы из индекса?

Верно. Со временем закрытые страницы выпадут из индекса.

LL
На сайте с 18.02.2015
Offline
30
#6

Что то 5 дней прошло, а ни на одном из двух сайтов, страницы не начали выпадать...

S
На сайте с 14.12.2012
Offline
45
#7

LuckyLuciano, а ни кто и не говорил, что страницы выпадут очень быстро. Закрытые страницы через robots могут месяцами висеть в индексе...

Если нужно, что бы процесс пошел быстрее, можете отправить заявку на деление, через вебмастера.

Но лучшим решение, будет установка на страницы feed тега:

<meta name="robots" content="noindex, follow"/>
LL
На сайте с 18.02.2015
Offline
30
#8
Saend:
LuckyLuciano, а ни кто и не говорил, что страницы выпадут очень быстро. Закрытые страницы через robots могут месяцами висеть в индексе...
Если нужно, что бы процесс пошел быстрее, можете отправить заявку на деление, через вебмастера.
Но лучшим решение, будет установка на страницы feed тега:

Спасибо Saend, но оба способа предполагают колупаться в 150 страницах сайта, что весьма трудоемко, хочется что бы побыстрее 🍿

Легче даже просто в вебмастере добавить на удаление, так как страницы только в индекс яндекса попали.

В общем попробую удалить пару десятков страниц в ручную, посмотрю как быстро это произойдет.

ЗЫ.

Не подскажите, это нормально ли, что гугл выдает в выдаче, вместо url - хлебные крошки сайта?

Яндекс выдает в выдаче URL.

S
На сайте с 14.12.2012
Offline
45
#9

LuckyLuciano, Не переживайте. Так и должно быть если на сайте установлена микроразметка.

LL
На сайте с 18.02.2015
Offline
30
#10
Saend:
LuckyLuciano, Не переживайте. Так и должно быть если на сайте установлена микроразметка.

Saend, спасибо.

Как то странно, если смотреть через site:sitelena.ru - то показывает около 200 страниц в выдаче, при том что раньше было в 2 раза больше, а вот вебмастер все еще показывает, что в индексе 340 страниц.

Наверное еще не обновился.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий