Ваших вложений не вижу, только ссылки на них.
По роботсу не ясно, в какой юзерагент вы это поместили и какой используете при сканировании. Также может у вас что-то разрешено с помощью аллов.
В общем по приведённой вами информации, ничего сказать нельзя.
Ошибку нашёл. При сохранении сгенерированной карты сайта в xml, если вес уже расчитан - то в priority - пишется он, а не базовый даже если галка в чекбокс не поставлена.
Новостники, там же новости сперва транслируются на морде, потом уже уплывают на внутрение страницы, уже через часы. С этим и связано что с тизерок конечные ссылки идут на морды новостников. А вот с откруткой промежуточной рекламы, это уже тизерки.
Гугл очень тормозной, согласен, если судить по ВМ. Но страницы которые отдают 404 из поиска выпадают быстро. А новые страницы можно загнать с помощью сервиса посмотреть как гугл-бот, скормить не конечную страницу, а раздел.
На 404 страницу редирект тогда поставьте. И чтоб отклик у неё был 404.
Вообще проблема надумана. Если есть реальный трафик и ссылки на какие-то страницы то смотрите их в сохранёнке и перенаправляете потом на новый вариант. Если трафа/ссылок нету и страницы непонятные, то страницу с 404 ошибкой отдаёте.
Скрипт какой-то, как только идёт обращение с гугла на страницу которой нету в базе, сразу она редиректится к примеру на морду сайта. Постепенно, старые страницы из поиска гугла выпадут.
Или сразу, со всех всех страниц которых нету в базе, включая несуществующие с всякими ошибками в адресе настроить редирект на какую-то страницу.
Замените 404, 301 редиректом с старых страниц на новые.
Он имел ввиду, что если можно скачать лом, то покупают только дураки. А вообще норм почтовик.
Тут дело не в обворовывании, ведь сделки не запрещено заключать только через личку: продавать и покупать что-то. Тут скорее дело в том, что такими сообщениями якобы от имени другого юзера, искусственно апают тему и набирают посты.
А вот интересно цитирование отзыва в своей теме, присланного в личку тому кто предоставляет какие-то услуги, к примеру копирайтинг - подпадает под этот запрет?
По сохранению sitemap.xml
Даже если сайт 100 страниц, и указываешь лимит 1000 на странице ссылок - всё равно почему-то формируется 2 файла:
sitemap_index.xml
SiteMap1.xml
Можно ли запускать создание индексного файла только, если число ссылок на странице меньше числа страниц сайта?
И название по умолчанию чтобы было sitemap.xml, а не SiteMap1.xml