- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброй ночи.
На днях заметил, что с 5 по 7 сентября у сайта появились дубли всех страниц с добавлением конце url каждой статьи /feed:madd:
Сайт: http://sitelena.ru/
Полез в feedburner на сайте, он начал выдавать:
error on line 2 at column 6: XML declaration allowed only at the start of the document
Below is a rendering of the page up to the first error.
Кроме того, до этого, заметил что яндекс вебмастер ругатся на не обновляемую карту сайта, которая генерируется плагином XML-sitemap, зашел в плагин, при попытке посмотреть карту сайта, он выдает похожую ошибку, но ссылается на другую строчку:
error on line 2 at column 1: Extra content at the end of the document
Below is a rendering of the page up to the first error.
Что интересно, что не давно, обратив внимание на возмущения вебмастера яндекса, смотрел карту сайта в настройках плагина и все работало нормально, а теперь нет.
Погуглил, рекомендации по удалению пробелов в системных файлах проверил, пробелов не нашел, при чем в файлах я не лазил последнее время.
Из всего что делал последнее время, это настраивал мобильную версию через style.css и пробовал перейти на php 7 с php 5.6? в результате чего получал следующую ошибку:
Все, больше никаких оперций не совершал, в чем может быть проблема? не могу понять, уже мозг взрывается...:D:
ЗЫ. и как можно запретить индексацию всех страниц с окончанием /feed через roborts.txt ??
Заранее, всем спасибо за советы, реально не знаю что делать...:crazy:
Тут смотрели http://zmoe.ru/xlm-sitemap/ ?
Тут смотрели http://zmoe.ru/xlm-sitemap/ ?
Спасибо за ссылку, прогу так и не поставил, не понятно каким боком, сегодня с утра, все работает в обычном режиме...как такое может быть?
И самое главное, как заблокировать через robots.txt все 150 лишних ссылок(дублей), которые появились с окончанием /feed ??? ручное удаление п о одной ссылке вообще впечатляет.🍿
Лишние страницы попали только в индекс яндекса.
Disallow: /feed
Такое не подойдет?
Disallow: /feed
Такое не подойдет?
Да, или так:
После внесения правок, проверьте ваши url в вебмастере Яндекс - "Анализ robots.txt"
Да, или так:
Disallow: *feed
После внесения правок, проверьте ваши url в вебмастере Яндекс - ""
Спасибо, первый вариант не подошел, а вот Ваш показывает результат: *feed* если вбить ссылку с окончанием /feed, в разделе "Анализ robots.txt" -> "Разрешены ли URL?".
Я так полагаю запрет действует? и можно ждать когда яндекс начнет выкидывать лишние страницы из индекса?🍿
Я так полагаю запрет действует? и можно ждать когда яндекс начнет выкидывать лишние страницы из индекса?
Верно. Со временем закрытые страницы выпадут из индекса.
Что то 5 дней прошло, а ни на одном из двух сайтов, страницы не начали выпадать...
LuckyLuciano, а ни кто и не говорил, что страницы выпадут очень быстро. Закрытые страницы через robots могут месяцами висеть в индексе...
Если нужно, что бы процесс пошел быстрее, можете отправить заявку на деление, через вебмастера.
Но лучшим решение, будет установка на страницы feed тега:
LuckyLuciano, а ни кто и не говорил, что страницы выпадут очень быстро. Закрытые страницы через robots могут месяцами висеть в индексе...
Если нужно, что бы процесс пошел быстрее, можете отправить заявку на деление, через вебмастера.
Но лучшим решение, будет установка на страницы feed тега:
Спасибо Saend, но оба способа предполагают колупаться в 150 страницах сайта, что весьма трудоемко, хочется что бы побыстрее 🍿
Легче даже просто в вебмастере добавить на удаление, так как страницы только в индекс яндекса попали.
В общем попробую удалить пару десятков страниц в ручную, посмотрю как быстро это произойдет.
ЗЫ.
Не подскажите, это нормально ли, что гугл выдает в выдаче, вместо url - хлебные крошки сайта?
Яндекс выдает в выдаче URL.
LuckyLuciano, Не переживайте. Так и должно быть если на сайте установлена микроразметка.
LuckyLuciano, Не переживайте. Так и должно быть если на сайте установлена микроразметка.
Saend, спасибо.
Как то странно, если смотреть через site:sitelena.ru - то показывает около 200 страниц в выдаче, при том что раньше было в 2 раза больше, а вот вебмастер все еще показывает, что в индексе 340 страниц.
Наверное еще не обновился.