- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Такая странная ситуация.
Есть сайт http://8-poster.ru/. Очень плохо индексируется. Из 20 000 страниц в поиске только 4000. Причем, очень много из них несуществующих:
http://8-poster.ru/authors/Hirosige_Ando/9/
http://8-poster.ru/authors/Bekman_Maks/7/
http://8-poster.ru/authors/Uel_Jan-Per-Loran/6/
http://8-poster.ru/themes/Nyu-York/-5/
http://8-poster.ru/authors/Kross_Anri/36/
1. Они появляются автоматически. Ссылки на них никто не ставит.
2. На правильные страницы(без лишних цифр аля 9/, -5/) добавлен текст, видео, чтобы дать понять яндексу о правильной.
3. В карте сайта разумеется их нету. Там правильные страницы.
4. Закрывать в robots.txt не реально. Их много и они все равно появляются.
Писал Платону. Получил стандартный ответ:
Вероятно, робот где-либо на Вашем сайте обнаружил ссылки на указанные Вами страницы, поскольку они доступны, робот проиндексировал их и включил в результаты поиска. Если страницы не должны индексироваться и участвовать в поиске, я советую Вам запретить их посещение в Вашем файле robots.txt. Также мы проверили, Ваш сайт присутствует в поиске и находится пользователями, но некоторые его страницы, включая указанную Вами, действительно отсутствуют в выдаче, при этом никаких санкций на них не наложено. Дело в том, что наши алгоритмы устроены так, чтобы на запросы пользователей давать наиболее полный ответ, и в связи с этим в поисковую базу попадают наиболее релевантные документы. Продолжайте работать над развитием Вашего ресурса, ориентируясь на его посетителей
-----
Внимание вопрос: что это такое и как с этим бороться?
mopassan, настройте движок чтоб отдавал ошибку 404 по таким адресам. Бот не с проста их нашёл, вероятно где-то ссылки стоят на подобные страницы.
Первый день живем, если ответ будет 200 при дописывания в урл всякой бредятины, то проставив таких ссылок с других ресурсов можно кучу мусора вогнать в индекс
Почему нет?
Есть страницы с текстом "Ничего не найдено по вашему запросу, измените критерии поиска либо воспользуйтесь навигацией по каталогу:" и кучей внутренних ссылок.
А должно отдавать 404
Про 20к страниц тоже поржал - неужто все полезные? Тут вы ругаетесь, что мусор в индекс берет, а пишите, что должно быть еще больше мусора
Вопрос еще в том почему яндекс их не удаляет и не оставляет основные? Закрывать их в ручную тоже тяжело и непонятно как - они генерируются постоянно и рандомно.
По мусору. Понятно что это магазин с примерно одинаковыми страницами, но мы нагружаем страницы текстом, видео. (http://8-poster.ru/authors/Ayvazovskiy_Ivan/)
То есть все делаем для "развития сайта и для удобства пользователя" а толку никакого.
Копайте свой двиг, чтобы он не генерил левых страниц. Вся проблема в нем.
Некорректно выполнен движок Вашего сайта. Правильный сайт должен отдавать 404 по несуществующим адресам. Если у Вас иначе, то проблема на Вашей стороне. Найдите квалифицированного программиста (сами Вы, вероятно, не справитесь) и сделайте работоспособный движок
иначе Яндекс будет индексировать несуществующие адреса, затем посчитает их копиями с целью спама, и в итоге наложит санкции на сайт.
закрывать через meta noindex в header'е
Потому что данные страницы отдают код 200 вместо 404. Сделайте как выше посоветовали. Правильно движок настройте, что бы не существующим страницам отдавал 404 ошибку.
Посмотрите xml карту сайта, возможно там ссылки есть. Такое бывает при неправильной настройке генерации карты сайта.
Все разобрался. Вопрос снят