Важно искать конкретную смысловую потребность, а не просто писать стать со смыслом. Современное развитие поиска и формулы BM-25 привело к тому, что в тексте не обязательно указывать 10 вхождений слова, чтобы она была релевантна запросу.
Посвятить проблеме 1500 символов, описать все подводные капни, сделать вывод, данная статья не будет иметь высокий процент отказов.
Решение элементарное. Спарсить все страницы сайта(SiteMap Generator, Xenu) запретить к индексации все дубли через Robots.txt и <meta name= "robots" content= "noindex, nofollow" /> . Они не будут индексироваться и вылетать как не полезные.
Это важный параметр для поисковой системы, страницы, которые имеют меньшее число кликов - имеют больший приоритет, определить это можно по тому, как ПС выбирают релевантные страницы ваших сайтов для запроса.
6 кликов, если не пагинация - это много, нужно в корне менять структуру сайта.
А как тогда понять на, что обратить внимание при ручном обходе. Всегда идти по своему чек-листу в голове? Но это по идеи большие трудозатраты.
Как и писал выше я за ручной+разноплановое крайлеры по сайту.
Создавать страницы заточенные специально по эти НЧ запросы. В интернет магазине - статейный раздел.
Для того, чтобы ссылки нанесли вред, во первых их должно быть много по отношению к остальной ссылочной массе. Сайт не должен обладать высокими трастовыми факторами (возраст, количество контента, активность и т.д).
Я так навскидку и не скажу бесплатного онлайн-краулера. По крайней мере в списках нет хорошего, потому что это большие затраты ресурсов staurus.net/best-seo-marketing-tools.html
В десктопной программе PageWeight, кроме расчета веса есть функция поиска битых ссылок. Качество проверки иногда хуже, чем у ComparseR.
Дмитрий Бергер, Раздавая книги, которые продаются на озоне вы не будете чисты перед законом.
Решить вопрос возможно заливая книги на облако(майл.ру, яндекс, мега, гугл.диск) и файлообменики: депозит, турбобит и т.д. Кому нужно пожалуются на файл и его удалят.
Да и оставлять их как можно дольше, через 6 месяцев домен уже можно будет удалить вместе с роботсом и htaccess.
Все лить на новый домен, лишнее перенаправление не нужно.
deedee2008, Нужно разобраться каким образом поисковый робот находит эти страницы. Пока предлагаю экстренный выход, указать в robots.txt
Disallow: /detail
Потом уже разбираться как удалить остальные страницы из поиска.
Fish_su, Допустим у нас интернет магазин. Всего 3000 товарных позиций, 40 категорий. Мы хотим проверить уникальность title в пределах сайта. Вручную все смотреть?