Тогда уточняющий вопрос. Если на первой странице выводится 10 материалов, а за короткий отрезок добавлено допустим 15, соответственно 5 уйдут на страницу 2.
Как о них узнает робот Яндекса к примеру который заходит честно сказать жутко редко. Выходит если вторая страница закроется от индексации. Яндекс вообще не узнает об этих материалах, ну или узнает может через месяц когда случайно наткнется на саму страницу с полным материалом.
После долгого молчания по вопросу позволю себе повториться.
Как найти дубли страниц?
Многие ведь постоянно занимаются этими процедурами на своем сайте, подскажите пожалуйста.
Единственный ответ который я нашел полезным для себя это скачать XENU (скачал), но что дальше делать с полученным списком.
Простите но самостоятельное изучение рекомендации "экспортировать в эксель и сортировать по тайтлам" ни привели ни к какому результату. В интернете не описано не как экспортировать отчет в эксель ни как его потом сортировать по тайтлам.
Единственной внятной инструкцией для меня оказался ролик на ютьюбе о том как найти битые ссылки с помощью XENU. Вообще принцип работы с этой программой нигде не описан.
Отчет у меня сохранен, но что с ним делать? Как найти дубли в отчете на 2700 страниц сайта.
За этот вариант большое спасибо.---------- Добавлено 24.06.2013 в 20:28 ----------
Ничего не говорящий ответ---------- Добавлено 24.06.2013 в 20:30 ----------
Яша раньше тоже индексил картинки, но сейчас сайт под АГС, поэтому стараюсь ликвидировать любые мелкие косяки. Не понятно из-за чего он на меня рассердился (больших проблем никому обнаружить не удалось)---------- Добавлено 24.06.2013 в 20:33 ----------
Думал об этом но другие поля заняты телефонами, адресами, именами, айсикью и прочей контактной инфой. Сомневаюсь что прописывание таких данных в ALT не скажется потом негативно даже совокупно с темой самого объявления.
У одной я и оставил. Интересно, как вы представляете у каждой прописать уникальный ALT. Это ведь люди добавляют, а не я и подписывать каждое фото квартиры допустим, в объявлении, точно никто не будет.
Че то у меня видать плохо с арифметикой. 3 месяца сайту это 90 дней умножим на посещаемость 100 уников в сутки = 9000 человек было на вашем сайте. И вы спрашиваете 600 ссылок это разве много. 1 ссылка на 15 посетивших человек. Да вы волшебник. Мой ответ был бы такой если бы я что-то смыслил в продвижении черными методами (закупка ссылок да еще и с анкорами) 1 ссылка не менее чем на 1000 посетителей.
Я не утверждал (сам не знаю), а просто выразил мнение большинства из описанного в инете о Вордпресс.
У меня тоже, как я думал на Юкозе три года дублей не было, пока не проверил сайт.
Вебмастер страдает только тогда, когда он что-то наделал и стали появляться дубли, а в вордпрессе ничего делать не нужно и дубли будут по умолчанию. Вот чтобы их не было уже действительно нужно вмешаться вебмастеру.
Так что наличие дублей на вордпрес это не косяк начинающего вебмастера, а косяк самого Вордпреса.
Но я доволен, что на этот раз выбрал Друпал.
Это уже будет проблема №2. Пока я не понимаю как их извлечь из XENU в эксель как советовали.
Это в моих планах действительно на первом месте, но пока учеба стопорится выводом из под фильтра сайта (который забрасывать однозначно не буду, как некоторые советуют)
Пока все понятно с одним но, почему все советуют Вордпресс. Возможно это вопрос и плевый, но для меня главной заморочкой на Юкозе стала автогенерация дублей (которые я так пока и не понял как убрать). Как понимаю Вордпресс этим страдает еще в большей мере.---------- Добавлено 18.06.2013 в 09:28 ----------